Overblog
Suivre ce blog Administration + Créer mon blog
23 avril 2014 3 23 /04 /avril /2014 11:51

Doute sur la publication du 17 mars.

A peine un mois après la publication annonçant la détection des ondes gravitationnelles quantiques relatives à la phénoménologie supposée du Big bang, qu’un article mettant en évidence de sérieux doutes sur la valeur de la publication du 17 mars est posté le 15/04 sur le site du New Scientist.

A mes yeux, il y a deux raisons d’être sceptique vis-à-vis de la publication du 17/03 telle qu’elle est proposée par John Kovac et Clement Pryke. La première vient du fait que les chercheurs trouvent une amplitude du phénomène de polarisation 2 fois plus grande que celle attendue. La deuxième est plus symptomatique, laissant entrevoir qu’un biais sérieux ait pu être introduit, c’est l’annonce tout de go, d’un sigma supérieur à 5, sans aucune vérification par une équipe extérieure à l’expérience.

L’article du New Scientist fait référence à des premières vérifications de la part de Philipp Mertsch à l’égard des possibles bruits de fond de phénomènes de polarisation du rayonnement électromagnétique. Le bruit de fond causé par les poussières célestes de sources multiples a été pris en compte par Kovac et all, selon leurs critères, et a été estimé dans les conditions de leurs observations à 20%. Selon Ph. Mertsch, les découvreurs des ondes gravitationnelles quantiques ont probablement sous-estimé la poussière résiduelle au sein des enveloppes en expansion des supernovae qui ont autrefois explosé. Il se trouve qu’au moins une de ces enveloppes traverse significativement le champ d’observation et d’évaluation de Bicep2. Est-ce que son impact sur le résultat publié le 17 a été correctement évalué ?

Aux échelles de perception qui sont les nôtres aujourd’hui, nous savons bien les limites, dites de l’observation, que nous côtoyons actuellement. Grâce aux moyens informatiques, les processus de modélisation ou de simulation que nous entreprenons à partir d’existence supposée, ici d’ondes gravitationnelles primordiales, ne peuvent pas être totalement neutres, totalement passifs.

Le doute est installé, peut-être que l’équipe de Kovac sera en mesure de le lever d’une façon convaincante rapidement. Ce qui est certain c’est que les résultats de Planck, actuellement promis en octobre 2014, offriront une confirmation ou une infirmation. Il paraîtrait que l’équipe de Planck dispose d’indices favorables grâce à des techniques et des conditions d’observations très différentes. De toutes les façons la mise en forme de résultats publiables s’avère délicate car nous avons déjà subi deux reports de publication depuis l’an passé.

Quel que soit, in fine, le résultat, réjouissons-nous de tout ce qui a pu se dire, être publié, republié, depuis le 17/03. En accéléré, en quelques jours, nous avons bénéficié de tout ce qui depuis 1980 a été cogité pour tenter de justifier d’un instant primordial de Notre univers qui soit en accord avec les constatations de sa structuration apparente, telle qu’elle nous apparaît, jusqu’à maintenant. En accéléré, en quelques articles, nous avons été confrontés à l’enchaînement des hypothèses qui s’impose, pour que l’édifice soit cohérent, pour que la machinerie engendre. Ainsi on ne peut manquer d’évaluer sa fragilité, sa construction artefactuelle. Au bout du compte on constate que cet instant primordial sans cesse se dérobe parce que la cause primordiale se dérobe. A moins d’évoquer le Divin, la cause divine, nous ne pouvons pas nous arrimer au point fixe de la cause primordiale qui enclencherait la machinerie de la genèse de Notre univers. Une des alternatives proposée, est la banalisation de Notre univers qui serait généré parmi tant d’autres au sein d’un multivers et/ou avec d’autres multivers, enfin la thèse de l’inflation éternelle proposée par Alan Guth procède d’une préoccupation identique.

La quête d’une origine primordiale absolue est donc une source de difficultés insolubles[1]. Ce n’est pas parce que l’on peut prétendre attribuer une origine à l’être pensant que nous sommes, (tout du moins un horizon sensé repérable dans le temps[2]), qu’automatiquement il doit en être ainsi de Notre propre univers naturel. La métaphysique incontestée chez les cosmologistes aujourd’hui consiste à considérer que c’est Notre univers qui est en mouvement avec un processus de genèse. Je propose que nous procédions à un véritable changement de paradigme métaphysique qui conduit à considérer que c’est l’intelligence de l’être pensant qui est en mouvement, métaphysique que j’énonce comme suit :au sein d’une Eternité (l’Univers), parmi tous les possibles (le(s) Multivers), avec ses capacités cérébrales sans limite : l’anthrôpos ne cesse de creuser un univers de connaissances (Notre univers), qui progressivement englobera les entités : univers, multivers, qui lui semblent encore extérieures, exogènes, qui sont plus le fruit d’une intuition légitime et/ou d’un souci de cohérence que celui d’une intelligibilité déjà établie. C’est en mettant en évidence des nouvelles propriétés et des nouvelles lois physiques que le sujet pensant, grâce à l’évolution permanente de ses capacités cérébrales, intégrera ces entités dans son propre univers en extension.

Au sein d’une Eternité : tout est , le problème d’une origine de ce que nous débusquons comme nouveau phénomène conçu grâce à nos nouveaux savoirs ne se pose pas. Il n’y a en fait qu’une finalité qui est la nôtre et nous caractérise, qui en permanence nous met en jeu, et éternellement nous mettra en jeu.

Quand j’affirme : « que le sujet pensant, grâce à l’évolution permanente de ses capacités cérébrales… », je pense à l’évolution de nos capacités de cognition directement induites par l’évolution de nos connaissances de l’Univers. Pensons qu’Einstein, il y a un siècle, considérait que l’Univers immuable était simplement notre propre galaxie avec quelques millions d’étoiles. C’est Hubble qui a, en 1920, découvert que cela bougeait au-delà de la Voie Lactée : c’était Andromède qui était ainsi intégrée dans notre patrimoine intellectuel. Progressivement ce qui constituait encore l’Univers s’enrichissait de milliers, de millions, de milliards, de galaxies et concomitamment les galaxies s’enrichissaient jusqu’à des centaines de milliards d’étoiles, de trous noirs dont certains hyper massifs et autres objets célestes curieux et remarquables. Depuis une décennie on identifie des exo-planètes et à partir de là on peut maintenant statistiquement affirmer qu’il y a en moyenne 2.7 planètes qui gravitent autour de chaque étoile. Impossible de laisser de côté l’idée qu’il puisse y avoir d’autres intelligences dans Notre univers et dans les autres. On comprend bien que ces explosions quantitatives induisent des évolutions qualitatives au bénéfice de l’être qui est en mesure d’accueillir ces connaissances nouvelles. En un siècle le patrimoine savant du sujet pensant à propos du cosmos s’est considérablement enrichi de tout ce qui était déjà là évidemment. De là, implicitement (difficile d’affirmer que cela est déjà explicite), nous différencions Notre univers, de l’Univers, et pas de raison que cela s’arrête.

 Pensons aussi aux premières versions naïves de Big bang, de Lemaitre, Friedmann, Einstein, et là où nous en sommes aujourd’hui. Pensons aussi aux capacités extraordinaires actuelles de fabriquer des instruments d’observation qui nous permettent d’ausculter la moindre vibration, la moindre lumière du cosmos. Notre regard est de plus en plus profond, nos capacités d’inférer s’étendent... cela ne peut s’arrêter.

Des avancées importantes sont prévisibles, elles adviendront lorsque, par exemple, nous serons intellectuellement en mesure de nous émanciper des contraintes de la loi E = mc2 (voir articles sur les neutrinos et matière noire) ainsi que de nous émanciper de l’horizon ‘indépassable’ de la vitesse de la lumière : constante universelle. On dit qu’il n’y a pas de vitesse possible au-delà de la vitesse de la lumière. Cela est exact lorsqu’il s’agit de la lumière rayonnée par la matière qui nous est jusqu’à présent familière et a fortiori cela est exact pour cette matière elle-même. Mais on évoque aussi la vitesse d’expansion fabuleuse de l’univers primordial qui échappe à toute évaluation, il n’en reste pas moins que le concept de vitesse reste approprié. Certes et ne l’oublions pas c’est l’expansion de l’espace-temps à l’exclusion de toute forme d’énergie et de matière. C’est l’inflaton ? qui serait la cause. Cette évolution se fait à pas comptés : certains physiciens parlent de bouffées d’expansion cosmique exponentielle, d’autres parlent d’une dilatation considérable de l’univers pour atteindre une taille bien supérieure à celle de celui que nous pouvons observer, d’autres encore évoquent une expansion brève et brutale ou encore une expansion fulgurante en un bref instant. Ces variations sémantiques ne sont certainement pas fortuites. Dans certaines expressions le concept de vitesse est un concept de représentation intellectuelle implicitement opérant, dans d’autres ce n’est plus le cas. Exploiter et maîtriser le concept de vitesse pour des vitesses supérieures à la vitesse de la lumière, qui est à la source de notre propre existence car c’est elle qui nous a forgés, sera difficile voire une barrière définitivement infranchissable. Actuellement c’est un horizon et par la voie de la démarche scientifique propre à la physique, il pourrait être objectivement franchi.

 



[1]La problématique de l’origine a aussi été un obstacle rédhibitoire lorsqu’il s’est agi de vouloir penser l’origine du langage. Pour pallier à cette quête source de stagnation de l’étude du langage par la voie d’une science appropriée, la Société linguistique de Paris a inscrit, en 1866, dans ses statuts un article qui passera à la postérité et qui stipule que la Société n’acceptera « aucune communication concernant l’origine du langage ». Une des raisons de cet article visait à contrer l’attitude quasi mystique dont on entoure outre-Rhin, à cette époque du romantisme allemand, la remontée dans la passé le plus ancien des langues. Il se trouve qu’après-coup de cet interdit historique, il advint la remarquable éclosion et le développement de la linguistique générale, notamment avec Saussure et ses disciples. Si l’interdit fut efficace, plus d’un siècle durant, c’est parce que, la linguistique structurale et la grammaire générative, bref la science linguistique libérée de toutes contraintes mystiques de l’origine, a pu opposer ses évidences théoriques et de méthode. Grâce à cette avancée, dorénavant, les recherches conjointent, des linguistes, des biologistes, des neurologues et psychologues, aussi bien que des anthropologues et des paléontologues sont en mesure de mieux situer la venue du langage à l’homme.  

[2]A ce titre, voir le livre passionnant et remarquable : ‘Comment le langage est venu à l’homme’, de J.M. Hombert et de G. Lenclud chez Fayard. Janvier 2014.

Partager cet article

Repost0
22 mars 2014 6 22 /03 /mars /2014 05:15

La physique n’est pas une science qui nous conduit à la connaissance de la réalité. Elle nous conduit à établir des vérités fondées.

Ces vérités fondées ne proviennent pas de nulle part, elles sont le fruit de l’analyse des propriétés observables de la nature et concomitamment de leur interprétation accompagnée d’une mise en forme dans le langage mathématique qui est considéré comme un langage universel. En tous les cas celui-ci favorise l’évaluation et l’approbation intersubjectives. Ces vérités sont retenues comme telles par une communauté de physiciens qui approuvent soit totalement, soit moyennement, soit d’une façon critique, ou soit réfute ce qui a été mis en évidence. Ces vérités fondées suscitent en permanence un bouillonnement intellectuel vivifiant pour toute la communauté, surtout en physique fondamental.

Certaines fois la situation peut être caricaturale. Le dernier oracle de S. Hawking en est un exemple mais ce n’est pas accidentel. En deux pages, sans justification par quelques équations, il annonce qu’il ne croit plus à l’hypothèse de l’horizon du trou noir au sens habituel que lui-même avait contribué à justifier, il y a quelques décennies, certes en tergiversant entre temps à propos de la perte irréversible de l’information, sur les objets engloutis dans le trou noir, ou pas. Il semblerait qu’il ait tourné casaque en évaluant les dispositifs extraordinaires voire abracadabrantesques qui ont été conçus pour justifier la conservation de l’information sur la matière après qu’elle soit engloutie par le trou noir.

Dans la durée, c’est-à-dire depuis au moins 40 ans, nous sommes témoins d’un bégaiement prolongé de la physique fondamentale. Celui-ci est illustré par l’impossibilité d’unifier les deux corpus majeurs de la physique théorique. La recherche de la théorie nouvelle qui émergerait de cette unification permettrait ainsi de réunifier le discours scientifique à propos des objets et des phénomènes qui font simultanément appel à ces deux corpus. Ainsi les physiciens retrouveraient le confort intellectuel de la croyance, qui pour une grande part les motive : atteindre la connaissance de la réalité du monde physique.

Il se trouve que la physique censée décrire les propriétés des trous noirs ne nous offre toujours pas la possibilité de trouver la voie conduisant à la formulation de nouveaux paradigmes libérateurs. Je considère que nous sommes condamnés au bégaiement tant que nous serons dans la conviction que la science physique est une science qui nous conduit à la connaissance de la réalité unique et définitive des choses.

Globalement on considère que le passage de la physique classique à la physique quantique s’apprécie au passage de grandeurs continues à des grandeurs discontinues. Or avec l’objet trou noir il se trouve que la discontinuité est subie par l’observateur extérieur au trou noir, dans le sens où son statut d’observateur des objets est progressivement gommé au fur et à mesure que ceux-ci se rapprochent de la ligne de l’horizon, il est (presque) privé de la lumière ou de signal qui lui permet de continuer d’être un observateur pur. Et si cet observateur pouvait vivre très, très, longtemps, il pourrait voir des choses bizarres qui seraient dues à des propriétés quantiques. Toutefois on peut considérer que ce même observateur a aussi un statut d’observateur cérébral qui peut prendre en partie la relève car grâce à sa connaissance de la relation d’équivalence entre mi = mg il lui est possible, potentiellement, de concevoir le destin de l’objet au-delà de l’horizon avant qu’il avoisine franchement la singularité spatio-temporelle car grâce à la relativité générale il peut concevoir et calculer la géodésique suivie par les objets, avant et après l’horizon, qui est assurément continue.

L’autre observateur, qui lui accompagnerait l’objet dans son mouvement de chute libre, ne constaterait aucune discontinuité au passage de l’horizon.

Dans cette affaire on constate que la place et le statut de l’observateur occupent un rôle essentiel dans l’explication rationnelle qui peut être mis en valeur pour rendre compte de la phénoménologie relative à un trou noir.

C’est encore plus riche en surprise car selon la loi de la Relativité Générale, l’observateur extérieur ne verra jamais, en fait, l’objet franchir l’horizon et l’explication qui s’impose pour rendre compte de la phénoménologie relative à la fréquentation du voisinage de l’horizon sans son franchissement observable fait appel aux lois de la mécanique quantique qui propose la thermalisation de l’objet. Actuellement ces deux discours rationnels se valent et sont également vraisemblables pour un même objet. Ces deux discours s’appuient sur des vérités scientifiques tout autant fondées l’une comme l’autre, ce qui fait la différence c’est le point de vue des observateurs.

Il est remarquable de penser que la loi de Relativité Générale fut motivée par son auteur avec la conviction que le point de vue de l’observateur doit être évincé pour atteindre la réalité du monde physique et que mettre en évidence les propriétés d’invariances, dans le cadre de ces lois, à l’égard de tous les points de vue était un critère de validation des lois qui touchent au monde réel. Voilà que l’objet Trou Noir, qui est un objet caractéristique des théories d’Einstein, et par un effet boomerang remarquable, impose qu’on réhabilite le ou les observateurs pour dire des choses sensées à leur sujet.

Léonard Susskind rappelle dans son livre : ‘Black holes, information and the string theory revolution’, p.175 : « Bien que la mécanique quantique ait rendu l’événement probabiliste et que la relativité rende la simultanéité non absolue, il était malgré tout assumé que tous les observateurs agréeraient sur les relations invariantes entre les évènements. Cette conception persiste toujours avec la R.G. classique. Mais le paradigme progressivement se déplace. Il n’a  jamais été adéquat pour combiner la mécanique quantique et la relativité générale. »

L. Susskind a raison d’indiquer à partir de ces deux constats qu’il y a matière à forger des paradigmes, et je retiendrai celui qui s’est imposé sur la base de la conviction ‘Réaliste’ d’Einstein : « La simultanéité n’est pas absolue’ ou encore avec l’affirmation équivalente : «Ce qui du point de vue physique est réel… est constitué de coïncidences spatio-temporelles. Et rien d’autre[1]. ». Cette croyance d’Einstein a pour conséquence l’expulsion affirmée et irrémédiable de la ‘Présence’ du sujet. Conviction cohérente avec son préalable philosophique qui est que les bonnes lois de la physique sont celles qui ne sont pas assujetties à des points de vue multiples d’observateurs, en fait à aucun.

Depuis de nombreuses années je prétends que se situe exactement à cet endroit la source de toutes les difficultés de la physique théorique d’aujourd’hui. En introduisant l’hypothèse du TpS (Temps propre du Sujet), (voir plusieurs articles du blog), on élimine toute idée que le sujet pensant puisse accéder à l’observation de la simultanéité et en conséquence on établit la réalité du ‘sujet pensant générique’ dans la conception fondamentale du corpus de la physique théorique. On ne peut expulser sa ‘Présence’. Ainsi le paradigme d’Einstein, qui fait obstruction au développement de la physique théorique aujourd’hui, est effacé.

Cette thèse que je défends a, évidemment, une conséquence qui est annoncée dans le titre de l’article : La physique n’est pas une science qui nous conduit à la connaissance de la réalité. Elle nous conduit à établir des vérités fondées. Il faudrait donc renoncer à la certitude que nous puissions atteindre la connaissance du monde réel et accepter l’idée que le physicien conçoit des vérités fondées. Il est certain que sur le plan ontologique, qualitatif, le renoncement est redoutable. Mais c’est le prix d’une liberté, d’une respiration intellectuelle qui est nécessaire et sera bénéfique. Ce renversement fondamental sera une source de nouvelles avancées des propriétés de la Nature que nous sommes à même de distinguer. Effectivement cela implique que le sujet pensant générique soit partie intégrante du monde que progressivement nous dévoilons. Dans ce cas nous ne pouvons pas prétendre que la physique serait une science absolument objective au sens strict du terme.

Les résultats récemment publiés à propos des premiers instants de notre univers doivent être considérés comme un magnifique exemple du processus de création d’une vérité fondée. Surtout ne donnons pas à ces résultats le statut d’une preuve d’un réel début unique de l’univers. Notre univers, c’est-à-dire celui que nous pouvons intellectuellement investir, n’est que celui provisoire, correspondant à l’état de nos capacités actuelles de décryptage au sein d’une éternité, parmi tous les possibles… J’annonce ainsi le thème du prochain article.



[1]Lettre à Ehrenfest du 26 décembre 1915.

Partager cet article

Repost0
17 février 2014 1 17 /02 /février /2014 11:30

Avec Max Tegmark

Max Tegmark vient de publier un livre très intéressant qui s’intitule : ‘Ma quête pour la Nature Ultime de la Réalité[1]. Je vais me référer à l’analyse qui en est proposée dans le blog philoscience par J. P. Baquiast le 29/01/2014. D’emblée le titre annonce l’objectif du cosmologue Tegmark, par contre il n’est pas précisé, à ce niveau, que la conception de Tegmark fait référence d’une façon significative à la métaphysique Platonicienne.

Ce livre est intéressant car il met en évidence une fois de plus combien les physiciens ont besoin, toujours, de considérer que d’une façon ou d’une autre il y a un monde extérieur objectif, établi ou préétabli.

Il y a un nombre significatif de convergences entre la conception de Tegmark et celle que je propose dans les articles successifs sur mon blog depuis plusieurs années. Pourtant, nous nous basons respectivement sur des conceptions premières qui sont évidemment clivées. Il m’est arrivé à plusieurs reprises[2]de résumer ma conception par : « C’est au sein d’une Eternité, parmi tous les (univers) possibles, que l’anthrôpos creuse sa connaissance d’un Univers régi par les lois qui correspondent aux déterminations qui nous constituent. »

Dit autrement cela signifie que le scénario ou modèle d’Univers que je préconise représente un bilan de nos capacités de décryptage en tant que sujet pensant, sans qu’il y ait la perspective d’une quelconque limite, et non pas, comme le conçoit la très grande majorité des physiciens, un  scénario ou un modèle qui se rapporte toujours en première instance à une réalité effective. Ainsi les cosmologistes qui travaillent sur le scénario du Big-Bang considèrent que celui-ci a eu lieu effectivement il y a 13 milliards 800 millions d’années. Le réalisme de ces physiciens oblige à considérer qu’il faut aussi proposer le mécanisme qui engendre (a engendré) l’objet nouveau de leur découverte tel que le cosmos. Certes avec cette fameuse thèse du Big-Bang on s’assure que notre existence n’est pas banale.

Ce que je pense, c’est que parmi tous les possibles, au sein d’une Eternité, progressivement notre capacité de décryptage de plus en plus affûtée nous permet de saisir des pans entiers de possible parmi tous les possibles. Le problème de l’engendrement et donc de son mécanisme ne se pose pas car cela est. Reprenons ce, cela est : M. Tegmark, avec tous les Platoniciens, affirmerait cela est : mathématiquement préinscrit, assis ; quant à moi j’affirme cela est : vrai, mais c’est une vérité partagée qui s’accorde avec ce qui nous constitue, ce qui fait de nous des sujets pensants, sans que cette vérité puisse être déclarée comme Universelle, à moins de cantonner l’universel à notre propre univers. Cela est vrai, mais ce n’est pas figé dans le marbre car le sujet pensant continue sa conquête de vérités de plus en plus élaborées, de plus en plus étendues.

M. Tegmark propose concrètement 2 concepts: «Le premier est celui du multivers, selon lequel la notion d'univers multiples constitue la seule façon scientifique de se représenter notre univers et sa place dans un environnement cosmologique plus large dont il ferait partie. Le second est celui de l'univers mathématique (voir conception Platonicienne). Tous les univers, dont le nôtre, exprimeraient des structures mathématiques fondamentales en dehors desquelles il n'y aurait pas de réalité profonde. »

« Tegmark s'efforce de démontrer que la réalité n'est pas seulement descriptible en termes mathématiques – ce que personne ne conteste, du moins en principe. Il affirme que la réalité est mathématique et n'est pas autre chose. Encore faut-il s'entendre sur ce que comprend ce terme de réalité. »

« Par ailleurs le tissu même de la réalité physique contient des douzaines de nombres pures à partir desquelles toutes les constantes observées peuvent en principe être calculées. Certaines entités physiques telles que l'espace vide, les particules élémentaires ou la fonction d'onde, semblent purement mathématiques, en ce sens que leurs propriétés intrinsèques sont des propriétés mathématiques. Il en déduit la possibilité de formuler ce qu'il nomme l'Hypothèse d'une Réalité Extérieure physique complètement indépendante des humains. En utilisant une définition assez large des mathématiques, cette première hypothèse en implique une autre, l'Hypothèse de l'Univers mathématique selon laquelle notre monde physique serait une structure mathématique. Ceci signifie que ce monde physique n'est pas seulement descriptible par les mathématiques mais qu'il est mathématique. Les humains seraient dans ce cas des composantes conscientes d'un gigantesque objet mathématique.»

 « Tegmark croit pouvoir postuler que les mathématiques de notre univers ne constituent qu'une structure mathématique parmi une infinité d'autres structures concevables, celles correspondant notamment (mais pas exclusivement) aux mathématiques inventées par les mathématiciens théoriciens dans un travail de découverte ou de construction qui ne cesse de s'étendre. Or si notre structure mathématique d'ensemble constitue un univers, le nôtre, pourquoi les autres structures ne correspondraient-elles pas à d'autres univers ? Tegmark peut alors faire l'hypothèse que toutes les structures mathématiques imaginables existent physiquement sous la forme d'univers parallèles, constituant le Multivers évoqué ci-dessus. »

Dans la continuité de physicien théoricien comme R. Penrose, par exemple, M. Tegmark nous propose une version plutôt fidèle de la métaphysique Platonicienne qui fut la référence exclusive du fondateur de la physique moderne, c’est-à-dire Galilée : « La philosophie est écrite dans cet immense livre qui est constamment ouvert sous nos yeux, je veux dire l’univers, mais on ne peut le comprendre si l’on ne s’applique d’abord à en comprendre la langue et à connaître les caractères avec lesquels il est écrit. Il est écrit en langue mathématique et ses caractères sont des triangles, cercles et autres figures de géométrie, sans le moyen desquels il est humainement impossible d’en comprendre un mot. Sans eux, c’est une errance vaine dans un labyrinthe obscur. » On voit donc que la physique moderne se donne pour programme de reconstruire le monde avec les mathématiques pour seul matériau.

 « La science moderne correspond au remplissage d’un cadre prédéterminé, où chaque phénomène doit être rapporté à une construction mathématique. » ce qui a comme conséquence avec cette mathématisation de la nature de nous trouver confrontés à la pensée possible d’un monde se passant de la pensée, inaffectée par le fait d’être pensé ou non.

La vérité de l’univers serait indifférente à la réalité de l’homme.

Ce refus de la réalité de l’homme qui s’inclurait dans la vérité scientifique se révèle par exemple dans les distorsions de compréhension, toujours actuelles, de la mécanique quantique. A propos du statut de la fonction d’onde nous avons une belle illustration du refus d’inclure le patrimoine intellectuel de l’observateur générique (générique, avec le sens qui a été proposé par Kant) dont chacun de nous en est le représentant. Alors, à cause de ce refus, c’est au forceps que nous affirmons qu’avant l’observation, le chat est mort et vivant à la fois, le rayonnement électromagnétique est à la fois onde et corpuscule, que le spin de l’électron est à la fois up et down, etc… etc.

Si tout autrement, nous considérons que la fonction d'onde comprend l'ensemble des informations relatives à tous les 'apparaître' potentiels qui sont le fruit de notre patrimoine intellectuel déterminé en tant qu'observateur générique nous n’avons plus à imaginer que l’incompatible devrait coexister. Il est naturel de considérer que c’est la réalité concrète de l'instrument de mesure qui détermine quel apparaître sera effectif. Il y a donc réduction. Si on prend l'exemple de la lumière on ne peut pas oublier que l'interprétation corpusculaire a fait partie de l'histoire des tentatives d'explication possible des phénomènes de la lumière (exemple célèbre et caractéristique : Newton) tout comme l'explication ondulatoire. Voilà ce que j'appelle le patrimoine qui s'est constitué au cours de l'histoire de notre développement cérébral et intellectuel au cours de notre confrontation permanente[3]avec ce que nous offre la Nature immédiate à l'échelle de nos facultés de perception naturelles et à l'échelle classique. Cela n'est pas un problème de Ph. D. comme le dit avec sarcasme J. Bell. Il est aujourd'hui possible d'aller voir expérimentalement si cette explication est pertinente.

Nous ne sommes pas là, dans de la science-fiction car les avancées de plus en plus crédibles de l’imagerie cérébrale autorisent à prendre sérieusement en considération la formation et le développement d’un patrimoine culturel chez l’homme. Voir l’article : ‘Comment les concepts sont-ils codés dans le cerveau ?’ in ‘Pour la Science’ de février 2014.  

Le livre de M. Tegmark offre une démonstration supplémentaire de l’extraordinaire nécessité de croire, de la part du physicien, qu’il lit, qu’il comprend, d’une façon ou d’une autre, un monde qui lui est totalement extérieur. Il y a une extraordinaire résistance à penser que cela puisse être autrement.

A part les QBistes (voir article précédent du 11/01/2014) qui le conçoivent mais maladroitement, tous les physiciens qu’ils soient Platoniciens ou non sont convaincus que leur métier consiste à mettre en évidence des lois qui rendent compte des propriétés d’une Nature qui leur est extérieure. Ils sont des lecteurs, des découvreurs, à partir du même belvédère constitué de matériaux qui n’auraient rien en commun avec ceux qui constituent la Nature qu’ils prétendent découvrir. Ils ne peuvent pas concevoir que leurs facultés cérébrales intrinsèques actuelles soient déterminées par l’histoire de l’évolution du sujet pensant, qui est l’histoire perpétuelle de l’obligation d’une émancipation vis-à-vis de cette Nature. Comme j’ai été amené à le proposer à plusieurs occasions[4], la dynamique de la quête du sujet pensant est l’expression de cette oscillation perpétuelle entre l’être de la Nature et l’être dans la Nature.

Le postulat : la Nature du physicien est la Nature qui est hors de ce que nous sommes est de moins en moins crédible mais la croyance est toujours inébranlable. A mes yeux, elle est une croyance qui nous empêche de penser autrement, elle fait obstacle à intégrer la ‘Présence’[5]du sujet pensant en tant que composante inaliénable de la dynamique de notre univers. Cette croyance a peut-être pour but de préserver d’une même humiliation que celle qu’ont vécue les Réalistes lors de l’avènement de la Mécanique Quantique ? Déjà, N. Bohr avait demandé à ces réalistes d’accepter de renoncer aux croyances établies comme immuables pour pouvoir aller de l’avant vers de nouvelles connaissances. On peut affirmer que ce renoncement n’est absolument pas acquis, encore, aujourd’hui.

En intégrant la ‘Présence’, le Big-Bang ne serait pas le début d’un mécanisme de surgissement de notre univers, il serait le témoin, la marque, de l’état actuel de notre capacité de comprendre notre univers, tout autant, dans sa profondeur chronologique et corrélativement spatiale, que dans sa densité phénoménologique. Nous devons considérer que ce fameux Big-Bang a joué son rôle dans la mesure où il a servi à ce que notre pensée ait pu se poser sur une origine pour à partir de là penser à un essor de notre univers. Mais maintenant qu’il véhicule autant d’apories, c’est le signe que nous devons considérer qu’il est un artefact qui n’est donc plus utile. Comme il m’est arrivé souvent de le dire toutes les cosmogonies, dans l’histoire de l’humanité, se sont appuyées sur une origine. Soyons donc humble et considérons que nous sommes partie prenante de cette histoire et nous ne devons pas croire que nous avons atteint le Graal de l’Origine. Sinon, adieu : la spiritualité, la métaphysique, la philosophie, la science, et donc le destin de la pensée de l’Homme, sera sa pétrification.

Je propose de mettre en exergue une proposition déjà citée ci-dessus de M. Tegmark : « Or si notre structure mathématique d'ensemble constitue un univers, le nôtre, pourquoi les autres structures ne correspondraient-elles pas à d'autres univers ? Tegmark peut alors faire l'hypothèse que toutes les structures mathématiques imaginables existent physiquement sous la forme d'univers parallèles, constituant le Multivers évoqué ci-dessus. » De son point de vue de Platonicien, Tegmark conçoit d’autres univers possibles, sans limites. Pour lui, ils sont parallèles, pour moi le sujet pensant les intègrera, ils seront le fruit de nouvelles conquêtes de nos capacités intellectuelles toujours en devenir. Bref, ils ne sont pas définitivement parallèles, nous les rencontrerons, ils feront partie du processus de l’extension de notre univers. Il faut ouvrir la perspective d’un cosmos plus étendu. Et comme le suggère à nouveau Tegmark : « L’inflation éternelle (sic) créerait des espaces ou univers s’éloignant du nôtre à des vitesses supérieures à celles de la lumière (sic). » Cela ne me surprend pas que nous commencions à concevoir : que la vitesse de la lumière ne soit pas une limite de vitesse absolue. M. Tegmark prend la précaution de dire : « Ils seraient donc radicalement inobservables, mais n’en seraient  pas moins aussi réels que le nôtre. Leurs lois fondamentales pourraient être différentes des nôtres. » Même ceux-là, je considère que nous les intègreront. Ils finiront par faire partie du champ concret de notre conception intellectuelle. Cela veut dire que nous dépasserons à terme cette horizon de vitesse de la lumière : constante universelle, parce que nous aurons compris pourquoi, cet horizon considéré comme indépassable s’impose actuellement ainsi, en quoi il correspond à notre détermination humaine actuelle. Ce sera une étape décisive que de nous émanciper de cette contrainte, peut-être que le chemin de cette émancipation sera de dépasser tout simplement la notion de vitesse, comme moyen de rendre compte de certaines propriétés significatives de la nature. D’autres vérités de l’univers pourront être révélées au moyen de nouvelles grandeurs. Raisonnablement, il est permis de penser que nous ne sommes pas loin de franchir ce cap.

 

 



[1]Ce livre est actuellement disponible uniquement en anglais.

[2] Voir l’article publié le 2/11/2012 : Un Monde en ‘Présence’

[3]Développement qui se serait peut-être significativement engagé, il y a 1.75 million d’années avec Homo ergaster. Voir mon article du 10/10/2013

[4] Voir article du 02/11/2012 :  ‘un Monde en ’Présence’ et celui du 01/01/2013 ‘un Monde en ‘Présence’ II’

[5] Article précédent du 11/01/2014.

Partager cet article

Repost0
11 janvier 2014 6 11 /01 /janvier /2014 14:31

                                   L’étrangeté quantique, une illusion ?

Il n'y a pas d’illusion, il n’y a que ce que le sujet pensant est à même de concevoir. En  insistant sur le terme illusion cela laisse entendre que nous savons qu’il y a quelque chose d’autre que ce que nous ‘voyons’, nous pensons, nous déduisons logiquement. Cela laisse entendre que nous ne sommes pas dupes et qu’il y aurait à coup sûr une réalité plus profonde.

Quelle est la nature de ce savoir ? Est-ce que nous ne serions pas plutôt toujours encombrés[1]par une métaphysique réaliste persistante qui a par exemple servi de fondement pour s’opposer à l’émergence de la mécanique quantique. L’étrangeté provient du fait que nous sommes des êtres classiques, déterministes, déterminés par notre rapport façonnant avec la Nature à l’échelle classique et notre intelligence naturelle ne peut évoluer que lentement au fur et à mesure que notre rapport avec la Nature s’enrichit, se densifie, s’approfondit. En bref, ‘penser quantique’ peut être une perspective, sur le long terme, pour le ‘sujet pensant’ que nous sommes. J’aurais pu dire pour ‘l’être pensant’ que nous sommes mais je prenais le risque d’esquiver l’idée essentielle du rapport déterminant avec la Nature et avec notre volonté  façonnant de la maîtriser (déjà exprimé par Descartes : la soumettre.). Nous sommes plus dans une dynamique de confrontation à l’égard de la Nature qu’à son côté. (Rappelons-nous de l’hypothèse de l’apparition du langage chez l’homo ergaster concomitant avec le processus du taillage du silex.)

Pour l’essentiel, je fais référence à l’article publié dans ‘Pour la Science’ de Janvier 2014, qui vante les mérites des lumières du QBisme[2]à propos des soit disant étrangetés de la mécanique quantique. Heureusement et rapidement l’auteur rappelle quelque chose qui est essentiel : « L’idée selon laquelle la fonction d’onde ne serait pas une identité réelle remonte aux années 1930 et aux écrits de Niels Bohr, l’un des fondateurs de la mécanique quantique. Il considérait qu’elle faisait partie du formalisme « purement symbolique » de la théorie quantique : un outil de calcul, et rien de plus. Le QBisme est le premier modèle à donner un ancrage mathématique à l’affirmation de Bohr. Il fusionne la théorie quantique avec les statistiques bayésiennes, un domaine vieux de 200 ans qui considère la probabilité comme le reflet d’une croyance subjective. » En synthèse : « Le QBisme ne considère pas la fonction d’onde d’un système quantique comme une entité physique, mais comme un outil mathématique qui reflète les connaissances dont dispose l’observateur sur ce système. »

Je partage pour une large part ce qui est écrit dans cet article notamment : « mais une fonction d’onde n’est qu’une description de ce que pense l’observateur. » ou encore mais c’est au titre d’une affirmation banale : « Faisant la chronique des affres de la naissance du QBisme, l’ouvrage laisse entrevoir comment la physique théorique est créée par les êtres humains bien réels (sic). »

Tout ceci ne peut avoir un impact réel que si on se débarrasse une bonne fois pour toutes de toute présomption qu’il y aurait dans ce monde une réalité, finie, établie, indépendante de ce que nous sommes, et qu’il suffira de lever le voile ou les voiles successifs pour que l’os de cette réalité nous apparaisse définitivement. Grâce au niveau d’évolution qui est celui du genre humain, nous atteignons des fragments plus ou moins significatifs de vérités qui sont parfaitement crédibles et qui font sens au regard de nos capacités d’évaluation, en ce sens l’être humain est un être vivant exceptionnel mais toute extrapolation qui lui attribuerait l’exclusivité et le savoir universel ne peut plus, à mes yeux, être prétendue[3]. Il est plus juste de considérer que nous sommes ‘au sein d’une éternité parmi tous les possibles’ et que nous dévoilons progressivement un de ces possibles toujours en devenir.

J’ai déjà proposé une expérience qui permettrait de vérifier la validité de la thèse de N. Bohr et reprise par les QBistes. Je l’ai exprimé dans l’article du 27/08/2012 : ‘D’infinies précautions’, de la façon suivante :

Et si toute cette étrangeté n’était que le fruit d’une pensée fondamentalement archaïque de l’observateur qui conçoit une représentation ondulatoire par défaut.

  1. Lorsque l’observateur sait qu’il y a quelque chose dans l’interféromètre (qu’elle que soit cette chose : photons, électrons, neutrons, molécules de fullerènes, virus ?) mais reste parfaitement ignorant du chemin suivi par la chose[4] alors c’est l’aspect ondulatoire (étendue spatiale) qui s’impose à l’observateur. Je propose de considérer que cette part d’ignorance de l’observateur joue un rôle essentiel et donc dans le cadre d’un cheminement archaïque de notre fonctionnement cérébral se trouve comblée l’ignorance spatio-temporelle par l’’illusion’ d’une représentation ondulatoire. Attention parce que l’illusion va jusqu’à une mystification (ou une auto suggestion imposante) car les figures d’interférence sont visibles sur la plaque du détecteur. A ce titre on peut considérer qu’il est absurde et donc rédhibitoire de formuler une telle hypothèse. Pourtant, je propose de continuer à la retenir en laissant cet aspect provisoirement de côté.

  2. Si au contraire l’observateur recueille une information sur le passage par un chemin particulier dans l’interféromètre (information spatio-temporelle) alors c’est l’aspect objet ponctuel qui s’impose à l’observateur. L’investissement cérébral de l’observateur est sollicité d’une manière différente grâce à l’information spatio-temporelle.

    Si je souhaite persévérer avec l’hypothèse 1), c’est parce qu’il est peut-être possible de la soumettre à l’expérience. En effet une pensée (représentation) archaïque devrait probablement avoir pour siège une partie archaïque du cerveau. Il existe maintenant grâce aux laboratoires de neurosciences cognitives et d’imagerie cérébrale la possibilité de mettre au point une expérience, avec un protocole certainement très sophistiqué, où on pourrait évaluer si l’ignorance partielle d’un observateur compétent mettrait en jeu une région du ‘cerveau pensant’ différente de celle d’un même observateur qui penserait l’ondulatoire à partir d’un apprentissage acquis (par exemple à partir de la connaissance des équations de Maxwell et de leur résolution.)

    J’ai dû, pour formuler cette hypothèse, vaincre mes propres réticences dont l’héritage est évidemment bien connu. Je ne doute pas que les lecteurs de cet article vont éprouver la même réluctance. Sans vouloir provoquer qui que ce soit, j’ai la profonde conviction qu’il faudra dans un temps proche passer par ce stade expérimental.

    1. Pourquoi je ne peux pas être satisfait de quelques un des commentaires et des appréciations de Hans Christian von Baeyer ?

      Je voudrais expliciter mon insatisfaction en isolant deux expressions de l’auteur : « Bayésianisme quantique : la fonction d’onde ne correspond qu’à l’état mental (sic) de l’observateur ; le chat lui-même est soit mort, soit vivant. » et « En considérant la fonction d’onde du chat comme une propriété subjective (sic) de l’observateur, et non comme une propriété objective de l’animal, le QBisme résoudrait le paradoxe du chat de Schrödinger. »

      Avant tout, il est vrai que cet article valide l’intitulé de mon cours, proposé depuis 2007 : ‘Faire de la physique avec ou sans ‘Présence’ ? ’. Toutefois la présence que j’évoque est avec un P, alors que celle de l’article est à mon avis celle d’un p.

      L’article contribue aussi à renforcer le sens de ceux que j’ai proposé dans le passé, notamment : ‘ l’être humain est-il nu de toute contribution lorsqu’il décrypte et met en évidence les lois de la nature ?’ (le 21/12/2011) ; ‘Thomas Bayes dans le cerveau ?’ (le 2/11/2012) ; ‘Scientifiques façonnés dès la naissance’ (le 24/03/2013).

      Vous comprenez que ce n’est pas un problème de purisme exacerbé que de vouloir exprimer une différence fondamentale entre le p majuscule et le p minuscule. En fait cela met en évidence des présences qui sont d’une nature différente. Dans l’article ‘Scientifiques façonnés dès la naissance ?’, j’ai écrit : « Nous serions donc en tant que sujet pensant profondément déterminés par cette voie illustrée par la formule de Bayes. » C’est-à-dire que j’évoque la ‘Présence’ constitutive du sujet pensant tel qu’il est dans la profondeur de sa nature anthropologique. C’est une ‘Présence’ qui est la racine de l’anthrôpos. Je me réfère donc à la Présence inexpugnable du sujet pensant malgré les velléités d’Einstein avec sa thèse du ‘réalisme’ de gommer toute idée : d’instant, de moment, présent.

      L’état mental et la subjectivité de l’observateur, évoquent des qualités, des états qui sont variant dans le temps, variant aussi suivant les cultures, cela évoque une ‘présence’ du sujet pensant déjà établie. 

      Le patrimoine intellectuel est déterminant

      Si on se réfère au principe de complémentarité, Bohr précise que l'apparaître ondulatoire ou l'apparaître corpusculaire sont complémentaires et ce sont les instruments d'observation qui font la différence. La fonction d'onde comprend l'ensemble des informations relatives à tous les 'apparaître' potentiels qui sont le fruit de notre patrimoine intellectuel en tant qu'observateur générique. (Non-dit par les QBistes, en cela ils négligent quelque chose d'essentiel.) Générique au sens que Kant l'a proposé. L'instrument de mesure détermine quel apparaître sera effectif. Il y a donc réduction. Si on prend l'exemple de la lumière on ne peut pas oublier que l'interprétation corpusculaire a fait partie de l'histoire des tentatives d'explication des phénomènes de la lumière (exemple célèbre et caractéristique : Newton) tout comme l'explication ondulatoire. Voilà ce que j'appelle le patrimoine qui s'est constitué au cours de l'histoire de notre développement cérébral et intellectuel au cours de notre confrontation avec ce que nous offre la Nature immédiate à l'échelle de nos facultés de perception naturelles et à l'échelle classique. Cela n'est pas un problème de Ph. D. comme le dit avec sarcasme J. Bell. Il est aujourd'hui possible d'aller voir expérimentalement si cette explication est pertinente.

       

       



    [1] Parce que la rétention d’information de la part de la chose est parfaite. A. Zeilinger précise que si la chose émet une information et ce même s’il n’y a pas d’observateur pour la recueillir, eh bien : pas de figure d’interférence.  (Est-ce de sa part une intuition ou une affirmation prouvée ?)

         



[1] J’évoque l’idée d’encombrement parce que cela laisse croire que nous sommes pris dans une symétrie figée. D’un côté il y a un sujet pensant établi, statique, et de l’autre des lois de la Nature à mettre en lumière dans le but d’atteindre in fine l’os d’une réalité immuable. Cela laisse entendre qu’il n’y aurait aucune relation dynamique entre le sujet pensant et l’objet qui motive son enquête intellectuelle alors qu’il y a certainement une relation dialectique qui prévaut. Sur la durée, il faut comprendre, quand je découvre, que j’invente, des lois de la nature, en tant que sujet pensant, je m’invente tout autant. Les neuroscientifiques découvrent de mieux en mieux actuellement la plasticité cérébrale remarquable chez l’enfant à l’occasion des apprentissages, chez le sujet pensant elle est en plus dans la plasticité de la capacité de projection intellectuelle et donc d’émancipation vis-à-vis d’un consensus intellectuel précédemment et provisoirement établi. (Plasticité cérébrale et plasticité intellectuelle sont à mes yeux, d’un point de vue qualitatif nécessairement distincts et je l’expliciterai dans une prochaine occasion.)

[2] Sujet que nous avons étudié l’année passée dans le chapitre XXXII et qui fut l’objet d’un article sur le blog le 21/11/2012 : ‘Thomas Bayes dans le cerveau’

[3] Voir dernier article sur le blog : « La fin comme celle du Phénix. », note n° 5 : « Intelligences capables de fabriquer des outils différents de ceux que nous fabriquons en tant que homo sapiens sapiens et par exemple seraient à même d’intercepter un rayonnement par d’autres instruments qu’un interféromètre ou une plaque photoélectrique. » En conséquence, intelligences qui n’identifieraient pas obligatoirement le rayonnement par un aspect ondulatoire ou un aspect corpusculaire, ni caractériseraient  le rayonnement avec les  paramètres de longueur d’onde, de vitesse de propagation, etc…

[4] Parce que la rétention d’information de la part de la chose est parfaite. A. Zeilinger précise que si la chose émet une information et ce même s’il n’y a pas d’observateur pour la recueillir, eh bien : pas de figure d’interférence.  (Est-ce de sa part une intuition ou une affirmation prouvée ?)

Partager cet article

Repost0
2 décembre 2013 1 02 /12 /décembre /2013 12:18

                        La fin comme celle du Phénix

            « Cet être de la nature n’est pas un être résiduel, neutralisé, pacifié, tapis dans l’intériorité humaine, non il tient sa place. » Lorsqu’à nouveau je me suis prononcé ainsi dans l’article en question (du 10/10/2013), j’étais sûr de mon jugement, j’étais cohérent avec la logique de tout ce qui précédait dans l’article et de l’ensemble des articles sur le blog.

L’assurance de mon jugement était accompagnée de la conscience que je procédais régulièrement à des ajustements philosophico-anthropologiques pour justifier ma progression vers une meilleure compréhension des propriétés physiques de la nature telles qu’elles m’apparaissent. A cet égard je n’ai jamais éprouvé d’inquiétudes alors que je bousculais progressivement mes propres croyances sur ce qui fait que le sujet pensant est un être à part parmi les êtres vivants. A force d’ajustements pragmatiques cumulés, je me suis dit que je devais approfondir ce sujet. C’est alors que je me suis souvenu que j’avais dans ma bibliothèque un ouvrage qui pouvait répondre à cette inquiétude. Il s’agissait du livre : ‘La fin de l’exception humaine’ de Jean-Marie Schaeffer[1], édité en 2007 par Gallimard.

Lors de sa parution, je l’avais plutôt parcouru avec réticence car le sujet traité d’une façon globale et a priori, comme cela est proposé d’emblée dans le titre, suscita une réelle résistance de ma part. Or, il se trouve qu’en le relisant, avec une plus grande disponibilité intellectuelle, j’ai compris qu’en grande partie, d’une façon très progressive, je proposais des idées plus ou moins semblables mais à partir du point de vue du physicien qui veut s’émanciper de la conception prégnante du réalisme. C’est-à-dire s’émanciper d’une conception où le physicien est convaincu que sa discipline lui permet d’atteindre le monde réel de la nature qui ne peut que lui être extérieure et dans cette opération de décryptage, ‘le physicien est nu de toute contribution lorsqu’il met en évidence une loi de la Nature’ (voir article du 21/12/2011). Il faut croire que de ce point de vue, je ne percevais pas, d’une façon trop abrupte, la remise en cause de l’assise anthropologique et philosophique traditionnelle sur laquelle j’étais intellectuellement installé, alors que dans l’essai de Schaeffer cela est proposé sur la base des connaissances avancées qui sont propres à l’anthropologie, à la philosophie, à la biologie[2].

Dès les premières pages, l’auteur plante le décor de sa démonstration et ce qui est certitude, selon lui, doit être rappelée : « Que l’homme soit un être biologique et social et non pas un sujet autofondé ne saurait plus guère faire de doute. Et que l’être social et culturel de l’homme, loin de projeter au-delà de son être biologique, soient des dimensions ou des aspects de son être biologique, ne devrait pas non plus faire le moindre doute pour quiconque réfléchit un tant soit peu (sic)… Il existe en effet une dépendance radicale du social et du culturel par rapport au biologique, qui a été parfaitement résumée par John Searle. » Partant il y a continuité et non dualité entre le corps et l’esprit.

« En philosophie de l'esprit, J. Searle se distingue par son naturalisme biologique. Qualifier ainsi le naturalisme de "biologique", c'est mettre l'accent sur le fait que le niveau propre de compréhension du phénomène de la conscience est le niveau biologique. Searle défend ainsi une position qualifiée d'« émergentiste ». L'émergentisme développe l'idée qu'il y a continuité et non dualité entre le corps et l'esprit. L'esprit naîtrait d'une complexification croissante du corps et plus particulièrement du système neuronal. Searle s'oppose aussi bien, aux conceptions dualistes et à l'héritage cartésien, qu'aux conceptions réductionnistes des relations entre l'esprit et le corps. Pour lui, les états mentaux qui caractérisent notre vie subjective sont aussi réels que les autres phénomènes biologiques, aussi réels que des phénomènes comme la photosynthèse ou la digestion. Mais ils ne sont pas réductibles aux processus neurobiologiques tels que les neurosciences les conçoivent. La position ainsi défendue se veut à la fois parfaitement naturaliste et anti-réductionniste. Comme Searle l'affirme à maintes reprises, les états mentaux sont à la fois causés par les opérations du cerveau et réalisés dans la structure même du cerveau. Tout le problème de la philosophie de l'esprit se ramène alors à cette question : comment peut-on dire en même temps que le cerveau cause l'esprit (conformément à un certain dualisme) et que l'esprit est un trait caractéristique du cerveau (comme l'affirme le matérialisme) ? À cette question, Searle répond que s'il existe bien une relation de cause à effet entre le cerveau et l'esprit, les « caractéristiques de surface » que constituent les états mentaux sont simplement des caractéristiques de niveau supérieur du cerveau où se produisent, au niveau de la micro-structure, les processus physiques qui les causent. La subjectivité de la conscience doit donc être comprise comme un fait biologique d'ordre supérieur que l'on peut réduire "causalement" à sa base physique, en tant qu'elle en est la cause inhérente, mais que l'on ne peut toutefois réduire "ontologiquement" à cette base qui est par définition objective et donc inconsciente. » (Source Wikipédia)

Il est extrêmement important de savoir que : « La thèse de l’exception humaine ancrée dans une culture particulière – l’occidentale – elle s’est inscrite pendant des siècles au rang des évidences de la culture savante occidentale, alors qu’elle est elle-même une exception culturelle. Cet essentialisme créationniste, il faut le rappeler n’est pas un universel culturel. Selon F. Jullien[3], la culture classique chinoise ne connaissait ni l’idée d’une essence transcendante ni celle d’une création ex nihilo. Pour les Chinois, la logique du réel est celle d’un « procès » plutôt que celle d’une création. « Le monde ne doit pas être considéré comme un complexe de choses achevées mais comme un complexe de processus où les choses en apparence stables… passent par un changement ininterrompu de devenir et de dépérissement. » En conséquence le concept de lignée est plus approprié, ceci vaut tout autant pour l’homme que pour les autres organismes vivants. L’humanité ne correspond pas à l’exemplification d’un type mais à un ensemble généalogique. L’humanité s’auto-engendre et l’« être » de l’humanité coïncide avec son devenir.

Donc, comme on le constate, l’auteur fait sienne la thèse de la disqualification de la thèse de la rupture ontique (le corps et l’esprit, la res extensa et la res cogitans), c’est-à-dire du postulat d’une discontinuité entre l’humanité et le reste du monde animal.

Les pages 158 et 159 sont très explicites : « En effet les faits qu’elle (la thèse dualiste) prétend être seule à pouvoir expliquer – la conscience, la vie animale, la vie culturelle – peuvent tous être décrits en tant que niveau d’intégration fonctionnelle spécifique à la vie biologique. Et ils peuvent être expliqués généalogiquement en tant que faits évolutifs donc en tant que faits qui, loin d’introduire une dimension d’incommensurabilité dans la phylogenèse[4], sont l’aboutissement d’une complexification progressive et locale de mécanismes de feedback informationnel présents dès les premiers stades de l’évolution du vivant. L’idée selon laquelle cette complexification a été scandée par des paliers d’émergence (dont les états mentaux conscients sont un exemple, mais il y en a d’autres) paraît une hypothèse raisonnable. Mais précisément, l’hypothèse émergentiste ne postule pas une rupture ontique : elle se borne à affirmer l’irréductibilité ontique des différents paliers distingués. Par exemple, dans le cas de la conscience, l’hypothèse émergentiste revient à soutenir que les états conscients sont en tant que tels des états réels, causalement efficaces, et non pas de simples épiphénomènes. Ceci n’implique nullement qu’ils doivent appartenir à une sphère ontique différente de celle des faits biologiques.

« Loin de correspondre à une rupture ontique, les facultés mentales humaines apparaissent alors comme un résultat naturel parmi d’autres de l’évolution biologique, donc de l’histoire du vivant telle qu’elle s’est développée sur une planète particulière d’un système solaire particulier faisant partie d’une galaxie particulière… Que cette évolution ait donné naissance à des êtres vivants doués de facultés mentales conscientes peut à première vue apparaître comme un fait « extraordinaire » mais dès lors qu’on abandonne le présupposé dualiste, l’existence d’êtres vivants capables d’avoir des états conscients n’est pas plus « extraordinaire » que celle d’animaux ayant des ailes qui leur permettent de voler... »

N’oublions pas que maintenant nous savons, grâce à des observations, que dans notre galaxie il y a de nombreuses planètes (peut-être 2 à 3 par étoile et à peu près 100 milliards d’étoiles) dont certaines sont à coup sûr telluriques et en conséquence il n’est plus impossible de considérer que d’autres intelligences[5] identiques à la nôtre ou notablement différentes aient pu se développer, sur quelques-unes de ces planètes, que ce soit grâce à des lois biologiques identiques ou notablement différentes.

Dans le chapitre du livre : « L’homme comme être social » l’auteur annonce page 202 : « Le présent chapitre est le point d’articulation essentiel de mon argumentation : comment concilier le fait que l’être humain est (au sens le plus fort de la copule) un être biologique avec le fait qu’il est (au sens le plus fort de la copule) un être social ? » On retrouve ici le fil directeur de la problématique que j’évoque régulièrement en rapport avec la cohabitation de l’être de la nature et de l’être dans la nature et cette cohabitation étant une des conditions de la dynamique de l’activité du sujet pensant. Notamment le Temps propre du Sujet (TpS) résulterait de cette cohabitation. Il n’est pas possible de citer tout le livre mais il y a accord avec l’auteur qui précise que l’être humain doit être en premier un être social pour être un être culturel et par là atteindre le stade de ce qui fait la spécificité de l’être humain.

Page 241 on peut lire l’idée qui n’est pas émise par l’auteur mais retient toute mon attention : « La position singulière que l’homme occuperait dans le royaume animal tiendrait au fait qu’il ne possède pas d’environnement spécifique à l’espèce mais est caractérisé au contraire par une ouverture-au-monde non déterminée non-canalisée. L’ordre social serait ainsi l’invention proprement non biologique – et spécifiquement humaine – qui pallierait à un défaut de détermination biologique (instinctuelle) de sa relation au monde. [6] »

La caractéristique spécifique de l’homme qui : « fait qu’il ne possède pas d’environnement spécifique à l’espèce mais… ouverture-au-monde non déterminée non canalisée. » est crédible et constitue un critère de différenciation de l’espèce humaine des autres espèces largement partagée. Sans réduire la valeur de cette caractéristique énoncée, je propose d’adjoindre, à la thèse que : « l’homme ne possède pas d’environnement spécifique… », l’idée complémentaire : « jusqu’alors identifié ! » En effet les avancées de la connaissance scientifique et/ou ses obstacles actuellement recensés peuvent amener à reconnaître, un environnement à l’homme qui serait une cause de détermination et de canalisation (ici, je reprends le terme canalisation,  parce qu’il est utilisé par l’auteur, mais il ne me convient pas. En conséquence je ne retiens que le terme : détermination, que j’ai toujours utilisé jusqu’à présent). Avant de proposer d’identifier cet environnement actuellement spécifique source de déterminations au sujet pensant, je propose d’ajouter une hypothèse complémentaire qui précise que l’être humain, lorsqu’il est confronté à un environnement spécifique au cours de son évolution (au sens Darwinienne), a les ressources de s’en émanciper. Cette caractéristique est spécifique à son espèce. Ses facultés cérébrales qui lui sont propres et évolutives favorisent ce dépassement. Partant ses moyens intellectuels lui permettent de penser au-delà de l’environnement déterminant (provisoire) lorsqu’il est identifié. L’évolution humaine n’est pas soumise à des contraintes irréductibles bien que des étapes critiques, dramatiques, jalonnent son développement. En résumé je propose de retenir l’idée que l’espèce humaine se caractérise par sa capacité à dépasser les environnements contraignants, sources de déterminations provisoires, qui se sont imposées, qui s’imposent et s’imposeront à lui. Ses capacités cérébrales lui permettent d’accéder à l’intelligence de ces environnements et partant de les dépasser.

L’environnement présent, source de contraintes, que nous sommes appelés à dépasser est donc celui qui nous conduit à considérer : que la lumière de notre environnement naturel, qui nous permet d’identifier notre univers actuel, lumière caractérisée par sa vitesse de propagation : vitesse limite indépassable, et ‘constante universel’. Ceci est donc ce qui borne l’univers que nous identifions. Frontalement, nous ne pouvons pas dépasser cette ‘vérité’. C’est à travers les apories qui se présentent à nous en physique théorique que nous pouvons dépasser l’idée que notre monde serait obligatoirement borné par cette vérité. Nous sommes actuellement incapables de préciser ce qui constitue ces fameux 95% noirs de notre univers en exploitant toutes les conséquences de cette ‘vérité’, notamment E = mc2. Tous les moyens de détection que nous mettons en œuvre par exemple pour détecter de la matière noire s’appuient sur cette contrainte. Notre intelligence scientifique est bornée par cette donnée et il nous faut la dépasser.

J’ai déjà proposé que pour comprendre ce qui constitue une partie du versant noir de notre monde il fallait s’émanciper de la contrainte de E = mc2 et les propriétés physiques des neutrinos, que nous comprenons que partiellement, constituent un tremplin à notre portée pour valider l’hypothèse, qu’il y a un au-delà, qu’il y a un autrement, que celui délimité par la contrainte E = mc2.

A l’occasion de la lecture de ce livre que je ne peux que vous conseiller, je souhaite aussi mettre l’accent sur la conception du temps qui est sujet à des controverses remarquables. Pour certains, il n’est pas, pour d’autres il est, mais pour ceux-là, cela peut être pour des raisons différentes, dans un cas il est parce qu’il est donné dans la nature, pour ce qui est de mon appréciation, il est parce qu’il est fondé par le sujet pensant, il n’est donc pas donné. A ce propos reprenons la thèse de J. Searle, proposée au début de l’article et notamment :

« Searlese distingue par son naturalisme biologique. Qualifier ainsi le naturalisme de "biologique", c'est mettre l'accent sur le fait que le niveau propre de compréhension du phénomène de la conscience est le niveau biologique. Searle défend ainsi une position qualifiée d'« émergentiste ». L'émergentisme développe l'idée qu'il y a continuité et non dualité entre le corps et l'esprit. L'esprit naîtrait d'une complexification croissante du corps et plus particulièrement du système neuronal»

Si on ne peut plus ignorer notre constitution biologique au plus profond de ce qui fonde notre être et si les travaux de : A. Goldbeter[7] sont scientifiquement valables, est-ce que les physiciens sont intellectuellement autorisés à négliger ces avancées ? En quatrième de couverture du livre[8] de : A. Golbeter : ‘La vie oscillatoire au cœur des rythmes du vivant’ on peut lire : « A. Golbeter présente dans ce livre la première synthèse des connaissances sur les rythmes observés aux différents niveaux de l’organisation biologique et médicale. De l’horloge circadienne qui permet l’adaptation à l’alternance du jour et de la nuit jusqu’à la floraison ou aux migrations qui se synchronisent avec le cycle des saisons. De l’horloge qui contrôle le cycle de division cellulaire jusqu’aux oscillations qui assurent le succès de la fécondation et du développement embryonnaire. Du cerveau qui produit les rythmes neuronaux et sécrète des hormones de manière pulsatile jusqu’aux troubles bipolaires ou variations cyclique du poids. Par-delà les différences de mécanisme et de période, A. Golbeter met en lumière la profonde unité des rythmes du vivant… »

C. Rovelli et A. Connes ont, dans des travaux communs, tenté mathématiquement et physiquement de justifier une flèche du temps qui briserait la réversibilité (irréelle) des lois physiques. Ils ont privilégié le rayonnement fossile pour valider cette recherche théorique qui n’a pas abouti. Rappelons que pour A. Connes : ‘L’aléa du quantique est le tic-tac de l’horloge divine’. Pourquoi éprouve-t-il le besoin de faire appel au divin alors que le sujet pensant est le vecteur de l’horloge primordiale qui scande son état d’éveil cause d’un dynamisme cérébral singulier de l’être humain ? Pour valider sa thèse, il a voulu exploiter le ‘bain’ thermique du rayonnement thermique fossile. Pourquoi esquive-t-il le bain biologique : socle originaire, constitutif, du sujet pensant.

En guise de point final de cet article, je propose de retenir ces phrases de l’auteur : page 367 : « Nous n’avons jamais accès qu’à une partie de ce qui est la cause de notre existence et par là aussi celle de nos savoirs. Le rêve d’un savoir absolu n’aurait de toute manière de sens que si nous pouvions nous extraire du continuum spatio-temporel qui nous situe. Dans l’univers auquel ont accès les savoirs empiriques une telle ex-tase est impossible. Tel étant le cas, nos connaissances tombent sous la loi du principe d’incertitude qui nous apprend que le sujet du savoir n’est pas face à la réalité qu’il observe mais qu’il en est un des éléments. Ceci ruine toute possibilité d’une vision panoptique dont l’esprit humain serait le centre absolu et immuable. »

 

Annexe : 4e de couverture. 

« L’unité de l’humanité est celle d’une espèce biologique que nous ne saurions extraire de l’ensemble des formes de vie non humaine qui constitue bien plus que son « environnement ».

A ce constat désormais incontestable, les sciences humaines et sociales opposent néanmoins la thèse de l’exception humaine : dans son essence propre, l’homme transcende à la fois la réalité des autres formes de vie et sa propre « naturalité ». Le philosophe pose qu’Homo est un « moi » ou un « sujet », radicalement autonome et fondateur de son propre être ; le sociologue tient que cette transcendance se situe dans la société, par essence « anti-naturelle ». L’anthropologue affirme, lui, que seule la « culture » (la création de systèmes symboliques) constitue le propre de l’homme.

L’humanité s’inscrit dans la vie grâce à des visions globales du monde et à des savoirs empiriques morcelés. La thèse de l’exception humaine est une vision du monde. Son coût, au regard de son utilité supposée, est exorbitant – l’impossibilité d’articuler les savoirs empiriques assurés en une vision intégrée de l’identité humaine qui conjugue les sciences de la culture et les autres connaissances concernant l’homme. »

 



[1] Voir quatrième de couverture, ci-jointe en annexe.

[2] Voir article de la critique de présentation par Elisabeth de Fontenay, ci-joint en copie.

[3]Philosophe, qui a consacré des études significatives  sur  le dialogue des cultures, notamment entre la Grecque et la Chinoise. 

[4] Phylogenèse : Recherche de la formation et du développement des espèces animales et végétales.

[5]Intelligences capables de fabriquer des outils différents de ceux que nous fabriquons en tant que homo sapiens sapiens et par exemple seraient à même d’intercepter un rayonnement par d’autres instruments qu’un interféromètre ou une plaque photoélectrique.

[6] Thèse de : A. Gehlen, (1904-1976), anthropologue et sociologue Allemand.

[7] Professeur à la faculté des sciences de l’Université libre de Bruxelles et membre de l’Académie royale de Belgique.

[8] Publié en 2010, édit. Odile Jacob. Depuis que ce livre est sorti, j’ai été extrêmement surpris de la faiblesse de la répercussion de son contenu. Est-ce parce qu’il n’y avait aucune connaissance nouvelle ou bien est-ce une malheureuse illustration du cloisonnement des connaissances ? Pourtant on peut découvrir dans cet ouvrage des données aussi remarquables et pour moi émouvantes comme : « Le lien étroit entre périodicité temporelle et formation d’une structure spatiale confère à l’horloge de segmentation un intérêt particulier. »

Partager cet article

Repost0
12 novembre 2013 2 12 /11 /novembre /2013 10:08

A propos du temps et de la Relativité Générale

 

L. Smolin a visé juste lorsqu’il a préciséles raisons profondes qui conduisent à éradiquer le flux du temps en physique : « Cela est certainement surprenant de l’affirmer mais l’idée que le temps soit considéré comme réel requière de faire une entorse radicale au paradigme standard de la physique. Ceci est la conséquence du développement de la conception, des propriétés de la nature, par les physiciens, depuis 400 ans. Toujours, depuis R. Descartes au 17e siècle, le temps a été représenté comme s’il était juste une dimension de l’espace. Ceci a culminé avec la conception de ‘l’univers comme un tout’, de la relativité générale, dans lequel le moment présent n’a pas de sens – tout ce qui existe c’est, tout d’un coup, la totalité de l’histoire de l’univers, sans temporalité (The whole history of the universe at once, timelessly). Quand les lois de la physique sont décrites mathématiquement, les processus causaux qui illustrent l’activité du temps sont représentés par des implications logiques intemporelles.

Mais l’univers réel a des propriétés qui ne sont pas représentables par un quelconque objet mathématique. Une de celles-ci est quil y a toujours un moment présent. Les objets mathématiques, étant intemporels, n’ont pas de moments présent, n’ont pas de futurs ni de passés. Toutefois, si on embrasse la réalité du temps et voit les lois mathématiques comme des outils plutôt que des miroirs mystiques de la nature, d’autres faits têtus, inexplicables, concernant le monde deviennent explicables… »

On ne doit pas oublier que l’éradication du temps fut un a priori intellectuel d’Albert Einstein et ce préalable philosophique (le Réalisme) l’a guidé durant toute sa cogitation jusqu’à l’acte de naissance de la Relativité Générale. En conséquence le constat de Smolin est juste : « Ceci a culminé avec la conception de ‘l’univers comme un tout’, de la relativité générale, dans lequel le moment présent n’a pas de sens – tout ce qui existe c’est, tout d’un coup, la totalité de l’histoire de l’univers, sans temporalité. »

 

L’élimination de toute temporalité qui s’impose avec l’invention de la loi de la R.G. en 1915 n’est pas une conséquence de celle-ci mais elle est le fruit de l’intemporalité postulée préalablement au nom d’une conception idéale proclamée : qu’une loi juste en physique est celle qui atteint la réalité d’une propriété au sein de la nature. A. Einstein insistait sur sa représentation d’un univers immuable et atemporel. A son époque avant 1930, cet univers avait les dimensions de notre galaxie. Après coup, E. Hubble, croyant comme lui en cette immuabilité, lui a montré que ce n’était pas vraiment ainsi. Et puis il y eut cette fameuse constante cosmologique introduite arbitrairement dans sa loi pour rétablir théoriquement cette immuabilité postulée. Par la suite il reconnaîtra que ce fut sa plus grande bêtise (confidence recueillie par Gamow) mais qui maintenant ne semble plus être une aussi importante bêtise.

Ceci étant précisé, il n’est pas question de sous-estimer le fait que la loi de la RG est une loi d’une fertilité exceptionnelle qui a conduit à des avancées remarquables de la connaissance en physique. Disons que cette loi comprend une part de vérité significative dans le sens où elle comprend ce que le sujet pensant est à même de mette en évidence grâce à ses possibilités de connaissances, mais part de vérité ne doit pas se confondre avec part de réalité. Justement c’est cette marge de progression sans fin qui offre, motive, permet, la mobilité intellectuelle du sujet pensant. On doit préciser aussi que sous sa forme globale : Rµν – ½ gµν(R - 2λ) = 8πGTµν est intraitable. Nous sommes en capacité d’extraire de la signification observable seulement lorsqu’on émet l’hypothèse que, par exemple, des critères de symétries sont pertinents (K. Schwarzchild) et donc sources de simplification de la loi globale ou encore en considérant que la densité d’énergie-matière est faible, homogène et isotrope (Robertson-Walker), ce qui autorise de notables simplifications. 

Essayons donc d’établir la bonne distance intellectuelle à l’égard de la R.G. si on veut analyser correctement où se situe dans le raisonnement d’Einstein la source (ou les sources) qui conduit à une représentation ‘réductrice’ de notre univers. Cela n’est pas simple parce que contrairement à la mécanique quantique la loi de la R.G. résulte de la cogitation d’un esprit unique avec toute la force de sa cohérence et de son unité. C’est un constat qui est largement partagé et R. Penrose en est tellement convaincu qu’il considère que c’est la mécanique quantique qui doit être corrigée pour que l’unification conduisant à la gravité quantique devienne possible.

Vouloir aménager la loi de la R.G. s’avère délicat… mais nécessaire. La réflexion de L. Smolin : « Si on voit les lois mathématiques comme des outils plutôt que des miroirs mystiques de la nature… », retient particulièrement mon attention et illustre ma proposition : ‘établir une bonne distance intellectuelle’. Cela veut dire que les mathématiques ne révèlent pas, par elles-mêmes, les lois de la nature, mais sont seulement des instruments bâtis par l’intelligence humaine qui permettent de formaliser ce qui est accessible à l’entendement humain, entendement qui n’est certainement pas immuable, et tant mieux. L’historique de la progression de la recherche d’Einstein entre 1905 et 1915 est symptomatique car sa réflexion préalable : « Les lois de la nature doivent être exprimées par des équations qui soient valables pour tous les systèmes de coordonnées, c’est-à-dire qui soient covariantes (universellement covariantes) pour des substitutions quelconques. » précédait en bonne partie les développements et la mise au point du corpus des mathématiques tensoriels.

Pointer, comme le fait Smolin, les inconvénients, les déviations, de la conception platonicienne des mathématiques, est judicieux et cette conception doit être considérée comme une source de croyances erronées quant à notre capacité à décrypter les propriétés de la nature. Cela fait plus de 2500 ans que cette croyance traverse l’humanité et donc chercher à la dépasser constitue une tâche nécessaire mais de long cours. D’autant plus que les adeptes de la conception platonicienne de l’univers ont de la ressource car, par exemple, si le théorème de K. Gödel publié en 1931 (lui-même platonicien) devrait franchement affaiblir cette conception, des physiciens théoriciens – qui me semble-t-il sont majoritaires – à l’exemple de R. Penrose, peuvent affirmer à propos de la théorie de la Relativité Générale : « Ce qui compte est que la structure mathématique est ici même, dans la Nature ; personne ne l’a imposée à la Nature, Einstein a révélé quelque chose qui était présent (sic). [ …] Il s’agit là d’un cas très pur… » et d’une façon générale : « Le concept de vérité mathématique ne se laisse pas enfermer dans le cadre d’un schéma formaliste. La vérité mathématique est quelque chose qui va au-delà du simple formalisme. Il y a quelque chose d’absolu et de « divin » dans la vérité mathématique. C’est ce dont il est question dans le platonisme mathématique. […] La vérité mathématique réelle va au-delà des constructions fabriquées par l’homme. » N’oublions pas que selon Penrose le théorème de Gödel est incontournable et sans faille mais il ne vaut que pour le formalisme mathématique et pas question que : l’incomplétude des mathématiques implique d’emblée l’incomplétude des sciences physiques.

 

En 1955 A. Einstein réitérait encore : « Pour nous, physiciens croyants, la séparation entre passé, présent et avenir, ne garde que la valeur d’une illusion, si tenace soit-elle. » Avec   cette phrase il rappelle avec force que l’évanescence de tout flux temporel est irréversible et c’est la preuve de la consistance de sa loi. Avec Smolin nous avons en communde pointer que le ‘moment présent’, ‘l’instant présent, ‘la présence’ doivent être pris en considération (bien que ce soit sur la base de préalables opposés) pour dépasser les impasses de la crise de la physique théorique de l’échelle du cosmos à celle de l’infiniment petit. Pour réaliser ce dépassement il faut procéder à un ‘geste’ théorique d’envergure qui enrichisse la relativité générale sans affaiblir toute la valeur prédictive confirmée de cette loi.

Pour ma part, je considère que la citation suivante d’Einstein : « Ce qui du point de vue physique est réel…est constitué de coïncidences spatio-temporelles. Et rien d’autres. », rend compte d’une manière concise l’endroit où les conséquences de la R.G. doivent être profondément travaillées, modifiées. En effet je considère que le sujet pensant doit être installé dans la réalité de la dynamique de la compréhension que nous avons du Monde qui, dorénavant, n’a pas de raison de se confondre avec ce que nous définissons comme étant provisoirement notre univers.

En ce qui concerne la compréhension que peut avoir L. Smolin de son ‘Moment Présent’ épiphanique, il est difficile de savoir quelles sont les modifications qu’il préconise à propos de la R.G. Sans spécifier ni plus, ni mieux, son ‘Moment Présent’, Il annonce qu’il exploite cette hypothèse dans des modèles simples de systèmes gouvernés par des lois qui sont irréversibles en temps mais desquels émergent des résultats symétriques en temps. Le fondement de sa pensée est que le temps est donné dans la Nature. Espérons qu’il puisse nous dire bientôt quelles sont les indications qui lui sont fournies par ses modèles.

Dans son article du 26/04/2013 in ‘New Scientist’

  Voir article posté, sur le blog, le 02/05/2013 : « Bienvenu au ‘Moment présent’ de L. Smolin »

Voir articles postés sur le blog le 02/11/2012 : « Synthèse : un Monde en ‘Présence’ » et le 01/01/2013 : « Un Monde en ‘Présence’ II »

Partager cet article

Repost0
9 octobre 2013 3 09 /10 /octobre /2013 15:19

                        Comment nous sommes devenus avec/dans le langage ?

L’envie d’évoquer cette odyssée résulte de la lecture de l’article suivant « Le langage et la conception d’outils ont-ils évolué ensemble ? » (In Futura-Sciences le 05/09/2013. Article original de Natalie Uomini et Georges Meyer in ‘Plos One’.) Il apparaît dans cet article qu’il y aurait une concomitance sérieusement probable entre le début du développement du langage et la capacité à travailler le silex pour fabriquer des outils. Cela remonte à peu près à 1,75 million d’années et à cette époque de l’évolution vers l’Homo sapiens, l’Homo ergaster était le pilier de celle-ci, soit notre ancêtre.

Ce sujet est délicat car il est bien connu, à force de tentatives, qu’il est quasiment impossible de nous approprier une compréhension stable de ce que nous sommes en tant qu’être humain. Pouvons-nous penser ce que nous avons été avant que nous soyons ce que nous sommes, c’est-à-dire un être de langage, un être de pensée ? N’oublions pas que les philosophes du langage à la fin du 19e siècle ont considéré que leur discipline pouvait progresser seulement s’ils renonçaient collectivement à essayer de penser l’homme avant le langage. A partir de ce renoncement la linguistique (étude du langage établi) a pu prendre son essor.

Si cela est ainsi, si c’est grâce à l’intercession de la nature que l’Homo ergaster s’est engagé dans la voie extraordinaire de l’être de langage, cela peut être considéré comme une humiliation de plus comme celle que Darwin nous a infligé avec sa découverte de l’évolution, suivie par celle de Freud avec sa découverte de l’inconscient. La faculté de langage ne serait donc pas une faculté intrinsèque qui nous aurait caractérisé tout au long de la longue marche de l’humanité (entamée il y aurait à peu près 12 millions d’années) mais un surgissement d’une réelle et âpre confrontation entre ce qu’est la nature et une action sur celle-ci pour en tirer un avantage. Selon l’article cité, nous serions donc à même de dater les prémisses de l’émancipation de l’être de la nature qui commence à se construire en un être dans la nature.

Ce serait donc par un contact physique avec la matière de la nature immédiate que ce seraient installées les premières bribes de la faculté de langage qui a fait que, parmi tous les êtres vivants, l’être humain s’est progressivement différencié pour devenir ce qu’il est aujourd’hui. S’il en est ainsi, si les premières étincelles de la faculté de pensée résultent de ce frottement avec la nature immédiate, pouvons-nous continuer de sous-estimer cette détermination profonde de notre capacité de langage et continuer de considérer que nous serions à même de penser l’universel, allégés que nous serions de toutes contingences en tant que sujet pensant ?

La coévolution des deux aptitudes proposée par N. Uomini et G. Meyer est à mes yeux pertinente car le processus intellectuel visant à façonner le silex dans un but déterminé met en jeu une faculté de projection, d’anticipation, comme lorsqu’il s’agit de concevoir, façonner, le mot qui convient pour exprimer une volonté, une pensée, aussi élémentaires qu’elles puissent être. Projeter implique de penser aussi l’existence d’un temps au-delà de l’immédiateté de l’instant présent. C’est une des raisons qui m’a conduit à toujours proposer la concomitance : langage – pensée – flux du temps, et à mes yeux cette concomitance constitue un propre de l’homme.

Homo ergaster aurait donc été celui qui aurait commencé à mettre en œuvre une aptitude à différencier ce qui est de l’ordre de la nature et de l’ordre d’une pensée volontaire qui ausculte, comprend, et agit pour transformer cette nature. Il aurait été celui qui aurait commencé à établir un rapport distancié avec la nature. C’est la faculté de langage naissante qui aurait été le moyen primordial de cette mise à distance. En ce sens Homo ergaster est l’ancêtre des physiciens, dans le sens où il est l’ancêtre d’un état d’esprit, d’une esthétique, qui est propre à ceux qui ont pour ambition d’établir un rapport intelligible avec ce qui est de l’ordre de la ‘Nature’. En même temps on mesure que l’être humain n’est que par la distance intelligible qu’il a réussi à établir avec ce qui lui apparaît faisant partie d’une nature extérieure, absolue, irréductible, sans pour autant s’en émanciper définitivement. Si on se réfère à l’aphorisme d’Héraclite «La Nature aime à se voiler», il faudrait donc l’entendre comme le fait que l’être humain ne pourra jamais lever l’ultime voile de la nature qui se présenterait à lui car ce voile est celui du terreau de l’origine et de la conscience de sa propre existence. Aussi nous ne devrions jamais être étonnés que le décryptage de la nature soit toujours lié à celui d’une occultation, d’une dissimulation, nouvelle qui surgit. La théorie du ‘Tout’, n’est pas pour demain et tant mieux ! Si on  répertorie les grandes énigmes de la physique aujourd’hui on constate que le voile est très opaque car nous serions (sommes) conduits à considérer à ne connaître que 4,8% de ce qui compose notre univers.

S’il se trouve corroboré qu’effectivement l’ancêtre de l’être humain s’est engagé sur la voie de la spécificité humaine par l’intermédiaire d’une confrontation exceptionnelle avec la nature alors la hiérarchie établie par Descartes avec son arbre de la connaissance où le tronc de celui-ci représenterait la connaissance en physique et les autres connaissances en seraient les branches, ne serait pas uniquement une conception datée de la sortie du moyen-âge en Europe, conception archaïque de la genèse de la connaissance par l’humain, mais serait plutôt la preuve d’un réalisme et d’une très grande perspicacité intellectuelle à propos de l’origine et du développement de l’humain.

Si c’est dans un rapport intime avec la nature immédiate que l’être humain premier a pris l’envol de ce qui constitue la spécificité de l’humain parmi les « existants », est-ce qu’il est assuré que nous puissions avoir accès à l’universel, est-ce que notre capacité de pensée déterminée à son origine par la nature immédiate, que reconnaît l’Homo ergaster, nous autorise de considérer qu’à partir de là nous sommes à même de penser l’universel, penser la nature dans sa totalité ?

Ce prétendu aboutissement a plusieurs fois été annoncé comme imminent, citons le célèbre apologue de Pierre-Simon Laplace (1749-1827) : « Nous devons donc envisager l’état présent de l’univers comme l’effet de son état antérieur et comme la cause de celui qui va suivre. Une intelligence qui, pour un instant donné, connaîtrait toutes les forces dont la nature est animée, et la situation respective des êtres qui la composent, si d’ailleurs elle était assez vaste pour soumettre ces données à l’Analyse, embrasserait dans la même formule les mouvements des plus grands corps de l’univers et ceux du plus léger atome : rien ne serait incertain pour elle et l’avenir, comme le passé serait présent à ses yeux. » On retrouve encore cette superbe assurance, chez William Thomson, alias Lord Kelvin (1824-1907), qui était largement partagée par l’élite de la communauté scientifique Européenne, moyennant quelques détails à régler : « La science physique forme aujourd’hui, pour l’essentiel, un ensemble parfaitement harmonieux, un ensemble pratiquement achevé. » Nous avons là, deux exemples de cette prétention à la pensée universelle qui aurait rassemblé, une bonne fois pour toutes, tout ce qui est connaissable.

Récemment j’ai écouté une émission qui indiquait que les peuples de la forêt avaient un vocabulaire extrêmement riche pour rendre compte de la multitude de ce qui compose la forêt. Vocabulaire qui n’a pas d’équivalent avec le nôtre car nous n’avons pas ce type de contact ni de préoccupations. Nous ne pouvons pas penser la diversité du monde végétal et animal de ces forêts tropicales car nous n’avons ni l’expérience, ni la sensibilité.

Nous ne devrions pas exclure qu’après tout, à notre échelle, selon notre histoire, nous soyons, comme l’homme des forêts tropicales, des experts de notre monde mais actuellement ignorant de ce qui englobe notre monde, l’enveloppe, voir l’interpénètre. Il m’est arrivé plusieurs fois d’écrire dans les précédents articles : Au sein d’une éternité, parmi tous les possibles, le sujet pensant creuse sans fin la compréhension de son univers correspondant à ses capacités de décryptage’. Ce que je veux exprimer, c’est que le monde ne se réduit pas à ce que nous désignons actuellement par l’univers qui est en fait que notre univers. Cet univers que nous sommes à même de décrypter par ce que nous avons recensé comme connaissances tout autant par ce que nous avons recensé comme ignorances. Je propose de considérer qu’il y a d’autres (univers) possibles et la somme (infini) de ces possibles constitue ce que nous pouvons appeler une Eternité.

J’ose penser que nous sommes peut-être dans la même situation que l’homme des forêts tropicales et nous sommes contraints par notre intelligence, déterminée, spécialisée, qui a pris son essor avec les premières aptitudes qui ont singularisé Homo ergaster parmi les hominidés. Concrètement notre monde de connaissances physiques est celui conçu à partir de ce que j’appelle la nature immédiate cette nature qui a offert sa résistance à Homo ergaster. Nous en connaissons en partie sa matière qui lui est constitutive, nous en connaissons sa lumière nous en connaissons en grande partie ses lois. Cette lumière est celle qui nous a forgés. Aucun élément qui nous constitue n’a pu être forgé sans la contribution de la lumière. Dans notre vie biologique la lumière est essentielle. Notre repérage temporel a été conçu sur la base du jeu de la lumière et de la non-lumière. On sait maintenant que certaines fonctions de notre cerveau sont dépendantes de la lumière et que notre vie psychique en est aussi dépendante. Nous sommes profondément dépendants de la lumière de notre univers au point que nous en sommes à considérer qu’elle constitue un horizon non seulement physique indépassable mais aussi un horizon conceptuel et intellectuelle indépassable. C’est pour cette raison que je parle de notre univers car effectivement il est, et pour cause, celui qui nous est accessible et décryptable.

On peut penser que je vais trop vite en besogne et reconnaître que la lumière est la source d’énergie fondamentale à tout ce qui constitue le monde végétal et animal, n’autorise pas pour autant à franchir le Rubicond et affirmer que nous sommes intellectuellement aveuglés par cette lumière (voir mon article du 31/07/2013 : Être de lumière et intelligence des lumières). On peut même considérer que mon point de vue est réducteur, absurde, car l’être humain pourrait être défini comme l’être vivant qui ne subit pas ce qui est de l’ordre de la nature mais le transcende, le met à distance de son être afin de se l’approprier et de pouvoir mener une action sur… Il en est ainsi de la lumière qui est donc depuis des siècles un sujet d’étude qui a abouti à sa maîtrise, à sa manipulation, et à des applications dans de multiples domaines. En grande partie la connaissance de l’univers actuel est acquise par les moyens de la lumière qui en est émise en son sein et pour laquelle nous avons une capacité de détection et de décryptage remarquable,. Notre œil est naturellement sensible à la lumière (naturelle) sur un domaine de longueur d’onde extrêmement étroit : quelques microns. Pour la détecter, au-delà (plus chaud) et en deçà (plus froid), l’Homo sapiens a mis en œuvre sa faculté à fabriquer des outils qui assurent le prolongement de son pouvoir d’observation de la nature en construisant des instruments de plus en plus perçants. Ces instruments sont tout aussi bien dans l’espace que sur la terre et les résultats déjà obtenus sont prodigieux et les perspectives fabuleuses. Mais voilà, c’est toujours la ‘même’ lumière qui est détectable, celle qui se déplace à la vitesse C, c’est le paramètre de la longueur d’onde qui établit les catégories infrarouges, submillimétrique, micro-ondes, etc., (plus froid) et ultraviolet, rayon X, rayon gamma, etc.,  (plus chaud). On comprend mieux aujourd’hui que cette lumière est étroitement imbriquée avec la matière qui nous est commune : « La lumière et la matière sont les deux faces d’une même réalité. » (S. Haroche). Je considère que l’égalité : E=mc2, est la marque de cette imbrication. Je fais l’hypothèse que cette célèbre égalité ne vaut pas pour la matière noire ni probablement pas pour les neutrinos. Nous devons avoir la disponibilité intellectuelle pour chercher à spécifier d’autre(s) lumière(s) et d’autre(s) matière(s) par des lois différentes dans d’autres univers même celui ou ceux qui s’imbriquent avec le nôtre. Leurs natures seraient différentes, par contre la conception de S. Haroche (les deux faces d’une même réalité) pourrait constituer une valeur qui transcende notre propre univers et constituer un paradigme pertinent pour scruter au-delà de ce que nous croyons connaître aujourd’hui.  

Lisa Randall (Université de Harvard) met en avant la thèse d’un univers à face noire. Celui-ci comprendrait évidemment de la matière noire, une force noire, un photon noir, etc., etc. En fait elle est conduite à proposer ce qui serait le symétrique noir de notre univers observable. Cela montre que la prégnance de la représentation de notre univers est extrêmement forte. Nous devons être bien plus ouverts, bien plus réceptifs, et avant de projeter des critères qui ne seraient que de simples copies, auscultons sans a priori ce qui pourraient constituer des signaux avant-coureurs d’autres univers, d’autres possibles. Ainsi, suite aux résultats extrêmement précis fournis par Planck, prenons en compte ce qui est pointé par Alan Stonebraker de la ‘Collaboration Planck’ (ESA) : « L’asymétrie détectée dans les fluctuations de température du rayonnement fossile concerne globalement deux hémisphères que l’on distingue à l’aide d’une sorte de ‘S’. On connaissait son existence dans les données de WMAP, et l’on avait déjà tenté de l’expliquer avec une classe particulière de théorie de l’inflation. Les observations de Planck confirment son existence. Elles permettent aussi d’y voir une signature possible de la théorie de l’inflation éternelle, dans un multivers où le nôtre n’est qu’une infime région en expansion. »

Pour engager le 3e volet de l’article, je prends en compte la réflexion de B. Latour (sociologue des sciences) : « On assiste à la fin de l’idée de nature. A l’époque de l’anthropocène, la nature n’est plus une catégorie distincte des humains. » Article du Monde du 22 /09/2013. J’ai rarement été intéressé par la production de B. Latour mais ici, je considère, bien volontiers, que sa remarque est pertinente. Le terme anthropocène désigne le fait que nous serions entrés depuis la fin du XVIIIe siècle dans une période où l’influence de l’homme sur le système terrestre serait devenue prédominante. Ce terme indique aussi par un effet boomerang que l’être humain est dépendant de cette nature qui connaît des transformations et que l’autonomie voire l’autonomisation de l’homme vis-à-vis de cette nature est un leurre. L’état de ‘pur esprit’ ne peut pas être de notre monde. Nous ne pouvons plus désirer comme Descartes le préconisait à l’humanité entière que nous devions nous rendre maîtres et possesseurs de la nature et que la science avait vocation à favoriser cet objectif. L’évolution contemporaine des sciences anthropologiques, éthologiques, ethnologiques, mettent en évidence que le clivage traditionnel et commode entre culture et nature n’est ni évident ni net comme nous avions l’habitude de le penser. Voir les travaux de Philippe Descola, Professeur au collège de France et auteur, entre autres, de ‘Par-delà nature et culture’. Comme l’écrit Ph. Descola : « La cosmologie moderne est devenue une formule parmi d’autres. Car chaque mode d’identification autorise des configurations singulières qui redistribuent les existants dans des collectifs aux frontières bien différentes de celles que les sciences humaines nous ont rendues familières. Nous assistons à une recomposition radicale de ces sciences et à un réaménagement de leur domaine afin d’y inclure bien plus que l’homme, tous ces « corps associés » trop longtemps relégués dans une fonction d’entourage. » Il ressort que l’être humain ne peut embrasser toute la nature comme si elle lui était tout extérieur, cela ne se peut, car tout simplement il en est une émanation. On peut donc retrouver de la curiosité et de l’intérêt vis-à-vis du fragment cité d’Héraclite : la nature aime à se voiler. Comme je l’ai souvent indiqué : l’être humain, le sujet pensant, est un être dans la nature, certes, mais il est aussi et toujours un être de la nature (qui génère ce voile ultime). Cet être de la nature n’est pas un être résiduel, neutralisé, pacifié, tapis dans l’intériorité humaine, non, il tient sa place. Comme je l’ai proposé dans mon cours ‘Faire de la physique avec ou sans ‘Présence’’, dès 2007 : « La compatibilité de l’être de la nature et de l’être dans la nature caractérise l’être humain. »  Cette compatibilité est sans cesse oscillante, elle n’est pas établie une bonne fois pour toutes, elle est la source du temps propre du sujet τs, qui serait peut-être de l’ordre de 10-25s ou moins, ce temps propre est la durée du tic-tac primordial qui scande le temps fondé par le sujet pensant. Il est une durée insécable qualitative, un existential, et constitue aussi le point aveugle de l’intelligence humaine.

Il semblerait qu’Alain Connes attribue à l’aléa du quantique le tic-tac de l’horloge divine (sic), ainsi au lieu de plonger les événements quantiques dans un temps externe, il propose que le temps soit une réalité ‘dérivée’. A suivre ??? Il faudrait qu’il soit moins allusif. 

Newton a pu valider la notion très abstraite de ‘force’ à l’âge de 16 ans quand le jour de la mort de Cromwell, il y avait une grosse tempête qui traversait l’Angleterre. Pour évaluer la force du vent, le jeune Newton fit des sauts d’abord dans le sens du vent, puis dans le sens contraire. En comparant les longueurs de ses sauts avec celles qu’il obtenait les jours de temps calme, il put calculer (en termes d’unités de longueur) la force du vent. Galilée a mené plusieurs de ses expériences physiques dans sa chambre avec le succès que l’on connaît, le tout orienté par son tropisme de la  métaphysique platonicienne.

L’installation récente de la dernière antenne d’Alma est à ce titre une belle illustration.

« Le monde qui nous entoure est peuplé d’atomes et l’essentiel de l’information que nous recevons vient de la lumière. » Serge Haroche, conférence à Bruxelles, mars 2010.

Partager cet article

Repost0
10 septembre 2013 2 10 /09 /septembre /2013 12:51

Convergence ?

Je fais référence à mon article datant du 27/08/2012 : « D’infinis précautions » ainsi qu’à celui du 21/12/2011 : « L’être humain est-il nu de toute contribution lorsqu’il décrypte et met en évidence une loi de la nature ? » L’hypothèse d’une convergence éventuelle ‘avec’ : se trouve dans un article publié le 05/09/2013 par Futura-Science, de Janlou Chaput, ayant pour titre : « Le langage et la conception d’outils ont-ils évolué ensemble ? »

Bien que n’ayant aucune compétence sur le sujet traité, je suis évidemment en éveil à l’égard de l’idée qu’il y aurait (eu) un lien entre le fait de tailler des outils de silex et l’émergence d’une faculté de langage. Les chercheurs pensent avoir mis en évidence une forte corrélation entre l’investissement cérébral que nécessite le projet de façonner la matière (pour fabriquer des outils) et l’investissement cérébral qui incite à façonner de la signification au moyen d’un langage chez l’homme artisan qui vivait en Afrique il y a entre 1,8 et 1,3 million d’années.

On trouve dans cet article (à lire) une belle illustration de la thèse, que j’évoque depuis de nombreuses années mais je ne peux que l’effleurer, qui est celle de l’interdépendance de l’être dans la nature/l’être de la nature. Ici dans l’article on serait donc à la lisière de pouvoir situer et comprendre le contexte à partir duquel s’est engagé le lent processus de l’émancipation des contraintes pures et brutes de la nature de la part de l’être qui deviendra le représentant de l’humain. Les facultés de langage (de représentation) du sujet pensant auraient pris leur envol avec la nécessité de développer des facultés techniques conduisant à une plus grande maîtrise de la matière.

La vraie raison pour laquelle j’ai donné à cet article le titre de ‘convergence ?’ n’est pas dans ces quelques réactions proposées ci-dessus mais à cause des moyens mis en œuvre pour tester l’hypothèse que : « Le langage et la conception d’outils auraient évolué ensemble ? »

En effet c’est par des techniques d’imagerie cérébrale que les chercheurs ont été en mesure de proposer ces conclusions. Dans l’article ‘d’infinis précautions’ je propose d’utiliser ces mêmes techniques pour comprendre les raisons qui font que lorsque nous n’avons pas d’information spatio-temporelle à propos d’un objet ‘quantique’ qui chemine dans un interféromètre c’est l’aspect ondulatoire (étendue spatiale) qui s’impose à l’observateur. J’ai considéré qu’il en était ainsi parce que l’ignorance spatio-temporelle de l’observateur mettait en jeu une représentation archaïque et que celle-ci aurait pour siège une partie archaïque du cerveau de l’observateur. J’ai considéré qu’il était possible de vérifier cette hypothèse grâce aux moyens de l’imagerie médicale.

Partager cet article

Repost0
31 août 2013 6 31 /08 /août /2013 15:26

 

 Leptons et ‘matière noire’

Dans cet article, l’idée de base consiste à considérer, d’un certain point de vue, les leptons τ, µ, e, comme représentant une seule et même entité qui serait détectable à des énergies de masse distinctes et discrètes. Le socle de cette entité étant évidemment représenté par l’électron. Rappelons que le τ = 1776 Mev, le µ = 105 Mev, le e = 0.5 Mev. Le τ a une durée de vie de 3.10-13s, le µ de 2.10-6s et le e est indéfiniment stable. La désintégration naturelle du τ en µ ou en e conduit toujours à un sous-produit intermédiaire ou final de même charge électrique. La partie de la matière qui s’est désintégrée quand un τ devient un µ ou un e moyennant l’émission de ce que nous désignons : ‘neutrinos’ n’est vecteur d’aucune charge électrique. Je formule l’hypothèse que cette matière est noire en lien direct avec ce que l’on désigne la ‘matière noire’ et le problème de son identification. Les niveaux respectifs d’énergie de masse des trois leptons sont identifiés grâce à la loi E = mc2, évidemment il en est de même pour caractériser leurs différences de valeurs. Ainsi (mτ-mµ)c2, (mµ-me)c2 ainsi que (mτ-me)c2 nous informe vraiment sur la quantité de l’énergie de masse qui se transforme dans le processus de désintégration car les paliers des désintégrations correspondent à des états de matière chargée. Mais cette énergie de masse transformée ne peut plus être qualifiée par l’intermédiaire de : E = mc2 car elle ne peut pas être rayonnante au même titre que notre matière visible et selon mon hypothèse elle ne peut être contrainte par la loi E = mc2 et en conséquence ce qui est produit ne peut pas être doté d’inertie comme cela est pour la matière ordinaire.

Certes nous considérons que nous détectons des neutrinos comme produits de la désintégration mais ceux-ci ne se laissent pas vraiment saisir, ni qualifier, par les lois habituelles et il en est ainsi depuis les années 1930.

(Einstein a consacré une bonne partie de sa vie à chercher une loi qui montre une unification possible de l’interaction gravitationnelle et de l’interaction électromagnétique mais aucune de ses tentatives n’a été concluante. A cette époque son intuition de cette unification était grande, partagée par d’autres savants, et donc ses échecs étaient d’autant plus frustrants. Mon hypothèse constitue une réponse minimaliste comparée à l’ambition première mais elle offre une réponse dans cette direction. En effet je propose de considérer que toute matière élémentaire, chargée, est contrainte par E = mc2, loi qui rend compte d’une corrélation entre la matière quantifié par m et la vitesse de déplacement du rayonnement E.M. émis par cette matière chargée. Par contre, lorsque la matière est nue de charge électrique cette corrélation n’est plus et la matière en question n’est pas contrainte par mc2.)

Considérons les processus suivants de désintégration :

μ+       e+ + νe + anti νμ

                                      μ-       e- + anti νe + νμ

τ-        e- + anti νe + ντ    mais aussi     τ-        μ- + anti νμ + ντ

τ+       e+ + νe + anti ντ   mais aussi    τ+       μ + + νμ + anti ντ

Cette écriture des processus de désintégration est plus le fruit du respect de règles instituées (conservation du nombre leptonique) que celui de l’observation, de la détection, car la présence des neutrinos est ‘décelée’ par défaut. L’énergie et la quantité de mouvement qu’on leur attribue est déduite par la règle qu’il doit y avoir égalité entre ce qui est entrant et ce qui est sortant. N’oublions pas que c’est ainsi qu’a été inventé le neutrino par Pauli, et à partir de là on a conçu, par déduction, l’ensemble des propriétés des neutrinos.

En règle général les physiciens sont convaincus que les neutrinos sont là, en tant que particules, certes on ne les détecte pas (ou si peu) mais c’est parce qu’ils sont très, très, faiblement interactifs. Mon hypothèse est la suivante : « Ce que nous nommons neutrinos résulte d’une illusion qui est celle de la conviction que E = mc2 est une loi universelle quel que soit le type de matière que nous traitons. » Pour illustrer mon propos, il suffit de de constater comment est présentée succinctement l’expérience Katrin : « Si le neutrino est une particule sans masse, il n'y a pas de frontière minimale à l'énergie que le neutrino peut porter, le spectre d'énergie de l'électron devrait aller jusqu'à la limite de 18,6 keV. Par ailleurs, si le neutrino a de la masse, alors il doit transporter au moins le niveau d'énergie équivalent à sa masse tel que calculé avec E=mc2, et le spectre de l'électron devrait tomber à la limite du total d'énergie et avoir une forme différente.»

Qu’est-ce qui pourrait constituer des détecteurs en matière noire ? Question sans réponse actuellement.

Dans la continuité et la cohérence de mon hypothèse il faudrait aussi considérer que le µ et le τ sont des particules composites de matière ordinaire et de ‘matière noire’. Peut-être que cette hypothèse pourrait rendre compte du résultat étonnant, doublement obtenu, concernant le rayon du proton lorsqu’au lieu d’un électron on installe un muon en orbite d’un proton et que l’on fabrique ainsi de l’hydrogène muonique. Evidemment on est très surpris du résultat car on traite le muon comme s’il était un gros électron obéissant aux mêmes lois que celui-ci mais avec une masse différente. Avec cette hypothèse, on doit envisager qu’il y ait une interpénétration de matière ordinaire et de ‘matière noire’. Ceci vaut jusqu’au niveau le plus élémentaire en considérant par exemple la désintégration du neutron n      p + e- + anti νe qui en fait d’une façon plus fondamentale correspond à la désintégration d      u + e- + anti νe. Ceci constituerait une piste nouvelle pour rendre compte de l’instabilité du neutron. Sans fournir pour autant une réponse à la question de la stabilité du proton, sauf à considérer que la composante matière noire est répulsive avec son alter égo comme cela se présente à la distance de cohabitation au sein du neutron composé d’1 quark u et de 2 quarks d, situation qui n’est plus au sein du proton composé de 2 u et 1 d.

Interpénétration, imbrication, de la matière ordinaire et de la ‘matière noire’ ne constitue pas une hypothèse difficile à formuler puisque, dans le scénario actuel des premiers instants de l’univers, la cohabitation à très forte densité entre matière noire/neutrinos et quarks est envisagée dès les premiers instants de l’universet puis après 380.000 ans ce sont les puits de potentiel constitués par la concentration progressive et significative de la matière noire qui ont précipité les grumeaux de matière ordinaire. Dans ces phases de l’évolution de l’univers, qu’il y ait eu jusqu’à une incrustation de la matière noire dans la matière ordinaire, étant donné les densités en jeu des matières en présence, constitue une proposition soutenable. En cosmologie, en retenant le modèle hiérarchique, nous disposons d’observations qui pourraient valider cette hypothèse puisque : dans les galaxies les effets ‘actuels’ de la matière noire se font sentir surtout à l’extérieur de celles-ci (halo qui enveloppe la galaxie) et dans les amas de galaxies formés après coup la densité de matière noire relevée actuellement est six fois supérieure à la matière baryonique.

Qu’elle est la nature de ce qu’il y a entre (mτ-mµ)c2, (mµ-me)c2 ainsi que (mτ-me)c2 ?

Pour tenter de répondre à pas comptés à cette question, je rappelle que depuis un certain temps les publications anglo-saxonnes utilisent, pour évoquer la problématique de la matière noire, le terme générique de ‘stuff’ qui se traduit bien en français par : ‘étoffe’, ‘substance’, ‘affaire’. Je n’ai pas la trace du moment de ce basculement sémantique pour évoquer la matière noire ni des raisons objectives si elles sont exprimées, mais il faut comprendre qu’il y a, de la part des auteurs, volontairement ou involontairement, la volonté d’écarter toute idée qui serait préétablie d’un caractère corpusculaire de ce qui constitue la problématique de la matière noire. Je suis d’accord avec cette précaution qui est donc évidemment conceptuel et ainsi cela s’applique pour les neutrinos. Pour mieux appréhender ce qu’il y a entre (mτ-mµ)c2, (mµ-me)c2, (mτ-me)c2 si on conserve le terme neutrino évacuons l’idée qu’il conduise automatiquement à la représentation d’une particule aussi ténue qu’elle puisse l’être. Le neutrino est la quantité de réel la plus ténue jamais imaginée par un être humain. (F. Reines). Cela veut dire que la perspective de détecter la matière noire au moyen de l’observation de collisions de ses éventuels éléments constitutifs avec de la matière visible est vouée à l’échec (ce qui est actuellement le cas !). Parmi la douzaine d’expériences en cours citons-en quelques-unes par leur noms génériques : XENON, Edelweis, CoGeNT, CDMS.

L’indéfinition qu’implique l’usage du terme générique ‘stuff’, ouvre la voie à une réflexion nouvelle, moins conditionnée, à propos des leptons et de la ‘matière noire’. Si on déconnecte le terme neutrino d’une représentation corpusculaire et qu’on le relie avec ce qui serait une manifestation spécifique du ‘Stuff’, on peut reprendre la problématique de l’oscillation, y compris avec le concept de saveur. En effet avec la première phrase de l’article j’ai précisé que : « L’idée de base consiste à considérer, d’un certain point de vue, les leptons τ, µ, e, comme représentant une seule et même entité qui serait détectable à des énergies de masse distinctes et discrètes.» Il s’en déduit que le τ, le µ, lee, représente chacun une saveur de la même entité en question. Il est normal que cette saveur soit transmise à la production dérivée. Dans ce cas il faut penser : « Le ‘stuff’ aurait des apparences tauiques, muoniques, électroniques mais ce serait toujours fondamentalement le même ‘Stuff’. » Ici le concept de ‘stuff’ annule la conception des neutrinos comme particules et contredit l’affirmation de Takashi Kobayashi du KEK (Japon) : « Le simple fait que les neutrinos ont une masse prouve qu’il y a une physique au-delà du Modèle Standard. Les masses induisent la propriété de mélange par le fait que les différentes saveurs des neutrinos sont des combinaisons linéaires des états de masse. » Le propos de Kobayashi s’inscrit dans la logique la plus stricte du raisonnement basique en ce qui concerne les neutrinos : « Les états de masse de ceux-ci ne coïncident pas avec leurs états de saveurs, en conséquence… » On peut s’interroger si ce raisonnement échappatoire n’a pas été un obstacle à un questionnement plus approprié sur la corrélation : quantification de charge électrique et quantification de la matière vecteur de cette charge, c.-à-d. : m = E/c2. Après tout on aurait pu creuser ce sillon plutôt que de supposer uniquement que les neutrinos avaient automatiquement une masse mais celle-ci était masquée à notre observation directe. Toujours est-il que cette construction théorique n'a toujours pas été validée et aucun résultat à la source n’a été obtenu. Nous concevons des détecteurs de plus en plus phénoménaux, mobilisant des ressources intellectuelles et matérielles gigantesques réunies à l’échelle de continents (Amérique du Nord, Europe, Asie.), avec l’espoir d’aboutir à des résultats significatifs.

Ma conception n’annule pas la valeur des réactions suivantes :

                       νe + n      p + e-

νµ + n      p + µ-

                       ντ + n      p + τ-

Dans ce cas les différents ν symbolisent les saveurs apparentes et distinctes du ‘stuff’. Entendues ainsi ces réactions représentent des interactions, des influences, entre la ‘matière noire’, le ‘stuff noir’, et des particules de matière visible.

 

Récapitulons :

Dans une même entité sont réunis le τ, le µ, le e. Chacun d’entre eux représente un niveau quantique d’énergie de masse de cette entité.

La saveur est une propriété qui est attachée aux leptons : τ, µ, e. Ils induisent les saveurs possibles du ‘Stuff noir’.

La matière noire est là mais elle est non spécifiquement localisable : aucune partie de la matière noire ne se différencie d’une autre partie ! C’est une matière qui n’est pas contrainte par E= mc2, aucune valeur d’inertie ne peut lui être attribuée comme cela est pour la matière ordinaire.

Le concept de ‘stuff’ dédouane d’une description de la matière noire qui serait composée d’éléments irréductibles

Par exemple le Z0 se désintègre d’une façon équiprobable en τ et anti τ, en µ et anti µ, en e et anti e. Il en est quasiment de même pour la désintégration des W en ℓν

Dans ‘La Matière-Espace-Temps’ de Spiro et Cohen-Tannoudji, p.264 : « La désintégration du muon à l’arrêt fait apparaître un électron dans l’état final et rien d’autre. On pourrait ainsi penser qu’un νeaccompagne l’électron : μ-→e+anti νe. Cette réaction conserve le nombre quantique électronique précédemment défini. Dans ce cas l’électron devrait être mono-énergétique, pour que l’impulsion et l’énergie soient conservées dans cette désintégration. Or à nouveau le spectre observé est un spectre continu. En introduisant une nouvelle espèce de neutrino, le neutrino muonique, ce nouveau puzzle est résolu : μ- e- + anti νe + νμ. Le spectre en énergie de l’électron prévu théoriquement est en bon accord avec l’expérience.

Voir Wikipédia en français.

Voir : Techno-Science, article du 10/07/2010 : « quelle est la taille du proton ? » ;  NewScientist, article du 24/01/2013 : ‘Schrinking proton puzzle persists in new measurement.’

Tous les scénarios de cosmologie primordiale indiquent que les quarks, électrons, neutrinos, matière noire, sont présent dans l’univers avant la phase de la formation des nucléons qui s’engage à 10-6s après le supposé Big-Bang. Il est aussi supposé qu’au bout d’une seconde commence la nucléosynthèse ainsi que s’émet le ‘fond diffus’ de neutrinos.

Cern Courier, Sept. 2012, p.56.

Partager cet article

Repost0
3 août 2013 6 03 /08 /août /2013 14:21

            Being of light’ and intelligence of the lights?

In the article 'Our matter is not all the matter', (29/06/2013, in my blog), I mentioned the idea that we were ‘Beings of the light. There was no intention, from me, to make reference to any mystic but there is the idea, that after all, it is normal to be fascinated by this light which is so familiar to us but it should not blind us intellectually any longer. I suggest developing this idea which may seem a priori extremely iconoclastic.

The quotation which I have selected of S Haroche in the article mentioned above, is very explicit: The light and the matter are: ’Both faces of the same reality’, and for those who are perplexed towards this assertion, let’s to formulate it using the conditional: the light and the matter would be

To begin, please let me explain the title of this present article, by analyzing the following one: 'The dark matter could not be it completely' of Laurent Sacco, the 24/06/2013, in Futura-sciences. In particular I quote: “This matter is said black because it would consist of particles incapable to emit some light." He excludes that there is another light (another radiation) other than the one we are able to detect at present, which can be emitted by this dark matter. This assertion results from a bias and it contradicts what S. Haroche says, unless one considers that the subject of the Nobel Prize is not universal and is only accurate for the matter which is presently common to us. Nothing justifies this limited conception especially as the author to add the dark matter in the field of our speculation, favors a model that would make particles of dark matter Anapoles. For more precision I suggest the reading of L. Sacco’s article. Bear in mind that, until now, no object with such specific structure was ever observed in the elementary state.

James Clerk Maxwell has certainly been the scientist who has best explain how the process of modeling… ‘Nature’, is worth as an intellectual and speculative process; but no more! He acknowledged that his work ever consisted in modeling ‘Nature’: « That is to throw nets on ‘Nature’ - in other words, "Models" - , to catch its secrets. The stitches of the nets are mathematical, while knowing well that these are tricks, as these models never reflect faithfully the mechanisms which they serve to represent. Maxwell, with the use of these tricks intended to penetrate further into the intelligence of Nature and to formulate its fundamental laws that he thought of being possibly geometrical or at least structural.

The heuristic character of a work of modeling is thus rightful if, and only if, as recommends it Maxwell, we demonstrate, step by step, a great intellectual control and a great intellectual rigor. On the other hand this work can lead to the conception of false friends, and to be counterproductive if we proceed forcing into modeling (with accumulation of hypotheses) concealing so a confinement of the thought. This is the way I analyzed the article In question of L. Sacco. All this to put back on track to a possible interaction between dark matter and electromagnetic field: "If the dark matter consists of fermion of Majorana (sic) with an anapole (sic), she is thus sensitive to the electromagnetic fields.

Another recent article (27/06/2013, in NewScientist): 'Is missing ‘partial’ neutrino a boson in disguise?’ This boson would be Goldstone boson proposed in the 1960s, « Which is supposed to be part of the Higgs mechanism… », “…But no hints of it have been seen in nature so far”. According to the author of the article, it appears that the in-depth study of the map of the cosmic microwave background, relic radiation, by the satellite Planck, would lead to formulate the hypothesis that things would be more sensible if there was between 3 and 4 types of neutrino rather than just 3. As said S. Weinberg: "Clearly there’s no such a thing as half a neutrino. So what it could be? » « According to Weinberg, the boson of Goldstone could fill this difficulty. It is its own antiparticle (this subject is purely speculative) thus, these bosons would annihilate each other. It means that bosons would have only half of their visible effects, on the map of the relic radiation, compared with the more traditional particle pair. The boson is also expected to interact less with the other particles of matter during the expansion of the universe, which means that it could look like 0.39 of the neutrino now. That seems to match what’s being seen in observations. » If the idea of the fractional neutrino persists, the boson of Goldstone would be a plausible interpretation.

“The process by which the boson of Goldstone is introduced is the same as the one whom in theory, would give birth to the dark matter. The boson is without mass, thus it cannot be the dark matter. But as suggests Weinberg, if it is real, to understand Goldstone could help in reveal the nature of the dark matter from the earliest days of the cosmos.

However, let us relativize what is asserted in this article of the ‘NewScientist’ because in another article, of Alain Riazuelo de l' IAP (Paris Institute of Astrophysics), (in ‘Pour la Science’ of May, 2013), he has written that: “The suggestion of the possible existence of the fourth family of neutrinos, named sterile neutrino, would have an influence on the fluctuations of the relic radiation, but this type of modification is not observed in the results. Then, there would be only three families of neutrinos (Sic).

It is still easy today to convene neutrinos to fill the weaknesses of our understanding of the properties of Nature because these are so little understood, that is the physical laws which govern their properties are so weakly identified, that we can speculate about them without any restraint.

Among all the possible within the eternity, we, "thinking subject", have already reached a significant understanding of laws and properties of ‘Nature’. But there is no reason to consider that those who are within our reach of the next discoveries would be force to obey to the same criteria. As, at the appropriate time, James Clerk Maxwell has already recommended it, let us throw new nets with different stiches which will allow revealing new secrets of the Nature. To this end I propose that in the light of what we already know we threw fearless hypotheses which could widen the field of our knowledge in physics:

–The assertion of S. Haroche must be converted in one universal postulate: « That, in any type of matter must correspond the other face of the same reality. This other face would be a radiation. So if we make the hypothesis that the dark matter has an elementary constitution, it has to correspond to it a radiation which for us is (actually) 'undetectable'. »

- In what concern the matter which is common to us, the link between both faces of the reality in question is specific, that is E = mc2. The main parameters which characterize both faces of the same reality are united in a law which makes sense.

- With the matter of another nature, like the dark matter, there is no reason to be forced by the same law that is quoted in 2. Of the ‘black’ radiation is no reason to be characterized by the same parameters that of the light which is so common to us.

-The neutrinos of the various flavors should be considered as hybrid elements, that is as ersatz of electrons, of muons and of taus, but being no more radiant it is not right to consider any more that they can be characterized by E = mNc2. The obsession (understandable) to try to detect them by the ways of this formula is thus inappropriate.

Conceived in 1958 by Iakov Zeldovitch, a Russian : physicist and cosmologist. This anapoles was observed only in composite systems: nucleus of cesium 133 and ytterbium 174.

Partager cet article

Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens