Overblog
Suivre ce blog Administration + Créer mon blog
27 mars 2015 5 27 /03 /mars /2015 14:58

~~ Espace – Temps – Matière.

Avec cet article je me réfère aussi à ceux précédents : ‘Un authentique Big-Bang’, du 27/08/2014, et ‘Descartes, Spinoza…merci Maurice Merleau-Ponty’, du 23/09/2014, dans lesquels j’indiquai ma conception de la fondation de l’Espace et du Temps. Ici je veux préciser une différence significative, déjà esquissée, de ces deux processus de fondation par le sujet pensant. Différence qui est conforté ‘en creux’, donc sujet à interprétation et j’en conviens, par un exposé de Thibaud Damour dans le livre ‘Einstein aujourd’hui’ datant de 2005, dans le chapitre : ‘Relativité Générale’

Le processus de fondation de l’espace et du temps par l’être pensant comme je le conçois ne peut pas correspondre de la part de l’être pensant à une émancipation à l’égard de la matière. Notre dépendance, pour ne pas dire notre asservissement, à la matière-Terre est totalement intériorisé à ce stade de notre développement et donc cette intériorisation primitive est incluse dans les opérations de fondation de l’espace et du temps. Il est en soi logique que cette interdépendance apparaisse dans le triptyque : « Espace – Temps – Matière ». Avec Newton un réarrangement significatif de cette intériorisation se produit, puisque ses lois correspondent à une extériorisation, à une explicitation, de la loi qui régit la dépendance de notre personne matérielle avec la planète Terre. Cela n’exclut pas que des aspects immanents de cette intériorisation continuent d’affecter l’être humain. Lesquels ? Ce questionnement ne doit pas être effacé. En tous les cas l’interdépendance Espace-Matière est, selon ma conception, plus prégnante que celle de Matière-Temps, ou Espace-Temps.

(On n’oublie pas que l’interdépendance Matière-Temps est malgré tout tangible car si une montre s’approche d’un puits de potentiel : l’écoulement du temps ralentit et l’effet contraire est aussi mesurable. Le GPS exploite cette propriété, voir aussi le paradoxe des jumeaux à titre d’illustration. En ce qui concerne l’interdépendance Espace-Temps, Samuel Alexander, philosophe britannique (1859-1938), qui s’est beaucoup inspiré de la doctrine Spinoziste, lui a attribué une très forte valeur : « Le temps est l’esprit de l’espace et l’espace le corps du temps. », bref : «Espace et Temps ne sont pas deux choses mais une seule, et il n’y a ni espace sans temps, ni temps sans espace. », ou encore : « Le temps ne saurait faire son œuvre sans l’espace ; mais, cela étant posé, c’est le temps qui est le principe du mouvement et du changement. » (La hiérarchie qualitative que propose S. Alexander : Le temps qui est le principe… me convient car le temps qui émerge, c’est le Logos qui émerge, la pensée réflexive qui émerge… Toutefois les processus de fondation de l’Espace et du Temps que je propose et leurs chronologies m’oblige à exprimer mon désaccord avec : «…il n’y a ni espace sans temps… », Par contre j’adhère complètement à l’expression : « Le temps ne saurait faire son œuvre sans l’espace. »)

Ce que met en évidence Th. Damour à propos de la fluidité spatio-temporelle (p.285), c’est que l’espace-temps subit un effet d’entraînement à cause de la rotation de la Terre. Toutefois, il y a une nuance qui apparaît quand je cite Th. Damour : « La rotation de la Terre entraîne, d’une façon minime, tout l’espace (sic, ce n’est plus l’espace-temps) autour d’elle à « tourner » continuellement comme le ferait un fluide. Cette « rotation de l’espace » se traduit, de façon observable, par une violation des effets prévus par Newton et confirmés par les expériences de Foucault : en particulier, un gyroscope ne s’aligne plus avec une direction « fixe dans l’espace absolu », mais son axe de rotation est « entraîné » par le mouvement de rotation de l’espace local où il se trouve. Cet effet était bien trop petit pour être visible dans les expériences de Foucault. Son observation par Gravity Probe B est importante pour rendre sensible au plus grand nombre la notion einsteinienne révolutionnaire d’un espace-temps (sic, c’est l’espace-temps qui est repris en compte) fluide. »

On peut considérer que dans le propos de Damour, il y a une étape dans laquelle il procède à un découplage de l’espace du temps, faisant comprendre ainsi qu’objectivement, dans l’étude de ce phénomène physique, seul l’espace est concerné par l’effet de la rotation de la terre. Une fois l’étape décrite, il reprend le concept d’espace-temps, ce qui est tout à fait acceptable.

A cette occasion, objectivement, Damour exprime une distinction de ‘nature’ entre l’espace et le temps. Ceci correspond, en creux, à valider les processus de fondation de l’espace et du temps par le sujet pensant que je préconise.

Le processus de la fondation de l’espace a comme ressource première une réalité de l’espace donnée dans la Nature (voir ‘Un authentique Big-Bang’), mais cet espace donné est complètement réaménagé dans le processus d’appropriation-intériorisation par l’anthrôpos à tel point que je peux parler d’un processus de fondation. Toutefois, il ne faut pas exclure qu’il y a quand même des réminiscences de l’origine de l’histoire de cette fondation. En creux on pourrait considérer que la présentation ciselée de Th. Damour constitue une bonne raison de persévérer avec mes hypothèses de fondation de l’espace et du temps par l’anthrôpos dont le processus de fondation a suivi des chemins différenciés.

A propos de la fondation du temps, le TpS comme je le qualifie : ‘Temps propre du Sujet’, est in fine une émanation du sujet pensant, bien qu’à l’origine, des tempos donnés dans la Nature : alternances des saisons et/ou celles du jour et de la nuit, ont pu constituer des références primitives évidentes. L’émergence de TpS est fondatrice du sujet pensant qui développe une capacité au langage, une capacité à la conceptualisation et à la symbolisation. TpS et donc le processus de fondation du temps qui est spécifiquement un processus qui caractérise l’humain. Ce qui expliquerait peut-être la raison pour laquelle il est nécessaire conjoncturellement de découpler l’espace et le temps comme l’a fait Th. Damour dans l’exemple cité.

Mais attention, l’être pensant, fondateur du temps, est un être concomitamment en voie d’humanisation qui est marqué par sa condition d’être terrestre et le lien à la Terre est une donnée première. La découverte de la loi de la loi de Newton qui dit que le poids de notre corps résulte de notre interaction avec la matière de la Terre constitue une opération d’objectivation et non pas d’émancipation, bien que le même Newton ait cru bon de pourvoir l’espace et le temps de la légèreté céleste et divine (‘Sensorium de son Dieu’). Il n’est pas anodin que ce soit le même savant qui ait à la fois pensé à notre relation avec la matière-Terre et simultanément affirmé une nouvelle définition du Temps et de l’Espace

L’interdépendance Espace-Temps-Matière est présentement largement justifiée (par exemple, l’effet lentille gravitationnel). Par contre il est temps de s’interroger si l’Espace et le Temps avec une telle genèse fondatrice peuvent inclure au sein des tirets tous les types de matière dans la Nature. La réponse est : non. Il faudrait donc envisager une conception de l’Espace et du Temps qui dépasse celle qui est encore imprégnée des déterminations de l’être pensant pour qu’une interdépendance avec des types de matière ignorés jusqu’à maintenant soit mise en évidence. L’autre alternative envisageable serait que ce soit la mise en évidence d’autres types de matière qui conduisent à reconsidérer, la valeur et l’intensité des tirets de l’interdépendance actuellement établie et partant d’autres fondements de l’Espace et du Temps devraient être considérés.

P.S. Aujourd’hui, un article circonstancié est posté sur le site du NewScientist, juste avant que je poste le mien : ‘Galaxy smash-ups show dark matter wants to be alone’ qui conclut que la matière noire n’interagirait qu’avec elle-même et par une force qui serait spécifique : ‘dark-matter-only’ force.

Partager cet article
Repost0
18 mars 2015 3 18 /03 /mars /2015 14:23

Décrypter la physique comme science de l’interface de l’être humain et de la Nature !

 

Pourquoi les connaissances en physique fondamentale sont perçues, appréhendées, comme des connaissances de premier rang. Cela a été explicité par Descartes avec son arbre de la connaissance, dont le tronc représente la physique, les racines plongent dans la métaphysique, et les autres connaissances sont les branches qui se rattachent au tronc.  

Les lois du corpus de la physique fondamentale sont des lois que notre intelligence a pu prélever grâce à l’observation et à l’apparente compréhension des lois de la nature. On peut considérer que les lois de cette physique fondamentale sont des lois qui nous renseignent à propos de ce que nous ne sommes pas dans la mesure où l’objectivation a priori et la mathématisation des lois confirment qu’elles sont accessibles à notre regard intellectuel qui est capable de scruter ce qui est en dehors de ce que nous sommes. En contrepartie, la conquête de tout savoir fondamental, comme celui relatif aux propriétés de la Nature, enrichit à coup sûr, l’être humain que nous sommes, et à ce titre, de palier en palier c’est sur une trajectoire évolutive, positive, que l’on peut figurer les capacités humaines de s’émanciper de l’obscurité des lois de la Nature grâce à nos facultés à les décrypter. (Pensez, 1 - qu’avec les lois de Newton, avec la connaissance de l’attraction terrestre, le poids de notre corps s’explique et du temps de Newton on peut imaginer l’effet libérateur de la compréhension de la pesanteur du corps humain. Et à partir de là on peut concevoir que c’est une relation nouvelle, un entendement nouveau, qui se mettent en place entre l’être humain et la planète terre.  2 - On peut aussi imaginer qu’avec la découverte les lois de Maxwell, il y a une avancée remarquable de l’optique et… de l’anatomie, le récepteur de la lumière qu’est notre œil est devenu le centre d’un questionnement de notre relation avec le monde extérieur et la formation de notre propre représentation de ce monde. Ce n’est pas par hasard si concomitamment la question de ‘Voir’ a été posé sous la forme : « Les couleurs sont-elles une propriété de la lumière ou une sensation ? La réponse de Maxwell est la suivante : « La science des couleurs doit être considérée essentiellement comme une science de l’esprit (sic)[1]. »3 - Plus récemment c’est grâce à la connaissance des lois physiques conduisant à la production des images cérébrales en conjonction avec les sciences cognitives que nous sommes à même, dorénavant, de prospecter le fonctionnement de notre cerveau, siège de notre faculté de penser[2] et d’éprouver des émotions. Cela n’est pas banal et ce n’est pas par hasard que le ‘Human Brain Project’, projet européen, est le centre de conflits de pouvoirs scientifiques antagoniques. Ce n’est pas par hasard que les autorités Américaines ou Chinoises annoncent respectivement des financements de l’ordre du milliard de dollars. 4 - Enfin n’oublions pas, et cela doit nous interpeller, que les premiers briques du monde vivant : les acides aminées à la base des protéines, sont obligatoirement lévogyres, et c’est la lumière stellaire ultraviolette qui forge cette sélection. Ce serait donc une loi physique qui structure au niveau le plus fondamental, le fait que nous soyons !!)

Néanmoins, nous devons accepter, en toute humilité, que le physicien est engagé dans un mouvement sans fin de dévoilement et… de voilement. Ce fut perçu chez les premiers penseurs grecs. Ainsi Héraclite a exprimé l’aphorisme : « la Nature aime à se voiler[3]. » Nous pourrions en déduire : « Ce que nous ne sommes pas, aime à se voiler. » Donc ce que potentiellement nous sommes s’inscrit dans ce mouvement prométhéen de voilement et dévoilement. La déesse de la Nature : Atémis-Isis, est toujours représentée voilée (dans l’antiquité et jusqu’à Goethe, seul le poète est à même de lever le voile d’Artémis-Isis. Voir la gravure où Apollon, génie de la poésie, dévoilant la statue d’Isis-Artémis.)

L’ancêtre du mot physique : ‘phusis[4] : nature,  qui renvoie à la métaphore des « secrets de la nature » devrait sans cesse nous rappeler que le physicien éprouve des difficultés à connaître d’une façon irrémédiable les phénomènes naturels et à construire la partie « physique » de la métaphysique et de la philosophie de la Nature.   

Corréler la connaissance des lois de la nature à la connaissance propre de l’être pensant qui en est le révélateur, c’est peut-être mettre en relief ce qui constitue le frein majeur à toute remise en cause de la conception réaliste de la majorité des physiciens. Cette conception réaliste est très ancrée dans l’esprit des physiciens, même ceux qui sont imprégnés, par leur formation, par les sujets de mécanique quantique qu’ils traitent quotidiennement, finissent le plus souvent, consciemment ou inconsciemment, par rechercher et concevoir un monde réel quantique. Le plus souvent cela consiste de la part de ces physiciens à accepter le formalisme mathématique de la mécanique quantique tout en rejetant sa signification, telle qu’elle fut dégagée par l’école de Copenhague. Les références historiques de ce rejet depuis un siècle ne manquent pas. Ce fut l’objet particulier du précédent article : ‘Une étonnante régression’, en ce qui concerne le travail de C. Rovelli.

Selon les réalistes, leur savoir révèle ce qui est, ce qui s’explique rationnellement. L’indéterminé est repoussé. Saisir ce qui est en dehors de soi, garantit en retour à celui qui en a la conviction, une assurance sur ce qu’il est en tant que sujet pensant. Cette assurance justifie de la part de celui qui en est le détenteur une autorité intellectuelle, pour s’en rendre compte il suffit de lire par exemple les premières phrases de l’article EPR : Si, sans perturber le système en aucune façon, nous pouvons prédire avec certitude la valeur d’une grandeur physique, alors (sic) il existe un élément de la réalité physique correspondant à cette grandeur physique – et une condition de complétude pour une théorie physique – chaque élément de la réalité physique doit avoir un correspondant dans la théorie physiquesinon la mécanique quantique ne permet pas une description complète de la réalité physique. N. Bohr répondra que les arguments de l’article EPR ne font que démontrer : « l’inadéquation essentielle du point de vue ordinaire de la philosophie naturelle pour une analyse rationnelle des phénomènes quantiques et non pas l’incomplétude de la mécanique quantique. » L’article[5]EPR date de 1935, la mort d’Einstein en 1955, celui-ci n’acceptera jamais les fondements de la mécanique quantique, pourtant ils ne furent jamais contredits et il en fut témoin. Mais voilà la philosophie de Bohr violait un idéal de représentation du monde physique qu’il ne pouvait abandonner. On peut même dire que c’était viscérale, dans une lettre à Schrödinger, il écrivait : « La philosophie (ou la religion) lénifiante de Heisenberg-Bohr est subtilement agencées de manière à fournir, provisoirement, à celui qui y croit de profonds coussins dont il peut difficilement s’extirper. Laissons-le donc s’y reposer. »

En tant que réaliste, annoncer en toute certitude ce qu’il y a dans la Nature, ce qui est de l’ordre de la Nature, garantit en retour qu’il n’y a pas matière à s’interroger sur le statut de l’être connaissant et il suffit d’être convaincu de la dynamique irréversible de la conquête du ‘Il y a’ dans la Nature, et ainsi de suite, se remettre sur le métier pour engendrer de nouvelles découvertes d’’Il y a’.

Sans vouloir faire des extrapolations incongrues, il est légitime de tenir compte de ce que Einstein écrit lui-même : « Je crois, avec Schopenhauer que l’un des motifs les plus impérieux qui conduit les hommes aux arts et à la science est la fuite de la vie quotidienne avec sa douloureuse cruauté et sa sécheresse sans espoir. » Et puis il est vraiment explicite quand il écrit à son ami H. Broch : « Ce livre me montre clairement ce que j’ai fui en me vendant corps et âme à la Science : j’ai fui le JE et le NOUS pour le IL du ‘IL y a’. » Le livre en question était la ‘La Mort de Virgile’, cadeau offert par cet ami, H. Broch, et Einstein exprimait à la fois, dans une lettre de remerciement, la fascination et la résistance acharnée suscitées par la lecture de l’œuvre. On pourrait rappeler avec une dose raisonnable d’ironie qu’un individu, un sujet, qui fuit, résiste, est toujours extrêmement là, présent,… à son insu, à son corps défendant… Marie-Antoinette Tonnelat : scientifique et femme de lettres, avait qualifié avec indulgence et poésie, « ce troc de l’irisation du ‘je’ et du ‘nous’ par le dépouillement du ‘il y a’ », mais selon elle, il fallait aussi en payer le prix. D’après son expérience, en guise de conclusion, elle n’hésite pas à affirmer : « Cette propulsion négative est, néanmoins, certainement beaucoup plus fréquente qu’on ne le dit. »

L’école de Copenhague ne définit pas l’objectivité de la mécanique quantique comme étant une théorie qui porte, ou prétend porter, sur ce qui est. En effet fondamentalement l’école de Copenhague impose de renoncer à cet idéal classique. Renoncement douloureux, déstabilisateur, inconcevable pour les réalistes, qui encore aujourd’hui, mutatis mutandis, malgré le théorème de Bell et le résultat de l’expérience d’A. Aspect, ne peuvent renoncer à croire soit à l’existence d’une réalité indépendante de nous-mêmes, soit à la possibilité – si celle-ci « existe » - de la décrire telle qu’elle est.

Renoncer à l’assurance de prendre appui sur le ‘Il y a’ de la Nature pour mettre en relief les lois physiques, tel est le critère paradigmatique de la mécanique quantique. Le discours scientifique ne peut s’appuyer que sur l’apparaître lorsque nous scrutons les propriétés de la Nature qui pourraient prévaloir aux échelles de l’infiniment petit. Un apparaître, au sujet pensant, ondulatoire ou granulaire, cela dépend de l’appareil d’observation, choisi par l’observateur, et des conditions de son exploitation. S’il y a une impossibilité d’acquérir une information spatio-temporelle de la part de l’observateur : c’est une empreinte ondulatoire (dispersion spatio-temporelle) qui s’impose à celui-ci, si au contraire l’observateur reçoit une information spatio-temporelle du passage de l’objet quantique c’est le caractère granulaire de l’objet qui s’impose à lui.

De même un apparaître intriqué s’impose au sujet pensant, s’il y a des conditions initiales qui font que deux objets ne peuvent être différenciés spatio-temporellement, alors, après coup, l’observateur ne pourra plus les distinguer même si chacun des objets a un destin spatio-temporel différencié. L’observateur ne peut récupérer un savoir sur ‘qui est qui’ d’entre les deux, la non localisation de ‘l’un et de l’autre’ perdure. Les exemples qui mettent en jeux un questionnement sur les facultés de l’observateur ne manquent pas. Toutefois le questionnement suivant persiste : « Est-ce qu’à l’échelle quantique les objets se comportent concrètement tels que nous les percevons ? Ou bien est-ce nous observateurs, qui sommes en cause avec ces perceptions paradoxales mais absolument effectives? »

Il est certain que les physiciens répugnent à intégrer les facultés du sujet pensant dans le corpus de la théorie quantique pour le faire évoluer. E. Wigner (1902-1995) fut un des rares physiciens à tenter d’insérer la conscience du sujet pensant dans ce corpus, dans une certaine mesure on peut considérer que les propositions d’Everett relèvent d’une tentative semblable. En fait la ‘toute puissance’ de la conception réaliste s’exprime chez les physicalistes[6], qui eux, renversent complètement la situation en considérant, avec l’autorité de leur croyance, que ce qui fait que nous sommes des ‘sujets pensants’, peut être décrit par le corpus unique de la physique. On a le droit de s’inquiéter de cette conception réductrice de l’être humain

Chez les scientifiques anglo-saxons, cette conception physicaliste est significative. R. Penrose, en est un représentant qui s’est toujours affirmé comme tel.

Considérons que la connaissance en physique nous amène à nous interroger et à enrichir la compréhension de l’être humain parce que la physique est aussi une science de l’interface, de la relation très active (au point que l’on pourrait aussi dire de la confrontation), entre la nature et l’être humain. A ce titre, il est possible de déclarer qu’il n’y a pas de monde quantique. Les lois de la mécanique quantique nous informe sur la perception que nous avons des propriétés de la Nature lorsque nous scrutons celle-ci aux échelles de l’infiniment petit. Les propriétés de la mécanique que nous mettons en relief, nous rappellent que nous sommes des sujets pensants, forgés, moulés, d’une façon irréversible, dans le monde macroscopique classique et à ce titre nous véhiculons des déterminations de notre façon, de penser, de décrypter, les propriétés de la Nature qui sont irrémédiablement inscrites… dans nos gènes. C’est ce que nous dit, J. C. Maxwell que j’ai déjà cité : « Il doit y avoir quelque chose, dans notre nature spécifique, qui détermine la forme de ces lois. » Ce que j’ai très souvent exprimé est quelque peu différent de Maxwell, mais in fine, aboutit à la même conséquence. Ma conception s’appuie sur le fait que nous sommes des êtres déterminés à cause de notre nature spécifique, et les lois de la Nature que nous mettons en évidence sont marquées par cette spécificité et elles ne doivent pas être considérées comme universelles.

Si nous franchissons le cap de comprendre et d’admettre que la science physique actuelle est une science qui nous dit tout autant ce qui relève de la Nature que ce qui relève de notre nature spécifique, alors je fais le pari que cette intelligence-là, nouvelle, permettra de mettre en avant des nouveaux paradigmes qui conduiront à de nouvelles connaissances émancipatrices et qui déchireront le voile de nos ignorances actuelles. Ne doutons pas qu’à nouveau ces nouveaux bagages de connaissances mettront en lumière de nouveaux voiles que l’être humain nouvellement instruit devra soulever.

Depuis plusieurs années, j’ai formulé des hypothèses qui permettent de franchir ce cap et qui ont été déjà discutées dans plusieurs articles du blog :

1 – L’être humain est le fondateur du temps qui est la marque de la ‘Présence’ du sujet pensant qui ainsi, grâce à une scansion primordiale, est à même de développer un logos sur la Nature telle qu’il est en mesure de la prospecter. Le tic-tac primordial de ce temps est TpS, de l’ordre de 10-25s.

2 – Il en est de même en ce qui concerne l’espace, à plus qu’une nuance près, car l’idée de l’espace est présente dans la Nature mais du processus d’appropriation, d’intériorisation, par le sujet pensant, en fonction des conditions de ses possibilités cognitives, il en résulte une telle transformation, qu’elle a la valeur d’une fondation.

3 – 1 et 2 sont deux hypothèses susceptibles d’être soumises à l’expérience, lorsqu’on entreprendra l’expérience qui consiste à imager le fonctionnement cérébrale d’un observateur placé devant un interféromètre qui n’a pas d’information spatio-temporelle sur l’objet quantique qui se déplace dans l’interféromètre, ceci en contraste avec la situation où il a cette information spatio-temporelle. Selon mon hypothèse ce sont deux régions distinctes du cerveau de l’observateur qui sont sollicitées suivant les deux situations contrastées.

4 – Pour préciser 1, je qualifie TpS de point aveugle de l’intelligence humaine et, à mon sens, ce ‘Temps propre du Sujet’ est en jeu avec le phénomène de l’intrication car celle-ci se produit entre deux objets qui pour nous est instantanée donc < 10-25s. 

5 – Contrairement à l’espace et au temps, la lumière céleste est donnée dans la Nature, en tous les cas dans la Nature telle que nous la percevons. En tenant compte de 1 et 2, étant donné que nos capacités de description de cette lumière s’expriment aux moyens de paramètres qui sont fondés par le sujet pensant on doit admettre que notre compréhension de la lumière ne peut être qu’approximative. Pour cette raison, j’ai déjà proposé de considérer la vitesse C comme une vitesse horizon et non pas ayant la valeur déterminée finie que couramment nous lui attribuons. En cosmologie, cette hypothèse devrait permettre de lever bien des voiles car la lumière céleste enveloppe nos connaissances actuelles dans ce domaine. Voir article de R. Lehoucq dans le ‘Monde’ du 18 mars 2015 : ‘La lumière, témoin de la « formation des mondes. »’



[1] Je profite de l’occasion pour préciser qu’à mes yeux, J. Maxwell est un physicien qui a développé une pensée ouverte, d’avant-garde, et qui devrait être mieux connu. Je le cite encore, pour être plus exhaustif à son égard : « si la  sensation que nous appelons couleur, obéit à quelque ensemble de lois, il doit y avoir quelque chose, dans notre nature spécifique, qui détermine la forme de ces lois. Et il n’est pas nécessaire que je vous dise que la seule preuve que nous puissions obtenir à notre sujet dérive de la conscience. La science des couleurs doit dons être considérée essentiellement comme une science de l’esprit… »

[2] Cela ne doit surtout pas nous conduire à penser qu’il existerait des mécanismes (une machinerie) de la connaissance comme par exemple, cela peut être prétendu sur le blog ‘Philoscience’

[3]Effectivement, à notre époque, en cosmologie, un voile opaque, noir, recouvre 95% de ce qui devrait composer notre Univers, et en ce qui concerne la mécanique quantique, il y a tellement de domaines qui échappent à notre compréhension classique que tous ces voiles ne font plus qu’un, au point que B. d’Espagnat a pu écrire, à ce sujet, un livre en 1994 : ‘Le réel voilé’

[4] Philon (13 av. J. C. – 54 apr. J. C.), a souvent utilisé le mot phusis pour désigner soit la Nature qui produit les êtres, soit le cours général de la nature, soit la nature d’une chose. Philon entend par le mot phusis, la réalité ou vérité cachée qu’il faut découvrir au-delà de la lettre… On retrouve, la démarche, l’obsession, Einsteinienne de l’hypothèse des variables cachées pour retrouver le contact avec le monde physique réel.

[5] C’est donc le concept de réalité physique séparable qui est au cœur du débat. Pour Einstein, le monde peut être conçu comme formé d’entités localisables dans l’espace-temps, munies de propriétés qui constituent leur (sic) réalité physique. Ces entités ne peuvent interagir que localement au sens relativiste, c’est-à-dire via des interactions ne se propageant pas plus vite que la lumière. Une telle conception du monde est appelée réaliste locale, ou séparable. Bohr propose une version différente, en refusant de considérer une réalité physique indépendante de l’appareil de mesure, donc indépendante de l’observateur.

[6]Physicalisme : théorie épistémologique néopositiviste qui affirme que le langage de la physique peut constituer un langage universel convenant à toutes les sciences. De Otto Neurath : « Selon le physicalisme, la langue de la physique est la langue universelle de la science et, par conséquent, toute connaissance peut être ramenée aux énoncés sur les objets physiques ».

Partager cet article
Repost0
28 février 2015 6 28 /02 /février /2015 11:22

              Une étonnante régression.                                                    

C’est avec beaucoup de dépit que je qualifie ainsi ce qui est présenté dans une grande partie du dernier livre de Carlo Rovelli : ‘Par-delà le visible : La réalité du monde physique et la Gravité Quantique’, Edit. O. Jacob.

Dès la page 66, je suis étonné de l’opportunisme de l’auteur qui installe dans les 2 figures un ‘sujet pensant’, puisqu’il lit un journal, mais celui-ci est totalement transparent. C’est-à-dire que si on l’efface rien n’est changé à propos de ce que l’auteur affirme dans cette partie du livre. Dans ces 2 figures l’être pensant n’a aucune épaisseur temporel, aucun ‘temps propre’, bref il n’a aucune ‘Présence’. Or cela revient à occulter le geste principal et essentiel d’Einstein[1]pour fonder la relativité restreinte, c.-à-d. postuler que le temps t’ dans O’ est différent de t dans O. Penser qu’une scansion du temps (Δt) n’est pas la même quand elle est mesurée dans deux référentiels se déplaçant à des vitesses notablement distinctes, oblige à déposer dans chacun de ces référentiels des instruments fabriqués qui mesurent cette différence de l’écoulement du temps. Ces instruments fabriqués, des montres, des clepsydres, etc., déposés, impliquent l’action, la présence au moins implicite, d’un observateur O et un observateur O’. Einstein, lui-même, a mis beaucoup de temps pour formaliser le concept, obligé, d’observateur en Relativité Restreinte[2]. Et à la décharge de C. Rovelli, il faut admettre qu’Einstein n’a jamais considéré, loin s’en faut, qu’il faille attribuer une place, une contribution quelconque, au sujet pensant : lecteur d’un journal, observateur, dans le développement de sa R.R. Par contre on peut interpeller l’auteur à propos de sa croyance forte que fondamentalement le temps n’existe pas (exactement en opposition avec la croyance de L. Smolin qui prétend qu’il est donné dans la Nature), puisque dans ses figures, le temps est là, il s’écoule, indépendamment du lecteur du journal, alors pourquoi peut-il être là ?

En résumé, on doit donc s’étonner de la bévue de l’auteur qui dans la figure 3.2 accompagnée de la légende : « la structure de l’« espace-temps », cf la R.R. Pour chaque observateur, le « présent étendu » est la zone intermédiaire entre le passé et le futur », s’oblige à représenter un observateur qui possède un savoir et que celui-ci peut le rétro-projeter dans le passé ainsi que le projeter dans le futur. Ce savoir, a été élaboré par l’observateur-au-journal, il est intériorisé, il lui appartient en propre, mais C. Rovelli ne lui a accordé aucun Δt au temps t = 0 pour qu’il conçoive se savoir et pourtant il le dénomme « Présent ». Comment peut-on nommer quelque chose qui est rien ? Pour lever ce type de contradiction, depuis de nombreuses années je postule qu’il faut accorder un TpS (temps propre du sujet) de l’ordre de 10-25s à l’Être de connaissance : condition préalable à la fondation de toute connaissance. Ce TpS a évidemment un impact sur les capacités d’investissement de nos facultés intellectuelles et de compréhension des propriétés observables de la nature. C’est une détermination inexpugnable. Ainsi l’affirmation d’Einstein : « Ce qui du point de vue physique est réel… est constitué de coïncidences spatio-temporelles. Et rien d’autre. », est parfaitement stérile car les coïncidences spatio-temporelles ne sont pas accessibles donc pas identifiables au sujet pensant. En conséquence la mécanique quantique et mon hypothèse TpS nous interdisent de considérer que nous pouvons connaître le monde en soi, réel[3].

Il est plausible que le premier reproche que je formule à l’égard du livre de Rovelli c’est son contenu ‘Réaliste’. J’évoque une étonnante régression parce qu’effectivement pour justifier sa thèse de la gravité quantique, il lui faut imposer à priori la thèse du ‘Réalisme’. Logiquement, après un siècle de mécanique quantique, quitte à prendre en compte favorablement la thèse du ‘Réalisme’ il faudrait préalablement qu’elle ait fait fructifier des avancées scientifiques significatives qui la justifie (au moins quelques-unes indicatives). Ce qui n’a jamais été le cas, bien au contraire.

L’auteur n’a pas masqué son projet dans le titre. Il prétend que connaître la ‘réalité du monde physique’ est un projet définissable, et en plus déterminé par la Gravité Quantique. Selon lui, cette réalité n’est pas multiple, en fait, elle se réduit à ce que sont nos capacités de cogitation. On retrouve à nouveau cette conception que l’être humain est doué actuellement, a priori, de penser l’universel, dans sa totalité.

Ce qu’il y a de déroutant et donc profondément erroné dans le livre c’est de prétendre que l’essence de la mécanique quantique est de nous révéler qu’un système physique se manifeste toujours par la relation qu’il entretient avec les autres, et prétendre que la confrontation entre Einstein et Bohr pouvait se résumer ainsi, p.126 : « Einstein ne pouvait admettre l’aspect relationnel de la théorie, le fait que les choses se manifestent seulement dans les interactions. Bohr ne voulait pas céder sur la validité de la manière profondément nouvelle de la nouvelle théorie de concevoir le réel (sic). » Cette façon de dire les choses est dommageable parce qu’il est connu que Bohr n’a jamais eu ce projet de concevoir un quelconque réel, même sous une forme nouvelle, puisque selon lui, la mécanique quantique, étant donné les lois fondamentales qu’il a formulées, nous impose de renoncer à toute velléité de concevoir le réel. Avec Heisenberg, autre fondateur de la mécanique quantique de l’école de Copenhague, qui a toujours été confirmé, voire encore récemment[4], affirme que le postulat d’une réalité physique existant indépendamment de l’homme n’a pas de signification. Il affirme aussi que le seul but de la physique c’est de prévoir correctement les résultats expérimentaux. De même Bohr réfute l’idée « que le but de la physique soit de trouver comment est faite la nature » et propose qu’il soit accepté modestement que : « la physique est seulement concernée par ce que l’on peut dire sur la nature ».

Bohr a été franchement explicite lorsqu’il a été amené à considérer que : « La nécessité d’un renoncement final à l’idéal classique de causalité conduisait à une révision radicale de notre attitude sur le problème de la réalité. » Et in fine les idées de Heisenberg sur la possibilité de comprendre le monde, ont été exprimées très clairement : « Presque tous les progrès de la science ont été payés par un sacrifice, pour presque chaque nouvelle réalisation intellectuelle, les positions et les concepts antérieurs ont dû être révisés. Ainsi, d’une certaine façon, l’accroissement des connaissances a réduit la prétention du savant à comprendre la nature. » Pour lui la physique théorique était essentiellement une activité humaine dont le seul but était de prédire des résultats expérimentaux.  

Qui peut déclarer que tous ces propos cités sont obsolètes ? Comme on peut le constater, la dureté de la mécanique quantique c’est qu’elle dit au physicien : « Renoncez à vouloir représenter la Réalité ! »

Depuis Einstein, ceux qui ont tenté de rétablir ouvertement une conception réaliste de la physique (de J. Bell, à l’école actuelle italienne dite : ‘GRW’) ont échoué.

L’illusion ‘Réaliste’ de Rovelli, conduit à reléguer l’observateur a un rôle plutôt occasionnel, alors que la compréhension essentiel de la mécanique quantique réside dans le fait irrévocable qu’un phénomène physique quantique ne saurait être décrit sans son observation, et qu’un même objet (système) quantique peut avoir un apparaître différent suivant l’appareil de mesure choisi par l’observateur : c’est la thèse de la complémentarité[5]. Pour l’observateur, il n’y a pas d’objet, ni de système quantique, intelligible, en dehors de la façon dont il nous apparaît. En dehors de cette contrainte aucun discours scientifique sensé ne peut être tenu par le sujet pensant.

Je comprends la tentative d’évacuer le rôle éminent de l’observateur de la part de C. Rovelli à partir de la page 224, puisque nous ne devons pas oublier qu’une interaction d’observation est toujours une interaction d’un objet quantique avec un objet macroscopique et ce n’est pas cette interaction-là qu’évoque l’auteur : « Pourquoi la notion d’information est-elle utile, et peut-être même fondamentale pour comprendre le monde ? Pour une raison futile : elle mesure la possibilité des systèmes physiques de communiquer entre eux… p.228, toute la structure de la mécanique quantique peut être lue et comprise en termes d’information de la façon suivante. Un système physique se manifeste seulement et toujours en interagissant avec un autre. La description d’un système physique est donc toujours faite par rapport à un autre système physique, celui avec lequel le premier interagit. Toute description de l’état d’un système physique est donc toujours une description de l’information qu’un système physique a d’un autre système physique, c’est-à-dire de la corrélation entre les systèmes. Les mystères de la mécanique quantique deviennent moins épais si nous l’interprétons (sic) de cette façon, à savoir comme la description de l’information que les systèmes physiques ont l’un de l’autre… »

Grâce au concept d’information[6] dont chaque objet serait vecteur d’une information propre qui le caractériserait (à un instant donné), C. Rovelli envisage qu’il y ait une traçabilité de ces objets en dehors de la procédure standard de l’observation quantique. Il pense qu’il est possible de spéculer sur les corrélations entre les systèmes et à partir de là, il nous entraîne dans ce qu’il croit être la réalité quantique ou le monde quantique. C’est une extrapolation tentante et qui a déjà été tenté sans réussite jusqu’à présent. Son idée étant que nous vivons au-dessus d’un monde quantique et par exemple la gravité quantique serait la loi du dessous ou de l’avant du monde macroscopique de notre immédiateté.

La mécanique quantique est l’expression de notre rapport avec la nature aux échelles de plus en plus microscopique. Avec ces propriétés c’est la façon dont la nature nous apparaît à nous ‘sujet pensant’ irrémédiablement macroscopique, intellectuellement formatés par les concepts macroscopiques. La mécanique quantique est notre façon d’interpréter les propriétés de la nature lorsque nous l’auscultons avec des outils qui scrutent l’infiniment petit. Nous ne pouvons pas dire que la nature est ainsi à ces échelles, ce que nous pouvons dire c’est ainsi qu’elle nous apparaît étant donné ce que nous sommes. 

Page 127, l’auteur ramasse sa pensée et à mes yeux toutes les questions qu’il formule sont, à l’heure actuelle, toujours parfaitement appropriées : « Mon opinion est que nous devons accepter l’idée que la réalité n’est qu’interactions. Physiciens et philosophes continuent à s’interroger sur ce que signifie vraiment la théorie, et, ces dernières années, les articles et les colloques sur la question se sont multipliés. Qu’est-ce que la théorie des quanta, un siècle après sa naissance ? Une extraordinaire plongée en profondeur dans la nature de la réalité ? Une méprise, qui fonctionne par hasard ? Un morceau incomplet du puzzle ? Ou l’indice de quelque chose de profond que nous n’avons pas encore bien assimilé et qui concerne la structure du monde ?

L’interprétation de la mécanique quantique que j’ai présentée ici est celle qui me semble la moins irrationnelle. Elle est appelée « interprétation relationnelle »… »

Effectivement, après un siècle, la théorique quantique, nous bouscule, notre rationalité est mise à l’épreuve, notre capacité de prédiction est mise à mal. Toutes les exclamations : ‘Euréka, j’ai compris !’ n’ont été que feu de paille. Et pourtant que d’exploitations technologiques elle engendre avec succès ! L’intrication qui est une propriété si inattendue est déjà une source d’exploitation technologique.   

C. Rovelli nous rappelle que : « Physiciens et philosophes continuent à s’interroger sur ce que signifie vraiment la théorie, et, ces dernières années, les articles et les colloques sur la question se sont multipliés. » Les multiples réunions, around the world, des physiciens et des philosophes, pendant cette décennie, n’ont pas malheureusement dénoué les questions posées. Cette volonté de décloisonnement des connaissances et réflexions est pertinente. J’ai déjà, à plusieurs occasions, proposé de faire appel à d’autres domaines scientifiques, et proposé que des expériences d’observation (au moins une) soient réalisées avec des neuroscientifiques et avec la contribution de l’imagerie cérébrale (voir article du 27/08/2012). Ainsi, peut-être que la propriété de la complémentarité : apparaître ondulatoire ou apparaître corpusculaire à l’observateur pourrait être élucidé.    



[1] Geste que ni Poincaré, ni Lorentz, n’ont su anticiper, n’ont su penser, car ils raisonnaient, bien trop, en tant que mathématicien.

[2] En fait le concept d’observateur apparaît naturellement, sans explication, en 1936, dans un ouvrage commun écrit avec Infeld : L’évolution des idées en physique. On peut penser qu’à cette occasion, Infeld en personne a dû contribuer à combler ce déficit conceptuel.

[3] Voir article du 21/12/2011 : « L’être humain est-il nu de toute contribution lorsqu’il décrypte et met en évidence une loi de la Nature ? »

[4] Expérience de pensée d'Einstein-Bohr réalisée à l'échelle moléculaire, dont le résultat conforme au point de vue de Bohr a été publié début décembre 2014. Cette expérience réalisée est d’une très grande qualité et aucun doute ne peut être exprimé quant à la valeur de son résultat.

 

[5]Contrairement à la thèse du ‘Dualisme’, la thèse de la ‘Complémentarité’ exclut que l’objet quantique puisse être considéré comme de la somme de ses apparaîtres différents. Ainsi il est erroné de penser onde et particule. Ce qui est juste, c’est de penser onde ou particule, c’est selon les conditions de l’observation. Si l’on veut quand même additionner, il faut que dans cette addition soient intégrées les conditions d’observation.

[6] Jusqu’à présent, je considère que le concept d’information n’a aucune ‘signification intrinsèque originale’ qui puisse concerner la mécanique quantique et l’enrichir.

Partager cet article
Repost0
2 février 2015 1 02 /02 /février /2015 17:01

Période aride. Comment en sortir ?

Il convient de qualifier ainsi cette période pour ce qui est des résultats négatifs concernant l’astrophysique et la cosmologie. Le plus récent de ces résultats est du 31/01/2015, et c’est un article de l’ESA très attendu : “Planck: gravitational waves remain elusive. « Despite earlier reports of a possible detection, a joint analysis of data from ESA's Planck satellite and the ground-based BICEP2 and Keck Array experiments has found no conclusive evidence of primordial gravitational waves. » Traduisons simplement : “Planck : Les ondes gravitationnelles restent indétectables”. “En dépit de récents rapports d’une possible détection, une analyse commune de données du satellite Planck de l’ESA et des observations au sol (Pôle Sud) via : BICEP2 et Keck Array, aucune conclusion quant à l’évidence d’ondes gravitationnelles primordiales ne peut être prononcée. »

On peut dire que c’est de la faute de l’équipe de BICEP2 si nous sommes tenus d’enregistrer cette annonce négative. En effet très rapidement, une semaine ou deux après la publication en mars 2013 de la publication de détection des ondes gravitationnelles primordiales par l’équipe de BICEP2, des doutes fondés ont été exprimés quant à la validité scientifique de ce résultat[1]. Le manque de rigueur de l’équipe ainsi qu’une volonté de précipiter l’annonce d’un résultat étaient malheureusement perceptibles. S’il n’y avait pas eu cette publication parasite, Planck aurait pu publier, il y a plusieurs mois sur une dynamique prospective comme l’a indiqué A. Riazuelo de l’IAP : « Il n’existe pas de région du ciel qui, vue de la Terre, permettrait de s’affranchir de l’émission de poussière. Cela ne signifie pas que le signal de l’inflation est absent, seulement qu’il sera beaucoup moins facile à voir qu’on ne l’imaginait. »

Un autre domaine où l’aridité de la période se confirme c’est celui de la recherche de la matière noire. En effet le terme ‘aride’ convient car aucune trace de cette matière n’a pu être détectée jusqu’à présent. Pis encore, les quelques indices qui pouvaient entretenir une petite flamme d’espoir ont été balayés par des conclusions des observations de Planck. Depuis une trentaine d’années, avec une vingtaine de détecteurs sur la planète Terre, et cinq détecteurs spatiaux plus ou moins dédiés, il n’est pas possible de confirmer d’une façon probante la moindre détection de cette fameuse matière noire. (voir article précédent)

Pourtant dans le cadre du scénario du Big-Bang et avec la genèse de Notre univers qui en découle, la matière noire est strictement nécessaire. Dans le cours du Collège de France de F. Combes : janvier-février 2015, elle nous confirme dans la 4e séance : « La matière noire sauve la formation des galaxies. »

Est-ce qu’il est trop tôt pour considérer qu’il est temps de revoir la copie du modèle standard de la cosmologie ? Non ! Il est temps, d’autant que la théorie MOND qui est émancipée d’une quelconque nécessité de matière noire dans ses équations et donc compose uniquement avec la matière visible, cette théorie, que l’on peut qualifier d’effective, décrit et prédit de plus en plus de résultats qui sont en accord avec des observations. Ceci constitue pour la communauté des physiciens, qui réfléchissent sur le sujet, un signal très fort pour repenser les hypothèses qui prévalent au développement des recherches spécifiques. En effet, il faut considérer qu’hypothèses de la matière noire et théorie MOND sont antinomiques, et donc ensemble elles doivent être remises en cause.

Matière noire veut dire matière qui n’émet pas de lumière détectable : que nous ne sommes pas capables de détecter par nos moyens habituels. Il est étrange que tous les moyens que nous utilisons pour tenter de la voir impliquent que cette matière noire obéisse directement ou indirectement à E = mc2.

Nous devons nous émanciper de la contrainte, je dirais de la détermination d’une vitesse limite réelle de la lumière. Nous devons la considérer comme une vitesse horizon, définitivement non quantifiable dans notre système d’évaluation car dans notre monde, avec notre constitution, il est vain de lui attribuer une valeur de déplacement. J.M. Lachièze-Rey nous propose un raisonnement qui met le doigt sur une difficulté logique si on persiste à considérer que l’on peut connaître, étant donné ce que nous sommes, une valeur réelle de la vitesse de la lumière. In ‘Pour la Science’, novembre 2010, p.45, « Il existe une durée en un sens « plus valable » que les autres. Les équations de la relativité indiquent que dans notre exemple, plus le trajet d’un observateur est proche de celui du photon émis par l’étoile, plus la durée qu’il va mesurer est petite. D’une façon générale, l’observateur qui est lié à un processus et l’accompagne du début à la fin mesurera la durée la plus petite possible. Nommée « durée propre », on peut considérer que c’est la vraie durée du processus. Dans notre exemple, la durée propre du phénomène est celle que mesurerait le photon. Or la relativité indique que la durée propre d’un photon est…nulle. Cela n’est qu’une manifestation du fait qu’il voyage à la vitesse limite, celle de la lumière ; de façon générale c’est vrai pour toute particule de masse nulle. Ainsi la durée propre du trajet du photon, de son émission dans une galaxie lointaine à sa réception, est nulle. On aurait pourtant envie de dire que le trajet dure des milliards d’années. »

Notre condition d’être humain constitue un obstacle rédhibitoire pour mesurer, connaître, une vitesse effective de la lumière. Selon moi, la lumière qui est une donnée de la Nature que nous percevons, n’est pas vraiment caractérisable par une vitesse, sinon c’est une opération réductrice. En tant que vitesse horizon, nous pouvons l’appréhender, sans la connaître in-fine, puisque notre existence ne peut être qu’en deçà. Nous devons postuler qu’il y a, au-delà de notre conception actuelle de la lumière qui nous détermine, du Monde-univers, des Mondes-univers, que nous devrions pouvoir investir en prenant en compte les raisons qui nous amènent à cette période aride. 

Je conçois aisément que certains lecteurs de l’article pensent que face aux sérieux obstacles présents, je me réfugie dans une prospective métaphysique. Dans une certaine mesure cela est juste, mais selon mon point de vue cela n’est pas une régression de la réflexion car si on analyse l’histoire du développement de la pensée scientifique, on peut se rendre compte qu’une pensée prospective métaphysique peut constituer une sorte d’état chrysalide préalable à une pensée scientifique qui prend par la suite son envol dans le monde de la pensée scientifique.

N.B. L’occasion est très favorable pour préciser la spécificité de ma conviction, lorsque j’affirme que nous faisons de la physique ‘en ‘Présence’’, qui est celle du ‘sujet pensant’ et qui est inexpugnable. En effet, j’adhère sans réserve au raisonnement exposé de J.M. Lachièze-Rey (et je le remercie de m’offrir ce raisonnement) et là où il arrête son raisonnement : « On aurait pourtant envie de dire… », je prends le relais. En effet dans ma conception de l’émergence de la connaissance en physique, en tenant compte de notre existence inexpugnable en deçà du fond céleste de la lumière, et considérant ce que nous sommes, notre sagacité devrait pouvoir concevoir l’au-delà du fond apparent de la lumière. Il serait intéressant de savoir pourquoi Lachièze-Rey qui place l’observateur dans le processus : « D’une façon générale, l’observateur qui est lié à un processus et l’accompagne du début à la fin mesurera la durée la plus petite possible. », l’élimine totalement ensuite dans sa réflexion quand il prononce : « Cela n’est qu’une manifestation du fait qu’il voyage à la vitesse limite, celle de la lumière. »



[1] Voir mon article du 23/04/2014 : ‘Doute sur la publication du 17/03/2014.’

Partager cet article
Repost0
29 janvier 2015 4 29 /01 /janvier /2015 16:56

                          Bilan de la recherche de la matière noire.

Tout savoir sur l’Univers est inaccessible pour le ‘sujet pensant’ car le ‘Tout’ de l’univers est infini. Ainsi le sujet pensant sera toujours en quête… en mouvement.

Au tout début des années 1980, lorsqu’il s’avéra évident que la dynamique : des galaxies, des amas de galaxies, et plus généralement des structures recensées dans Notre univers, ne pouvait pas être rendue compte correctement en ne considérant que la matière identifiée c’est-à-dire la matière baryonique, le problème de la masse manquante s’est posé. Assez rapidement cette hypothèse de ‘masse manquante’ fut qualifiée : hypothèse de la matière noire.

 Astrophysiciens, cosmologistes, ont tout de go considérés qu’ils devaient résoudre cette problématique d’une façon globale, universelle, conformément à leur assurance que la vraie science fondamentale, la bonne science, est celle qui fournit des réponses complètes, invariantes, à ce genre de questionnement nouveau. Ils ont entrepris de lever cet énigme en ne tenant compte que des connaissances canoniques à cette époque et toujours dominantes aujourd’hui. Ils raisonnent sur la base d’un univers fermé (que je désigne comme : Notre univers), d’une genèse de cet univers sur la base d’un Big-Bang, comme si cette hypothèse de matière noire ne pouvait pas battre en brèche ces certitudes canoniques.

Fin 2014, début 2015, aucun indice tangible de cette fameuse matière noire n’a été mis en lumière. La situation est extrêmement anarchique car les proclamations des indices de matière noire varient, selon les équipes de recherche de quelques meV (tel l’axion) à 1012 eV (tel un WIMP comme le neutralino), en passant par le neutrino stérile à 7.1 keV et autres WIMPs de plusieurs GeV. Ces propositions dans cette très large gamme de masse proviennent d’instruments de détection dans l’espace dédiés ou pas à la recherche de la matière noire (XMM-Newton, PAMELA, CHANDRA, Fermi Space Télescope, AMS-02). Plus déroutant encore, un grand nombre de publications très récentes (en 2014), pour justifier leurs résultats et leurs annonces, s’appuient sur une phénoménologie qui semblerait interdite, consistant à privilégier la propriété d’annihilation entre les particules de matière noire (matière et antimatière). ‘J’indique qui semblerait interdite’ car dès 2013 les premiers résultats publiés par l’équipe de ‘Planck’, et les plus récents de novembre 2014, affirme qu’il n’y a pas eu d’annihilation de matière noire dans l’univers primordial car, dans le cas contraire, il y aurait eu un excès d’énergie de radiation qui aurait laissé son empreinte dans le rayonnement fossile très précisément analysé. Or le bilan est : pas d’annihilation dans les temps primordiaux, donc pas d’annihilation après. Ou alors il faudrait expliquer pourquoi cette propriété puisse apparaître après coup. Cette perspective est très peu probable, et peu cohérente. On doit donc s’interroger sur cette persistance à concevoir l’annihilation de composants de la matière noire.

Ainsi l’article de l’ESA-Planck du 04/12/2014 précise : « Nos nouveaux résultats sont encore plus intéressants quand on les compare avec les mesures réalisées par d’autres instruments. Les satellites Fermi et Pamela, tout aussi bien que l’expérience AMS-02 au sein de l’ISS, ont observé un excès de rayons cosmiques, qui pourrait être interprété comme la conséquence de l’annihilation de matière noire. Etant donné les observations réalisés par Planck, une explication alternative pour AMS-02 et les mesures sur Fermi – comme des radiations de Pulsars non encore identifiés – doivent être considérées, si on fait l’hypothèse raisonnable que les propriétés des particules de matière noire sont stables dans le temps. »

Pour être complet, il faut préciser que Planck exclut aussi l’hypothèse d’une 4e famille de neutrinos donc exclut l’hypothèse du neutrino stérile.

Aucun de ces détecteurs spatiaux n’est spécifiquement configuré pour détecter directement la matière noire. Les équipes qui décryptent les signaux sur ces détecteurs sont contraints de considérer que ces signaux résultent des produits de la cascade du processus d’annihilation, par exemple des rayons ϒ en ce qui concerne le Fermi Space Télescope, des rayons X en ce qui concerne XMM-Newton, des flux d’antimatière (rayons cosmiques, essentiellement des positrons) en ce qui concerne AMS, etc… On devrait s’étonner que, selon les physiciens, cette matière exotique s’annihile en produisant obligatoirement des produits standards. De même, il est possible de lire, dans des articles : « Although still elusive in particle-physics experiments, dark matter is a reality for astronomers. » : «Bien que toujours insaisissable dans les expériences de physique des particules, la matière noire est une réalité pour les astronomes.» Sans être provocant on doit s’étonner de l’absence de recul intellectuel de la part de ces astrophysiciens et astronomes. En effet considérer par la force des choses que la matière noire est une matière exotique, mais la faire rentrer immédiatement dans le tuyau de la phénoménologie de la matière standard dès qu’on conçoit son annihilation[1]ou bien considérer qu’on en a tellement besoin dans notre conception du cosmos et de sa genèse qu’on postule sa réalité, on est loin d’une démarche scientifique. L’impatience de résoudre des énigmes persistantes en court-circuitant le raisonnement et la rigueur scientifiques ne peut mener qu’à une succession d’impasses.

Sans vouloir dramatiser outre mesure, j’ai perçu que nous atteignîmes l’Impasse, avec un ‘I’ majuscule, le 1er Novembre 2013, lorsqu’il fut annoncé qu’aucun indice de détection directe de matière noire n’a été relevé au sein du détecteur : LUX. Or tous les atouts sont réunis à propos de ce détecteur, (Large Underground Xenon Experiment, situé dans une mine désaffectée dans le Dakota), atouts technologiques qui autorisent d’évaluer d’un facteur 100, par rapport aux meilleurs détecteurs actuels, l’amélioration de sa sensibilité, et aussi atouts de compétences humaines car l’équipe dédiée à LUX est considérée comme l’une des plus pointues dans ce domaine. On peut considérer qu’il y a, depuis plus de dix ans, sur la planète terre, une bonne dizaine de détecteurs configurés pour relever des traces de passages de particules de matière noire. Même s’ils sont moins sensibles que LUX, l’accumulation de résultats non significatifs doit être prise en compte. Il pourrait y avoir une exception avec les détecteurs Cogent et Dama, mais l’interprétation des résultats ne fait pas l’unanimité, loin s’en faut : il vaut mieux s’en tenir là.

En 1983, une autre démarche, très solitaire, pragmatique, a été empruntée par le scientifique : Moti Milgrom. Il a proposé de modifier la loi de Newton pour rendre compte d’une façon pragmatique de la dynamique observée des galaxies et autres structures de Notre univers (cela conduit à la théorie MOND : MOdified Newtonian Dynamics). Autant dire que ce pragmatisme iconoclaste fut spontanément rejeté par la communauté scientifique. Il a fallu beaucoup de témérité de la part de Milgrom pour qu’il soit entendu plutôt que occulté. En fait, on a commencé à exprimer de l’intérêt pour MOND, lorsqu’il y eut une conjonction remarquable entre la loi de Tully-Fischer et les travaux de Milgrom. La loi de Tully-Fischer (découverte en 1977, par les deux astronomes américains Tully et Fischer), obtenue par les moyens d’observations, montre une corrélation très significative entre la masse d’une galaxie et sa vitesse de rotation. Ce résultat est contenu dans la théorie MOND et cela permet d’attribuer à cette théorie une valeur prédictive à ce niveau donc elle acquiert un statut nouveau. Après coup et plus récemment la théorie MOND s’est avérée plus précise que l’hypothèse courante de la matière noire pour rendre compte de la dynamique des ‘galaxies naines’ qui sont au voisinage de la Voie Lactée et d’Andromède, par exemple.

En conséquence il n’est plus souhaitable de sous-estimer l’intérêt que représentent les travaux de Milgrom sur plus de 30 ans qui précisons-le ne résolvent pas toutes les questions relatives à la dynamique des structures de Notre univers, mais les adéquations croissantes, significatives, obtenues le sont sans qu’il soit fait appel à l’existence de matière noire dans l’univers. Malgré cela, que devons-nous penser de ce que nous dit F. R. Bouchet[2], cosmologue à l’Institut d’Astrophysique de Paris, directeur de recherche : «En dépit de ce succès, l’immense majorité des cosmologues a préféré accepter l’existence de matière noire en grande quantité plutôt que d’abandonner un cadre conceptuel qui a fait ses preuves, au profit d’une modification ad hoc. Il pourrait s’avérer que MOND soit une théorie effective, limite de basse énergie d’une théorie plus fondamentale, mais cela nous laisse alors sans cadre théorique bien défini, en dépit de nombreuses tentatives. Il devient alors difficile de progresser, puisqu’il est dès lors impossible de vérifier si l’alternative est capable de reproduire les succès bien réels de la cosmologie relativiste, même s’ils sont obtenus au prix de révisions de nos idées sur ce qu’est le contenu « naturel » de l’Univers. En bref, même sans trop d’a priori, il semble que, pour aller de l’avant, le plus prometteur soit de chercher d’autres indications de la matière sombre, en ignorant cette tentation de MOND. »

Ecrit il y 10 ans ce paragraphe indique d’une façon remarquable le dilemme dans lequel les cosmologistes sont pris dans une sorte de houle intellectuelle. Il serait intéressant de savoir si F. Bouchet continue de considérer la théorie MOND comme purement effective. De même, il serait intéressant qu’il  nous dise, s’il considère toujours, après ces 10 dernières années de recherche infructueuse de matière noire, « Pour aller de l’avant, le plus prometteur soit de chercher d’autres indications de la matière sombre, en ignorant cette tentation de MOND. » Je ne crois pas extrapoler abusivement les propos de Bouchet en disant qu’en fait il retient l’hypothèse de la matière noire par défaut. Combien de temps est-ce souhaitable, est-ce que ce n’est pas aveuglant sur le plan intellectuel et aussi contraire à la curiosité scientifique ouverte ?

Depuis que F. Bouchet a écrit : « Il devient alors difficile de progresser, puisqu’il est dès lors impossible de vérifier si l’alternative est capable de reproduire les succès bien réels de la cosmologie relativiste… », il semblerait que les choses aient changé puisque dans le NewScientist du 03/May 2014, M. Milgrom affirme « Après bien des efforts jusqu’en 2004, J. Bekenstein avec B. Sanders, en s’appuyant sur la théorie TeVeS, ils obtinrent de décrire la gravité avec trois champs et ainsi ils ont obtenu que MOND soit compatible avec la relativité d’Einstein. » Est-ce que cette compatibilité avec la relativité d’Einstein est en mesure de réduire la prévention de Bouchet ? Ou bien cela confirmerait sa prévention que MOND n’est qu’une théorie effective ?

Il y a un domaine sur lequel MOND est muet c’est évidemment sur la formation des puits de potentiel si nécessaires dès les premières secondes de la genèse de Notre univers afin que la matière baryonique s’y précipite pour former les grumeaux primordiaux de matière qui sont à l’origine des structures de l’univers. Jusqu’à présent, la thèse du Big-Bang a besoin de ce scénario puisque les fluctuations relevées du rayonnement fossile sont de 10-5 à 10-6 °K

Au-delà des problèmes de la détection de constituants de matière noire sur lesquels je me concentre dans cet article, il est nécessaire de signaler les désaccords très significatifs entre les résultats des observations et ceux résultants de la simulation. Citons[3]le désaccord de la densité de matière noire observée avec celle simulée lorsqu’on fait une évaluation de cette densité au plus près du centre des galaxies (désigné comme problème des cuspides, prédites dans les simulations, alors que des cœurs sont observés.) Autre désaccord : il concerne, avec l’hypothèse de la matière noire, la prédiction de 500 galaxies naines autour de la Voie Lactée alors que nous atteignons à peine une trentaine observées.

Wimp, axions, neutrinos ? Détecteurs enterrés, accélérateurs de particules, observatoires spatiaux ? « Je ne sais pas d’où viendra la lumière, mais le bout du tunnel est proche », nous dit Emilian Dudas de l’Ecole polytechnique dans une interview très récent, son collègue Pierre Salati (Université de Savoie) assure que : « Si rien ne vient, il nous restera à réexaminer les lois de la physique. »

Au début des années 1980, c’était une démarche ‘raisonnable’ que de vouloir insérer l’hypothèse de la matière noire dans le cadre des connaissances canoniques qui prévalaient à cette époque à propos de notre connaissance rassemblée pour concevoir ce que l’on appelle l’univers, accompagné de sa genèse. Etant donné qu’avec cette hypothèse nous n’avons pas progressé d’un iota, il est temps de se s’interroger sur le fait que : soit l’hypothèse n’est pas judicieuse, soit le cadre des connaissances canoniques est incorrecte, soit encore d’une façon plus dramatique nous devons simultanément reconsidérer ces deux socles de connaissances et d’hypothèses. Les succès croissants de la théorie MOND nous y obligent d’une façon objective sans devoir considérer que cette théorie est la ‘bonne’, loin s’en faut.

Et si cette hypothèse de matière noire nous signalait que notre conception de l’univers était erronée, en tous les cas provisoire ? Dans le sens où ce que nous désignons actuellement comme l’Univers n’est rien d’autre que l’univers de nos connaissances actuelles et qu’il faut franchir maintenant un cap de connaissances nouvelles pour résoudre les problèmes posées depuis les années 80. Par exemple, ne plus penser en terme d’un univers borné, déterminé, par la vitesse de la lumière, ne plus considérer que le Big-Bang est un paradigme valable. Mais penser à un univers qui engloberait un champ plus riche de connaissances, qui n’obligerait pas à réexaminer les lois de la physique présentement acceptées comme l’imagine Pierre Salati mais à accepter leur validité locale, provisoire, pas vraiment universelle. (Notre univers n’aurait que la valeur d’un univers local). Bref il faudrait aller au-delà. Dans cet au-delà de connaissances (que nous devons nous approprier) le problème lié à l’hypothèse de l’énergie sombre devrait certainement avoir aussi une explication.  



[1] Qui plus est, ne jamais prendre en considération, dans ce cas, que la quantité de matière noire diminue dans notre univers et qu’ainsi un effet gravitationnel général va en diminuant, laisse perplexe.

[2] In ‘Einstein, aujourd’hui’, p.361, Edit. CNRS Editions, 2005.

[3] Voir livre de F. Combes : ‘Mystères de la formation des galaxies – vers une nouvelle physique ?’, édit. UniverSciences, 2008. P. 150-158. Voir aussi cours de F. Combes, Collège de France : janvier-février 2015.

Partager cet article
Repost0
3 janvier 2015 6 03 /01 /janvier /2015 09:47

Pourquoi cette inertie ?

Sur le Blog : ‘Philoscience’, à la date du 13/12/2014, J.P. Baquiast produit un article, ‘L’Univers est-il unique ? Ou non ? Et notre cerveau, quel est-il ?’, visant dans un premier temps à analyser des ouvrages récents et attrayants, écrits par : Aurélien Barrau, ‘Des univers multiples. A l’aube d’une nouvelle cosmologie’ ; Carlo Rovelli, ‘Et si le temps n’existait pas.’ ; Roberto Unger et Lee Smolin, ‘The Singular Universe and the Reality of Time’.

Voilà des auteurs que nous connaissons bien et dont le travail scientifique nous est familier. Ce qui m’intéresse, en particulier, c’est l’étonnement de J. P. Baquiast qui est exprimé par la longue citation suivante :

« Or nous avions dans des articles précédents fait remarquer que ces physiciens ne semblent pas encore, tout au moins dans leur grande majorité, tenter de mieux comprendre les limites de la capacité du cerveau humain à traiter de tels problèmes, cerveau s'exprimant au niveau de l'individu comme au plan global des communautés de chercheurs. Autant ils cherchent à perfectionner, grâce à l'expérimentation, les capacités de traitement des données sensorielles par le cerveau, autant ils ne semblent pas s'intéresser aux capacités de ce que l'on appellera pour simplifier le cerveau associatif, qu'il soit individuel ou collectif.

Il s'agit pourtant du premier instrument à prendre en considération, lorsqu'il s'agit, non pas seulement d'imaginer des hypothèses, mais de tenir compte d'une façon cohérente et communicable sur le mode langagier de toutes les données fournies par les sens et utilisées dans la mise à l'épreuve de ces hypothèses. Autrement dit, le perfectionnement des capacités du cerveau, qui est l'instrument essentiel dont se servent les scientifiques, ne semble pas préoccuper les cosmologistes.

Cela tient indiscutablement à des raisons culturelles, spécialisation des connaissances et manque d'interdisciplinarité. Le Pr MacFadden, auquel nous avons donné la parole dans un précédent article, déplore que les biologistes et les neurologues n'aient pas suffisamment de compétences relatives à la physique quantique pour détecter des phénomènes biologiques ou cérébraux dans lesquels interviennent des q.bits.

Il en est de même, et sur le mode inverse, des physiciens quantiques et des cosmologistes. Ils n'ont certainement pas assez de compétences fines sur le fonctionnement en profondeur des neurones, du cortex associatif et des grands modèles cognitifs collectifs à base de traitements neuronaux, pour mesurer les limites de ces « instruments biologiques de la cosmologie » et suggérer des améliorations.

Une hypothèse pessimiste serait qu'ils ne le pourront jamais, tant du moins que le cerveau restera lié à des bases biologiques qui sont à la fois mal connues, sinon inconnaissables, et non susceptibles d'amélioration car trop liées à l'organisation génétique et aux structures sociales propres à l'animal humain. »

De mon point de vue, beaucoup d’expressions de Baquiast sont maladroites et bien évidemment il ne faut pas poser le problème de la façon dont cela est proposé. Ainsi, il n’est pas sans risque d’isoler le cerveau comme s’il était une île. Je préfère prendre en compte le ‘Sujet Pensant’ dans son intégrité en ne perdant pas de vue le fait, certes, que le siège de la cogitation donc de la pensée est entre autre le cerveau et qu’il est possible maintenant d’associer à une dynamique d’organisation et de fonctionnement du cerveau une dynamique de production de pensées. Mais pas plus ! Les propos rapportés, de MacFadden, fleurent bon le mécanisme d’antan sous couvert d’un vocabulaire des temps modernes et à coup sûr ils ne peuvent pas constituer une voie de progrès de la connaissance pour l’être humain.

Ainsi l’expression de l’auteur : « … tenter de mieux comprendre les limites de la capacité du cerveau humain à traiter de tels problèmes » laisse pointer l’idée qu’actuellement nous sommes les représentants d’une humanité aboutie, qui n’évoluera plus et qui doit présentement considérer les ‘limites’de la capacité de son cerveau comme définitivement établies. Aveuglement ! Orgueil mal placé ! Certes du point de vue du physicien on pourrait considérer que la problématique des limites, de la capacité du cerveau, s’imposent car depuis plusieurs décennies nous sommes confrontés à des apories dans le domaine de la physique théorique fondamentale qui obstruent le développement cohérent et fertile de la pensée scientifique. Oui, notre entendement collectif ne peut percevoir d’autres horizons que ceux qui nous mènent aux incompatibilités, aux impasses  actuelles. Oui, il faut qu’émergent de nouveaux paradigmes pour que notre entendement collectif reprenne une marche vers l’avant à la conquête de nouveaux domaines de compréhension des lois de la nature. Nature, plus ample (voir le livre de A. Barrau), plus diverse, que ce que nos facultés de compréhension ont pu révéler jusqu’à présent à ce stade de notre évolution. Nature qui se trouve être présentement bornée par ce que nous désignons ‘Notre univers’.

Remettons les choses à leur place, les capacités de notre cerveau ne sont pas en cause, (on perçoit, là, les risques d’une conception instrumentale du cerveau), c’est dans le cadre de l’histoire de la production de la pensée scientifique du ‘sujet pensant’ qu’il faut comprendre la stagnation actuelle. Lorsque ces nouveaux paradigmes (peut-être déjà partiellement formulés) seront acceptés et intégrés dans le patrimoine de notre entendement scientifique collectif, alors bien sûr on aura l’impression d’avoir brisé des limites. Mais avec cette considération nous serons dans l’ordre d’une subjectivité bien placée. Il se peut que corrélativement à cette nouvelle situation de nouvelles connexions se soient établies dans notre cerveau, que notre base de données mémorielle se soit enrichie, mais l’auteur de cette progression c’est l’être humain pensant dans son intégralité qui doit être considéré comme toujours en devenir. Ce seront les facultés intellectuelles de dépassement qui auront été à l’œuvre.

Parmi ces nouveaux paradigmes qui peuvent être opératoires, j’ai évoqué les suivants dans un article, le 5/11/2014, et dans le titre : ‘l’espace et le temps ne sont pas donnés dans la nature, la lumière l’est.’ En ce qui concerne plus spécifiquement le temps : Carlo Rovelli maintient qu’au plan fondamental le temps n’existe pas, par contre c’est une donnée émergente. Au contraire, Lee Smolin a la conviction que le temps est donné dans la nature, il est une réalité de notre univers. Mon point de vue est que le temps est fondé par le sujet pensant, il est le corollaire de sa ‘Présence’.

On peut à juste titre considérer qu’il y a un accord partiel entre mon point de vue et celui de C. Rovelli, car fondamentalement il n’y a pas de temps, c’est pourquoi j’évoque régulièrement : « Au sein d’une éternité, parmi tous les possibles, l’anthrôpos creuse… », et c’est la ‘Présence’ d’une intelligence émergente qui fonde le temps pour qu’un ‘Logos’ sur la Nature puisse se développer. Et je considère que cette inhérence est indestructible. Rovelli, lui, considère que l’émergence d’une ‘impression du temps résulte d’un processus physique, c’est la thermodynamique qui est en jeu et plus spécifiquement l’évolution thermodynamique irréversible du fond diffus cosmologique.

D’un autre côté Lee Smolin a concomitamment affirmé sa réalité du temps en précisant dernièrement avec force dans : ‘Pour une renaissance du temps’, qu’il est essentiel de prendre en compte ‘toujours un moment présent’, à ce sujet voir mon article du 02/05/2013 : ‘Bienvenu au ‘Moment Présent’ de Lee Smolin’. En effet, Smolin est fortement convaincu de la nécessité de prendre en compte cette nouvelle donnée, précisant en même temps que ni le langage, ni les concepts mathématiques ne peuvent saisir la substance profonde de ce ‘moment présent’. Pour autant, dans le cadre de sa nouvelle certitude, il n’a pas encore mené une analyse critique pertinente de la conception Einsteinienne de l’espace et du temps, pourtant nécessaire, s’il veut avancer.

En résumé au sujet du temps, l’hypothèse de TpS (τs) = de l’ordre 10-25s (point aveugle de l’intelligence humaine et tic-tac primordial de la temporalisation du temps), que je formule depuis une dizaine d’années, y compris de ce qui s’en déduit de sa fondation par ‘l’être pensant’, pourrait constituer le juste milieu du point de vue de C. Rovelli, (émergence, mais source distincte) et de celui de L. Smolin, (effectivité du temps incontournable, mais pour moi pas de réalité naturelle, ‘moment présent’, mais pour moi quantifiable et quantifié). Voilà donc un paradigme qui pourrait prendre corps et s’installer dans le paysage de la pensée scientifique. A propos de l’espace, corrélativement, une synthèse est aussi évidemment plausible.

A propos de cette synthèse, maintenant identifions les obstacles. Le physicien est un intellectuel qui est convaincu d’accéder à une connaissance objective c’est-à-dire qu’il est compétent pour saisir d’une façon ou d’une autre la réalité, telle qu’elle est, des objets qui lui sont extérieurs. Le physicien, conçoit la puissance de sa pensée sur la conviction que de ces objets se trouve expurgée la moindre trace de l’action du sujet pensant pour se les approprier. E. Kant a relativisé cette capacité, mais fondamentalement ne l’a pas contrariée. D. Hume a suggéré un aveuglement empirique. A. Einstein a promu quasiment à son acmé l’affirmation de l’intellectuel universel sur le monde réel. N. Bohr et W. Heisenberg ont souvent démontré avec succès qu’il fallait temporiser ce réalisme acharné (voir encore l’article du 13/12/2014). Mais cette conception est profondément ancré : l’homme est un être émancipé de toutes contraintes de la nature, c’est pourquoi, il ne peut être que doué d’un regard absolument objectif, confirmé par la démonstration d’un regard invariant. Affirmer qu’il ne peut avoir qu’un regard intelligent déterminé par des capacités actuelles qui lui seraient propres, est inconcevable, c’est faire trébucher la croyance profonde du physicien de son piédestal. Affirmer que le physicien ne peut présentement discerner que ce qui est supportable par ses facultés intellectuelles et son entendement toujours en évolution, est antinomique (toutefois il faut reconnaître que A. Barrau entrouvre une porte). Voilà pourquoi, dans les extraordinaires joutes intellectuelles qui ont opposé A. Einstein et N. Bohr, les préalables réalistes d’Einstein n’ont jamais été sérieusement rejetés par la communauté des physiciens (de l’époque et actuelle) alors que N. Bohr a toujours apporté la preuve de leurs faussetés. Voilà pourquoi, par exemple, est continument entretenue la confusion d’une conception dualiste avec celle d’une conception propre à la complémentarité car il ne faut pas laisser entrevoir que cela pourrait être une détermination du sujet pensant qui fait que nous détections un objet sous son aspect ponctuel plutôt que sous son aspect ondulatoire et vice versa. Le ‘et’ dualiste est donc préventif pour les réalistes. L’inertie intellectuelle des réalistes est toujours à l’œuvre

Partager cet article
Repost0
13 décembre 2014 6 13 /12 /décembre /2014 14:04

Les 2 sites : Techno Sciences (le 2/12) et Futura Sciences (le 13/12) relatent avec plus ou moins de bonheur les résultats effectifs d’une expérience de pensée, datant de 1927, proposée par les tenants d’une interprétation radicalement opposée des ‘lois’ premières de la mécanique quantique. Une fois de plus, d’entre A. Einstein et N. Bohr, c’est l’interprétation de Bohr (dite de Copenhague) qui est juste.

On remarquera que les 2 auteurs des articles perpétuent une mésinterprétation de la conception de Bohr. En effet chacun d’eux argumentent sur la validité explicite ou implicite de la dualité onde-corpuscule sans la réfuter. Ce que justement N. Bohr a toujours réfuté, préférant cliver et considérer la complémentarité : « Les résultats obtenus dans des conditions expérimentales différentes ne peuvent être englobés en une seule représentation, mais doivent être considérés comme complémentaires (sic) en ce sens que, seule, la totalité des phénomènes épuise l’information possible sur les objets ». En résumé il n’y a pas simultanément : onde et corpuscule, comme le considère le dualisme onde-corpuscule (dont l’auteur est De Broglie) mais il est plus juste de considérer qu’il y a : onde ou corpuscule, la différence entre l’interprétation ondulatoire ou bien l’interprétation corpusculaire est directement corrélée à l’instrument de mesure. A ce moment-là, il faut continuer le raisonnement car : qui dit instrument de mesure, dit observateur. Fondamentalement l’interprétation de Copenhague pense toute la phénoménologie de la mécanique quantique en attribuant un rôle déterminant à l’observateur, à sa ‘Présence’. Non pas à sa petite ‘présence’ comme le préconise superficiellement les ‘Qubistes’ mais à sa grande. Voir mon article du 27/05/2014.

Enfin, ces articles que vous pouvez consulter sur les deux sites respectifs aux dates indiqués avec leurs titres, m’amènent à rappeler que l’expérience que je propose et que je rappelle dans l’article du 22/11 en page 4 est vraiment d’actualité sous réserve que l’imagerie cérébrale a atteint maintenant un bon degré de maturité pour la mettre en œuvre.

 

Physique

Posté par Isabelle le Mardi 02/12/2014 à 00:00

Expérience de pensée d'Einstein Bohr réalisée à l'échelle moléculaire

Dualité onde-corpuscule  Einstein  Bohr 


 

 

 

L'expérience d'Einstein-Bohr confirme la théorie quantique

 

En 1927, Einstein avait lancé un défi à l’interprétation orthodoxe de la mécanique quantique construite par Niels Bohr et Werner Heisenberg. L’expérience de pensée qu’il avait proposée a finalement été réalisée avec des molécules soumises aux rayons X disponibles au synchrotron Soleil. Elle confirme que la réponse donnée à l’époque par Niels Bohr était correcte, fournissant une nouvelle preuve de la cohérence de la mécanique quantique.

 

Le 12/12/2014 à 15:40 - Par Laurent Sacco, Futura-Sciences

 

 

 

Partager cet article
Repost0
22 novembre 2014 6 22 /11 /novembre /2014 05:41

Intrication

Au début du mois de Novembre ce fut l’occasion de célébrer les 50 ans de la découverte théorique de John Stewart Bell adepte d’une interprétation ‘Réaliste’ de la mécanique quantique comme A. Einstein. En effet le 4 novembre 1964, le journal ‘Physics’ recevait un article qui allait faire date dans l’histoire de la physique quantique.

Les idées de Bell ont été mises en pratique par Alain Aspect et ses collègues au moyen d’une expérience conduite à l’université d’Orsay en 1982. Les résultats de cette expérience ont eu un retentissement mondial (violation des inégalités de Bell). L’interprétation des fondateurs de la mécanique quantique, c’est-à-dire de l’’Ecole de Copenhague’, en est sortie renforcée. Depuis elle continue d’être justifiée et la croyance téméraire d’A. Einstein qui s’opposa sans relâche à cette interprétation en puisant ses idées dans une conception ‘Réaliste’ radicale du monde est battue en brèche.

Depuis les résultats d’A. Aspect, l'intrication quantique s’est largement imposée dans le paysage scientifique avec ses propriétés mais aussi, il faut bien le dire, elle véhicule dans son sillage un ensemble de questions qui sont autant de sujets de controverse, et qui ne risquent pas d’être résolus de sitôt, puisqu’aucune explication au sens classique du terme ne peut être proposée et ce n’est qu’au prix de ce renoncement que le phénomène de l’intrication doit être entendu[1]. Celui-ci met en évidence un champ nouveau d'applications potentielles dans les domaines de l'information quantique, tels que la cryptographie quantique, la téléportation quantique ou l'ordinateur quantique. Dans les domaines cités des exploitations technologiques banalisées sont déjà à l’œuvre notamment en cryptographie.

Tout récemment, début septembre, plusieurs articles ont révélé un résultat que l’on peut qualifier d’’imagerie quantique’[2]. Grâce aux propriétés de l’intrication on forme des images d’objets dans une bande de longueurs d’onde donnée bien qu'il n’existe pas d’instruments permettant de prendre réellement une photo de ces objets. Les physiciens pensent que cette technique d’imagerie quantique avec intrication de photons permettra d’avoir un jour des applications en biologie et en médecine.

Plus récemment encore le 11/11 un article annonce : ‘Intrication quantique : la conjecture de Peres est fausse’[3]. Conjecture qui aurait (eu) un impact en téléportation quantique. Cela nous dit que nous sommes dans un domaine de la physique fondamentale théorique qui n’est pas encore stabilisé.

D’autant moins stabilisé que l’interprétation de Copenhague, qui n’a jamais été mise en porte à faux, est toujours contestée explicitement ou implicitement. La dernière tentative explicite apparaît dans un article du 05/11, sur le site du ‘NewScientist[4] : « Des univers fantômes tuent le chat quantique de Schrödinger », relatant les cogitations de Howard Wiseman de l’Université de Griffith en Australie. Le leitmotiv de ce théoricien c’est qu’ « il n’est pas possible de penser la fonction d’onde comme une chose réelle (sic) ». Alors il pense que des univers fantômes sont présents, là, partageant avec Notre univers le même espace, chacun d’entre eux (un très grand nombre, mais un nombre fini) étant régi par les lois physiques classiques newtoniennes. Ces différents univers se bousculent et en conséquence dans Notre univers les propriétés quantiques apparaissent. Toutefois il y a un sérieux bémol, car avec cette vue de l’esprit il n’y a pas la possibilité d’expliquer l’intrication, mais… « Cela pourrait marcher si ces univers étaient en nombre infini. (sic) »

Rappelons-nous, et c’est essentiel, que les fondateurs de la mécanique quantique n’ont jamais prétendu que la fonction d’onde était quelque chose de réel, ni qu’elle représentait une réalité du monde physique investi par le physicien. D’ailleurs, c’est ce qu’on leur reprochait comme le relate W. Heisenberg au cours d’un entretien avec A. Einstein en 1925 : « Il me semble, me mit en garde Einstein, que votre pensée s’oriente maintenant dans une direction très dangereuse. Car tout d’un coup, vous vous mettez à parler de ce que l’on sait de la nature, et non pas de ce qu’elle fait effectivement. Mais dans les sciences, il ne peut s’agir que de mettre en évidence ce que la nature fait effectivement. » Certainement, Einstein avec beaucoup d’autres n’a jamais pu accepter que la fonction d’onde ne représente que le savoir que l’on a de l’état d’un système quantique et pas plus. A Côme, en septembre 1927, lors d’une conférence très pédagogique, N. Bohr a expliqué que les expériences et les mesures sont nécessairement faites avec des appareils de dimensions macroscopiques[5], en conséquence les observations des phénomènes atomiques et subatomiques entraînent une interaction avec l’instrument d’observation qui ne peut être négligée. « On ne peut par conséquent attribuer une réalité indépendante, au sens physique ordinaire de ce mot, ni aux phénomènes ni aux instruments d’observation. » La réalité physique est ramenée à nos rapports opérationnels avec elle, au-delà de laquelle la science n’a plus rien à connaître. Dans sa formulation même, la théorie quantique ne dit pas comment le monde est, mais comment il répond aux sollicitations. Les concepts physiques tirent leur seule légitimité de leur capacité à « couvrir la situation expérimentale. » Pour les ‘Réalistes’, avec A. Einstein comme chef de file, renoncer à décrire la réalité du monde physique était inacceptable, cela le fut aussi pour J. S. Bell et cela continue de l’être pour une grande majorité de physiciens (cela me semble être le cas pour Alain Aspect) que cela soit implicite ou explicite.

L’intrication implique que deux objets quantiques, à un certain moment, sont structurellement tellement imbriqués qu’il n’est plus possible de les distinguer. Ils ne constituent qu’un seul système quantique avec des propriétés qui lui sont propres. Cela veut dire qu’à ce moment-là on ne peut pas leur attribuer des coordonnées spatiales distinctives. Ils sont spatialement indiscernables et ils le resteront après coup quelle que soit leur évolution spatio-temporelle. Des expériences abouties ont permis de constater que l’intrication demeurée pour des photons séparés, par la suite, de plus de 200km. Si le système de bi photon présente un spin 0 au départ, la mesure du spin individuel de chacun d’entre eux donnera en somme toujours 0. Si la mesure de l’un donne : -1, l’autre donnera automatiquement et instantanément comme réponse à la mesure : +1 et vice versa. Evidemment aucun signal n’a pu être échangé entre les deux photons.

Le système de bi photon reste un système de bi photon bien que l’imbrication structurelle ne soit plus, au sens courant du terme, mais la propriété d’intrication, au sens physique du terme, demeure. Cette dernière décennie, des systèmes intriqués sophistiqués ont été élaborés et l’étude expérimentale de ses systèmes a toujours été probante.

Du point de vue du formalisme de la mécanique quantique cela s’exprime par le fait que la fonction d’onde qui représente le système quantique intriqué au départ ne peut par la suite être modifiée de telle façon que deux fonctions d’onde se déduisent de la première, pas plus que formellement l’objet 1 puisse se distinguer de l’objet 2. Donc après coup quand on fait une mesure sur un objet dont on sait qu’il est à 200km de l’autre, on ne sait pas, et on n’a pas les moyens de savoir, si on fait la mesure sur 1 ou sur 2.

C’est donc une faille dans les capacités de l’observateur qui est en cause. Disons plutôt, faille dans les capacités universelles et omniscientes qu’il s’attribue, alors que l’être pensant doit être considéré comme un être déterminé, comme je l’ai maintes fois présenté dans plusieurs de mes articles.

Selon mes critères l’intrication résulte d’une imbrication instantanée de deux objets quantiques. Elle se produit sur une durée inférieure à TpS : point aveugle de l’intelligence humaine, durée pendant laquelle le sujet pensant ne peut fonder les données spatiales attachées à chacun des 2 objets en question. Le sujet pensant ne peut intérioriser que le système lui apparaissant unique, et cela est irréversible.

La différence d’interprétation est nette. Pour la très grande majorité des physiciens il est considéré que ce sont les objets de la nature qui se comportent ainsi et l’énigme est d’une grande ampleur. De mon point de vue, l’intrication résulte des capacités cognitives déterminées du sujet pensant et elles conditionnent notre représentation de la situation.

 Grâce à la maturité des sciences cognitives et de l’imagerie cérébrales, ma conviction est : qu’il est possible maintenant de mettre en évidence cette durée aveugle de l’intelligence humaine et le processus de la fondation de l’espace du sujet pensant.[1]

L’expérience que je propose consiste à mettre en évidence des sollicitations cérébrales distinctes d’un observateur formé à la science physique placé devant un interféromètre dans lequel on fait circuler des objets quantiques. Cet interféromètre permettant soit de connaître à volonté le chemin suivi par les objets soit à volonté d’être dans l’ignorance du chemin suivi. L’idée serait de constater, selon mon hypothèse, que lorsqu’il y n’a pas de connaissance de la trajectoire spatio-temporelle possible des objets en question, alors c’est une zone distincte du cerveau qui s’active pour construire une représentation du phénomène physique conduisant à une image d’interférence. Zone distincte du cerveau de celle qui est activée lorsqu’il y a connaissance des trajectoires spatio-temporelles. Cette évaluation doit être aussi réalisée avec un observateur qui n’a pas une culture physique développée, notamment sur le phénomène ondulatoire.

Ensuite, au cas où cette expérience serait éclairante et probante, il serait alors fondé de réaliser une expérience mettant en jeu le phénomène de l’intrication et observer quelle est la zone du cerveau qui est activée par l’observateur du phénomène.

On commence à sérieusement comprendre que notre cerveau a des modalités de fonctionnement, c’est-à-dire qu’il est contraint par des processus qui résultent de l’assemblage de ses constituants, de leurs articulations et de leurs facultés de communication. Il est par définition un objet naturel, dont on peut dater les grandes étapes de son évolution, il est doué d’une grande ‘plasticité’, mais in fine ce qu’il produit n’est pas de l’ordre de la nature (n’appartient pas spécifiquement à la Nature, n’est pas réductible à des automatismes) mais absolument d’un autre ordre : celui de l‘humain. L’imagerie cérébrale est actuellement suffisamment développée et suffisamment précise pour qu’en toute rigueur il soit possible d’établir des relations de correspondance entre l’objet naturel et la production humaine de la pensée.

Stanislas Dehaene[2] a déjà remarqué le rôle primordial du : « Sens de l’espace et de celui du nombre (qui) sont des prédispositions si indispensables à la survie (sic) qu’elles sont attestées chez de nombreuses espèces : une série de recherches très récentes montrent que non seulement l’homme mais aussi d’autre primates, certains mammifères, des corvidés et même certains poissons disposent de compétences spatiales et numériques. Cela peut se comprendre : toutes les espèces animales ont besoin d’interagir avec un environnement structuré spatialement et numériquement. En 2009, deux équipes, celle de John O’Keefe à l’University College de Londres et celle de May-Britt et Edward Moser à l’université de Trondheim en Norvège ont montré que, dès la naissance, les bébés rats sont munis d’un système de navigation spatiale : celui-ci comprend des neurones sensibles à la position, qui disent où l’on est. Sans que l’on comprenne bien pourquoi, ce système anatomique qui se trouve dans l’hippocampe semble réutilisé chez l’homme pour la mémoire épisodique. » Là où S.D. indique ‘que l’on ne  comprend pas bien pourquoi‘ il est possible qu’il y ait des choses pas banales qui se produisent chez l’homme. Jusqu’où, présentement, peut-on tenter d’aller voir ?


[1] Voir, entre autres, article sur le blog du 27/08/2014 ainsi que l’article du 27/08/2012.

[2] Voir article du 26/10/2014



[1] Einstein a éprouvé la nécessité de rappeler que l’on ne doit pas introduire l’idée d’’action fantôme’.

[2] Par exemple voir sur le site de ‘Futura-Science’, le 03/09/2014 : « Photographier un objet avec une lumière… qui ne l’éclaire pas’

[3] Site ‘Techno-Science’.

[4] Présenté par Michael Slezak.

[5] Il en est ainsi, par exemple, de l’appareil de Stern et Gerlach qui servait à la mesure du moment cinétique d’objet macroscopique et moyennant des adaptations servit par la suite à la mesure du spin de particules élémentaires. Ce qui conduit à une confusion très importante car le terme ‘spin’ : tourner, est un vrai ‘faux ami’. Par exemple l’électron tournerait sur lui-même quel que soit l’axe de rotation que l’on choisirait !! C’est évidemment une représentationerronée. Il vaudrait mieux se dispenser de toute représentation, ce qui n’est pas simple car le mot spin est là et nous n’avons aucun terme de substitution.

Partager cet article
Repost0
5 novembre 2014 3 05 /11 /novembre /2014 06:33

L’espace et le temps ne sont pas donnés dans la nature, la lumière l’est.

Les différents articles que j’ai postés depuis, entre autres, le 27/08/2014, ne sont pas des articles à caractère épistémologique (science dont je ne comprends pas vraiment les frontières), mais mon objectif est bien de proposer un ou des nouveaux paradigmes pour dépasser les apories de la physique d’aujourd’hui.

En résumé des articles précédents, l’espace que nous nous représentons et le temps ne sont pas donnés dans la nature, ils sont le fruit d’opérations de fondations, nécessaires et vitales, de la part de l’être pensant. Par contre la lumière est donnée dans la nature de Notre univers. Notre univers : puisque certainement il est le fruit de nos cogitations toujours en évolution, sans que nous puissions être assurés que nous le révélions suivant une réalité établie. La description rationnelle de la lumière à laquelle nous nous référons dans tous les ouvrages scientifiques est un aboutissement remarquable mais n’atteint pas sa nature réelle et complète. L’exploitation des équations relatives à sa propagation à base d’espace et de temps masque sa véritable nature et l’attribution d’une vitesse de propagation : C, dans le vide, résulte d’une opération d’extrapolation qui n’est pas appropriée en ce qui la concerne. Je considère qu’avec la valeur de C nous sommes dans la même situation qu’avec la valeur de T = 0°K, à partir de la description actuelle de notre monde nous pouvons nous en approcher mais ne jamais l’atteindre. 0°K est une valeur horizon, identiquement : C devrait être considérée comme une valeur horizon.

A partir de ce constat, il s’agit de jeter les bases d’une autre description du monde naturel. Ces bases nécessairement doivent être accessibles aux outils mathématiques existants quitte à devoir en proposer de nouveaux. Pour des raisons probablement différentes, certaines tentatives signifcatives ont déjà été projetées. Par exemple, si je comprends bien le livre de S. Hawking et R. Penrose : ‘La Nature de l’Espace et du Temps’, (livre globalement décevant puisqu’il n’atteint pas le but assigné dans le titre), édit., Gallimard, 1997, la tentative de Penrose d’opérer dans, ‘l’espace des twistors’ relève du projet de faire de la physique autrement (ailleurs) que dans l’espace-temps ordinaire.

P.30, commentaire, dans le livre, de Marc Lachièze-Rey : « On sait par ailleurs que, en relativité, on peut considérer l’espace-temps comme tissé par l’ensemble de ses géodésiques. On peut alors comprendre que Penrose propose de considérer comme objet fondamental de sa théorie, non pas l’ensemble des événements susceptibles de se produire (c’est-à-dire l’espace-temps), mais plutôt l’ensemble des trajets possibles des rayons lumineux. De cette façon, l’espace-temps apparaît comme un concept secondaire (sic) et l’espace des twistors – initialement l’espace des rayons lumineux – comme l’espace le plus fondamental (sic). Ces deux espaces sont liés par une correspondance où les rayons lumineux dans l’espace-temps sont représentés par des points dans l’espace des twistors. Il est possible d’étudier les propriétés mathématiques (dont certaines sont voisines de celles des sphères) de cet ensemble et de le considérer comme un espace géométrique. C’est « l’espace des twistors », et Penrose propose de faire de la physique dans cet espace plutôt que dans l’espace-temps ordinaire. »… « Tout cela n’a que peu de rapport avec la physique quantique (sic) jusqu’à ce que Hawking introduise une « fonction d’onde des twistors ». Les développements deviennent alors très techniques mais ils permettent à Penrose de revenir à son propos initial. Il montre qu’il devient possible de séparer les fréquences positives et négatives d’un champ, ce qui permet de faire véritablement de la physique quantique dans l’espace des twistors. L’intérêt en demeure toutefois relativement obscur (sic). Cela permet, soutient Penrose, une nouvelle approche de la théorie quantique des champs, où les problèmes d’infinis pourraient se régler plus facilement. Mais pour les détails, il laisse le lecteur sur sa faim. » … P.31 : « Pour le moment, il semble que l’on puisse considérer la théorie des twistors de deux manières. D’une part un outil géométrique puissant mais complexe (que très peu de physiciens savent maîtriser), permettant d’aborder et de comprendre certains problèmes de physique quantique ou de relativité, ou même à la frontière. D’autre part, il se pourrait que cet outil offre une piste intéressante pour la mise en place d’une théorie des twistors qui pourrait être extrêmement puissante. Cette piste se place alors en concurrence avec d’autres approches aux ambitions synthétisantes, faisant en général également intervenir une géométrie complexe. On peut citer, par exemple, les théories des cordes, la supersymétrie, la gravitation quantique, la géométrie non commutative, etc. Toutes ces théories, ou ébauches de théories, se placent sur des plans différents, avec parfois, cependant, quelques points communs. »

Comme toujours avec Penrose, les développements géométriques de ses hypothèses prennent rapidement le pas sur des considérations proprement physiques ainsi que sur des perspectives physiques[1]. Quand on lui demande : « Où apparaît explicitement le spectre des particules dans la théorie des twistors ? » Il répond : « Je ne sais pas comment le spectre des particules va pouvoir émerger… Pour ma part, je pense que tant que nous ne comprendrons pas la relativité générale en termes de twistors, nous serons incapables de résoudre ce problème, car les masses sont étroitement liées à la relativité générale. »

Dans sa théorie des twistors, il reprend à son compte la conception du photon traditionnelle avec la même formule de la quantité de mouvement, de l’hélicité, de l’énergie. Pour lui, implicitement, la vitesse C : est une grandeur physique ayant une valeur parfaitement établie.

Or si l’on en croit Wikipédia : « Historiquement, la permittivité du vide ε0a été introduite en électrostatique dans la loi de Coulomb, alors que la constante magnétique μ0a été introduite en magnétostatique dans le théorème d'Ampère. Les équations établies par Maxwell ont fait apparaître une vitesse de propagation des ondes électromagnétiques c=1/√ε0μ0

Aujourd'hui on inverse cette formule en postulant constante la vitesse c des ondes électromagnétiques (vitesse de la lumière). Dans le système international d'unités, on définit le mètre en imposant c = 299 792 458 m·s−1 et on définit l'ampère en imposant μ0 = 4 π 10-7 kg·m·A-2·s-2. La constante électrique est alors définie par ε0=1/μ0c2≈8,85418782×10−12kg−1·m−3·A2·s4. Une unité dérivée équivalente et usuelle est le F·m−1. On approche aussi souvent ε0 au millième prêt par (1/36π).10-9 F/m. »

Dans ce texte de Wikipédia, l’usage des verbes postuler et imposer au participe présent est troublant et je ne sais pas si leur usage est totalement justifié. Ce qui est certain c’est que la valeur de C est totalement dépendante de la valeur de Π

Π[2]est un nombre transcendant cela implique qu’aucune définition finie de π ne peut être donnée en termes d’opérations arithmétiques élémentaires (somme, différence, produit, quotient et extraction de racines). Pour atteindre π, il faut nécessairement combiner une infinité d’opérations, ou faire un passage à la limite, ce qui revient au même. Π n’est pas finiment définissable, il en est de même de la valeur de C.

Historiquement π émerge d’un problème purement géométrique (quadrature du cercle : il y a plus de 2000 ans). En physique ce nombre apparaît pour l’essentiel d’une prise en compte du principe de la conservation du flux de champs à travers une surface et la plus évidente est celle d’une sphère.

Einstein est passé par des équations analogues aux équations de Laplace et de Poisson pour établir finalement son équation de la Relativité Générale et immanquablement, avec le terme de densité de matière et d’énergie, il embarque dans son résultat canonique le terme π.

La géométrisation de la physique entraîne immanquablement que le nombre π soit dans un très grand nombre d’équations de la physique. Qu’en serait-il donc de la valeur de C dans un espace où le problème de la quadrature du cercle ne se poserait pas ?

Si π était une constante physique, et que l’on cherchait à en améliorer la connaissance uniquement pour faire de la physique, ces difficultés seraient fondamentales et ne pourraient pas être négligées. En fait, π est un nombre qui provient de notre univers géométrique. De là, certains  mathématiciens n’hésitent pas à franchir le pas suivant : « Explorer π, c’est comme explorer l’Univers… », propos tenus par dit David Chudnovsky et complétés par son frère Grégory : «… ou plutôt explorer le monde sous-marin, car nous sommes dans la vase et tout semble sans forme. Nous avons besoin d’une lampe, et notre ordinateur est cette lampe… » (Ces deux frères ont calculé π avec un milliard de décimales en 1989)

D’un point de vue expérimental, en physique, il n’est pas possible de constater la conversion de matière chargée en énergie de rayonnement suivant l’égalité E = mc2 car C, est inaccessible parce que la perte d’énergie radiative est telle que l’on peut se rapprocher de C mais ne jamais pouvoir l’atteindre. C’est comme si on avait à faire à un phénomène physique ‘transcendant’. Voir par exemple dans le L.H.C, (à 7 TeV, les protons se déplacent à la vitesse de 0.999999991 x C), et ce que l’on prévoit dans le futur. La désintégration des particules de matière élémentaires en photons dans les détecteurs ne peut être évaluée qu’en termes de section efficace donc en termes de probabilités. Il en est de même du processus inverse de la matérialisation du photon en couple particule-antiparticule. Il n’y aurait que l’hypothétique axion qui de particule élémentaire (matière noire) se convertirait en photon moyennant l’intervention d’un champ magnétique. Lorsqu’il s’agit de la nucléosynthèse ou de la fusion thermonucléaire les interactions élémentaires sont en cause et elles interviennent dans le bilan énergétique. Idem pour la fission.

 



[1] Ce n’est pas par défaut que R. Penrose procède ainsi mais c’est par conviction : « Il croit qu’il convient de concevoir le monde physique comme émergeant d’un monde des mathématiques, lui-même intemporel. » ; « L’un des caractères les plus remarquables du cosmos est la manière dont il semble s’enraciner dans les mathématiques, avec une précision extrême. A mesure que s’accroît notre compréhension du monde physique et que nous pénétrons les lois de la nature plus profondément, il semble que le monde physique s’évapore davantage, pour ne presque plus nous laisser que des mathématiques. », in : ‘Les deux infinis et L’esprit humain’, 1997, édit. Flammarion, P.18.

[2] A propos du transcendant nombre π, j’ai pris comme source le livre de Jean-Paul Delahaye : ‘Le fascinant nombre π’, édit. Belin, 1997.

Partager cet article
Repost0
26 octobre 2014 7 26 /10 /octobre /2014 05:44

              Est-ce que tous les chambardements sont possibles ?

Dans l’article interview de S. Dehaene dans la revue de ‘La Recherche’, de Février 2011, on peut lire :

Question : Pour quelles autres compétences existe-t-il des prédispositions de base qui se traduisent par des spécialisations cérébrales ?

S.D. : « Le sens de l’espace et celui du nombre sont des prédispositions si indispensables à la survie (sic) qu’elles sont attestées chez de nombreuses espèces : une série de recherches très récentes montrent que non seulement l’homme mais aussi d’autre primates, certains mammifères, des corvidés et même certains poissons disposent de compétences spatiales et numériques. Cela peut se comprendre : toutes les espèces animales ont besoin d’interagir avec un environnement structuré spatialement et numériquement. En 2009, deux équipes, celle de John O’Keefe à l’University College de Londres et celle de May-Britt et Edward Moser à l’université de Trondheim en Norvège ont montré que, dès la naissance, les bébés rats sont munis d’un système de navigation spatiale : celui-ci comprend des neurones sensibles à la position, qui disent où l’on est. Sans que l’on comprenne bien pourquoi, ce système anatomique qui se trouve dans l’hippocampe semble réutilisé chez l’homme pour la mémoire épisodique. »

Dans le livre : ‘Kant sans kantisme’ de Gérard Lebrun, Fayard, 2009, il y a l’étude suivante : ‘Le rôle de l’espace dans l’élaboration de la pensée kantienne’. P.54, G. Lebrun indique : « Il y a un moment où Kant, après avoir tenté dans sa jeunesse de concilier deux images du monde (celle de Leibnitz et celle Newton), ose reconnaître que toute tentative de conciliation est vaine, et qu’il s’agit moins de concilier que de comprendre pourquoi la conciliation est impossible…  Et Kant précise : « La conciliation entre le monde métaphysique de Leibnitz et les exigences des sciences exactes est impossible. » Un exemple emblématique : « Selon Leibnitz, l’espace, qui nous apparaît comme une extension divisible et mesurable, est en réalité seulement un ordre intellectuel, l’ensemble des relations instituées par Dieu entre les monades. L’espace n’est rien sans les choses, si ce n’est la possibilité de les mettre. L’espace disparaîtrait donc entièrement quand on supprime les choses et serait seulement pensable dans les réalités actuelles. » S’il en est ainsi, l’espace euclidien est un concept issu de l’expérience perceptive, et les axiomes géométriques ne sont rien de plus que des constructions inductives, de sorte qu’il faut dire : « Nous n’avons jamais découvert jusqu’à présent un espace enfermé par deux droites. », et non : « Deux droites ne peuvent contenir un espace. » Si Leibnitz a raison, la géométrie euclidienne n’est pas une science universelle et nécessaire, mais une sorte de physique intuitive. Si Leibnitz a raison, les notions géométriques ne sont pas extraites de la vraie nature de l’espace, mais forgées arbitrairement – opinion contre laquelle Kant s’insurgeait depuis 1763. Kant à cette époque admettait un espace absolu « indépendant de l’existence de toute matière ». Comme à propos du temps il était un adepte de la conception newtonienne.

 P.56 : Pour Leibnitz, l’étendue, c’est-à-dire l’espace continu des géomètres, est un « phénomène » (au sens péjoratif d’« apparence »). Toute la continuité est une chose « idéale » Et l’espace quantitatif et mesurable n’est qu’une imagination bien fondée (dès lors que la distance spatiale traduit une relation qualitative d’ordre entre les substances) mais, enfin et surtout, une imagination.

Ernst Mach (1836-1916) a relayé à son époque d’activités scientifique et philosophique le point de vue de Leibnitz donc le rejet de l’espace absolu et du temps absolu. Il est même certain que, grâce à son travail critique sur la conception newtonienne de l’espace et du temps, il a contribué à l’émergence des lois de la relativité. A. Einstein a toujours prétendu qu’il avait trouvé chez ce penseur la source de ses intuitions fondamentales qui le mèneront à la formulation de la relativité générale.

Il n’en reste pas moins que réalité ou irréalité du temps et de l’espace est toujours aujourd’hui un sujet de controverses fondamentales, perpétuelles, entre les physiciens.

Dans mon article du 27/08/2014 : ‘Un authentique Big Bang ; Fracturer le masque parfait de la R.R.’, je mets en avant la thèse que l’intelligence primordiale au tout début de la lignée du genre humain a assuré pour des raisons vitales une appropriation-réduction de la notion d’espace parmi toutes les possibilités offerte par la Nature. Il se trouve, et j’en suis fort heureux, que S. Dehaene nous révèle qu’ainsi notre cerveau fonctionne : « …notre cerveau continue de s’interroger, inconsciemment, sur toutes les possibilités et se prépare à changer d’avis à tout instant. Pourtant, consciemment, nous ne percevons qu’un seul échantillon parmi toutes les possibilités… ». Voir son livre ‘Le code de la conscience’ d’octobre 2014, O. Jacob, voir mon article du 14/10.

Selon ma thèse l’espace comme le temps d’ailleurs sont fondés par l’être pensant par une opération de sélection-réduction de toutes les possibilités offertes par la Nature. Le référentiel original, primordial, est évidemment, depuis, à jamais perdu. Dans l’article du 27/08/2014, j’ai tenté d’appréhender les conséquences que cela pouvait avoir sur la grandeur physique de premier ordre c’est-à-dire : C, en ces termes : « La vitesse C, nous est utile, elle témoigne de notre capacité actuelle d’investissement intellectuel des propriétés de la Nature et tout ce qui lui est corrélée, elle marque en fait une frontière, un horizon, de ce que nous pouvons savoir de la nature, de Notre univers. En fait peut-être que ce que nous appelons la lumière n’a pas de vitesse du tout et, finalement, c’est une façon erronée de l’identifier ! Et si mobilité de la lumière, il y a, elle devrait être appréciée qualitativement d’une façon différente. »

Avec C, ses propriétés, ainsi que toutes les contraintes qui de fait s’imposent en tant que contraintes finales, indépassables, (par exemple : nous ne sommes pas capables de penser à de la matière qui n’obéisse pas à E = mc2), peut être que nous sommes confrontés aux limites de l’exploitation du caractère spécifique du concept d’espace résultant de la sélection-réduction de l’intelligence primordiale.

La lumière est dans la Nature, elle nous détermine, elle est inscrite dans ce que je désigne notre part d’’Être de la Nature’, en conséquence à son propos les voies de l’’Idéalisme Transcendantal[1]’ ne peuvent valoir. Elle est un constituant fondamental de cette Nature de Notre univers que nous décryptons et à ce titre elle ne peut pas être pleinement décrite par des grandeurs qui auraient leurs fondements en dehors de sa propre nature. Ceci vaut tout autant que nous considérions, d’une part, que l’espace et le temps soient donnés dans la Nature (comme cela est explicitement considéré par l’hyper majorité des physiciens) ou, d’autre part, qu’ils soient fondés, comme je le propose, par le sujet pensant[2]. En ne sachant considérer la lumière qu’aux moyens de l’espace et du temps nous ne saisissons dans le filet de notre intelligence qu’un ersatz de ce que serait naturellement la lumière[3].

Dans l’article du 27/08, j’ai entrepris, à partir de la conception ‘traditionnelle’ de la lumière, un processus de déconstruction de notre façon d’interpréter les propriétés physiques de Notre univers. Immédiatement, on pourra me dire que rejeter l’idée qu’il soit attribué une vitesse à la lumière et qu’elle soit quantifiée par C est absurde. Tout le monde admet que le rayonnement émis par notre astre met de l’ordre de 8 minutes pour nous parvenir. Je peux répliquer : oui, peut-être, mais par quel moyen avons-nous déterminé la distance entre la terre et le soleil ? Quand faisons de la physique sans exploiter directement ou indirectement la lumière comme intermédiaire ? Nous sommes peut-être à ce propos dans la situation de la poule et de l’œuf. Serge Haroche, le rappelle : « L’essentiel de l’information que nous recevons du monde vient de la lumière. » En résumé, je propose de considérer que la lumière est dans la Nature de l’univers dans lequel nous sommes centrés alors que l’espace et le temps n’y sont pas car ce sont des outils fondés par nous-mêmes.

Si on prend en compte le principe de complémentarité et les expériences qui le mettent en évidence : lorsque dans l’interféromètre nous avons des informations spatio-temporelles sur la trajectoire de l’objet matériel ou immatériel qui le parcourt, l’apparaître matériel ou ponctuel de l’objet s’impose. Lorsque nous n’avons aucune information spatio-temporelle sur la trajectoire effective, l’apparaître ondulatoire s’impose. La lumière étant l’archétype de la représentation ondulatoire on constate que ce mode est autonome vis-à-vis d’un savoir spatio-temporel le concernant. Fondamentalement le mode ondulatoire de la lumière ne véhicule aucune information spatio-temporelle, c’est le physicien qui projette cette information pour les besoins de la cause qui sont ceux, entre autres, du traitement mathématique actuel et ceux de l’échange intersubjectif.

La propriété basique qui conduit à la Relativité Restreinte : c’est la non-additivité à la vitesse de la lumière (telle que nous la concevons et la formulons) de toute autre vitesse d’objet effectivement mesurable par le ‘sujet pensant’ sous la forme habituelle : Δl/Δt. Durant notre scolarité élémentaire, parfois en recevant un coup de règle sur les doigts, on a tous entendu dire : « On ne peut pas additionner des choux et des carottes. »

Je n’ai pas particulièrement envie de donner raison à S. Hawking mais si de facto c’est par une extrapolation abusive et illégitime que nous attribuons la vitesse, finie, C de déplacement à la lumière alors, effectivement, l’horizon du trou noir n’a plus de raison d’être. Mais on ne sait toujours pas clairement, pourquoi, au début de cette année, S. Hawking a changé de pied sur ce sujet.

Si ma thèse a un début de validité, on devine les potentialités de révisions profondes de la genèse de notre univers. Le rayonnement fossile, tel que nous le décrivons, n’est plus le substrat de l’histoire de cette genèse que l’on croyait aussi sûr, l’hypothèse de la matière noire pourrait ne plus devoir s’imposer et celle de l’énergie sombre non plus, etc…, etc…

 



[1]Transcendantal : hors de toute détermination empirique.

[2]La citation de l’interview de S. Dehaene, au début de l’article, est très importante pour conforter ma thèse, toutefois je me dois d’être respectueux du travail de l’auteur qui évoque des prédispositions si indispensables (sic)de compétences spatiales et numériques. Et ce sont ces prédispositions qui, selon moi, sont évidemment les préalables pour qu’émergent des dispositions à fonder chez l’homme, uniquement chez l’homme, l’espace et le temps. Cette fondation passe par une intériorisation. C’est évidemment cette aptitude qui le différencie des autres primates, mammifères, etc… Fondation, au sens de processus d’une saisie nécessaire par une conscience (probablement) embryonnaire, de l’espace et du temps, et qui est concomitante à la naissance de l’homme. On pourrait donc parler d’un processus biunivoque de fondation.

[3]C’est-à-dire qu’il faut aller plus loin que Maxwell pour atteindre plus complètement les propriétés quantitatives et qualitatives de la lumière.

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens