Overblog
Suivre ce blog Administration + Créer mon blog
2 février 2015 1 02 /02 /février /2015 17:01

Période aride. Comment en sortir ?

Il convient de qualifier ainsi cette période pour ce qui est des résultats négatifs concernant l’astrophysique et la cosmologie. Le plus récent de ces résultats est du 31/01/2015, et c’est un article de l’ESA très attendu : “Planck: gravitational waves remain elusive. « Despite earlier reports of a possible detection, a joint analysis of data from ESA's Planck satellite and the ground-based BICEP2 and Keck Array experiments has found no conclusive evidence of primordial gravitational waves. » Traduisons simplement : “Planck : Les ondes gravitationnelles restent indétectables”. “En dépit de récents rapports d’une possible détection, une analyse commune de données du satellite Planck de l’ESA et des observations au sol (Pôle Sud) via : BICEP2 et Keck Array, aucune conclusion quant à l’évidence d’ondes gravitationnelles primordiales ne peut être prononcée. »

On peut dire que c’est de la faute de l’équipe de BICEP2 si nous sommes tenus d’enregistrer cette annonce négative. En effet très rapidement, une semaine ou deux après la publication en mars 2013 de la publication de détection des ondes gravitationnelles primordiales par l’équipe de BICEP2, des doutes fondés ont été exprimés quant à la validité scientifique de ce résultat[1]. Le manque de rigueur de l’équipe ainsi qu’une volonté de précipiter l’annonce d’un résultat étaient malheureusement perceptibles. S’il n’y avait pas eu cette publication parasite, Planck aurait pu publier, il y a plusieurs mois sur une dynamique prospective comme l’a indiqué A. Riazuelo de l’IAP : « Il n’existe pas de région du ciel qui, vue de la Terre, permettrait de s’affranchir de l’émission de poussière. Cela ne signifie pas que le signal de l’inflation est absent, seulement qu’il sera beaucoup moins facile à voir qu’on ne l’imaginait. »

Un autre domaine où l’aridité de la période se confirme c’est celui de la recherche de la matière noire. En effet le terme ‘aride’ convient car aucune trace de cette matière n’a pu être détectée jusqu’à présent. Pis encore, les quelques indices qui pouvaient entretenir une petite flamme d’espoir ont été balayés par des conclusions des observations de Planck. Depuis une trentaine d’années, avec une vingtaine de détecteurs sur la planète Terre, et cinq détecteurs spatiaux plus ou moins dédiés, il n’est pas possible de confirmer d’une façon probante la moindre détection de cette fameuse matière noire. (voir article précédent)

Pourtant dans le cadre du scénario du Big-Bang et avec la genèse de Notre univers qui en découle, la matière noire est strictement nécessaire. Dans le cours du Collège de France de F. Combes : janvier-février 2015, elle nous confirme dans la 4e séance : « La matière noire sauve la formation des galaxies. »

Est-ce qu’il est trop tôt pour considérer qu’il est temps de revoir la copie du modèle standard de la cosmologie ? Non ! Il est temps, d’autant que la théorie MOND qui est émancipée d’une quelconque nécessité de matière noire dans ses équations et donc compose uniquement avec la matière visible, cette théorie, que l’on peut qualifier d’effective, décrit et prédit de plus en plus de résultats qui sont en accord avec des observations. Ceci constitue pour la communauté des physiciens, qui réfléchissent sur le sujet, un signal très fort pour repenser les hypothèses qui prévalent au développement des recherches spécifiques. En effet, il faut considérer qu’hypothèses de la matière noire et théorie MOND sont antinomiques, et donc ensemble elles doivent être remises en cause.

Matière noire veut dire matière qui n’émet pas de lumière détectable : que nous ne sommes pas capables de détecter par nos moyens habituels. Il est étrange que tous les moyens que nous utilisons pour tenter de la voir impliquent que cette matière noire obéisse directement ou indirectement à E = mc2.

Nous devons nous émanciper de la contrainte, je dirais de la détermination d’une vitesse limite réelle de la lumière. Nous devons la considérer comme une vitesse horizon, définitivement non quantifiable dans notre système d’évaluation car dans notre monde, avec notre constitution, il est vain de lui attribuer une valeur de déplacement. J.M. Lachièze-Rey nous propose un raisonnement qui met le doigt sur une difficulté logique si on persiste à considérer que l’on peut connaître, étant donné ce que nous sommes, une valeur réelle de la vitesse de la lumière. In ‘Pour la Science’, novembre 2010, p.45, « Il existe une durée en un sens « plus valable » que les autres. Les équations de la relativité indiquent que dans notre exemple, plus le trajet d’un observateur est proche de celui du photon émis par l’étoile, plus la durée qu’il va mesurer est petite. D’une façon générale, l’observateur qui est lié à un processus et l’accompagne du début à la fin mesurera la durée la plus petite possible. Nommée « durée propre », on peut considérer que c’est la vraie durée du processus. Dans notre exemple, la durée propre du phénomène est celle que mesurerait le photon. Or la relativité indique que la durée propre d’un photon est…nulle. Cela n’est qu’une manifestation du fait qu’il voyage à la vitesse limite, celle de la lumière ; de façon générale c’est vrai pour toute particule de masse nulle. Ainsi la durée propre du trajet du photon, de son émission dans une galaxie lointaine à sa réception, est nulle. On aurait pourtant envie de dire que le trajet dure des milliards d’années. »

Notre condition d’être humain constitue un obstacle rédhibitoire pour mesurer, connaître, une vitesse effective de la lumière. Selon moi, la lumière qui est une donnée de la Nature que nous percevons, n’est pas vraiment caractérisable par une vitesse, sinon c’est une opération réductrice. En tant que vitesse horizon, nous pouvons l’appréhender, sans la connaître in-fine, puisque notre existence ne peut être qu’en deçà. Nous devons postuler qu’il y a, au-delà de notre conception actuelle de la lumière qui nous détermine, du Monde-univers, des Mondes-univers, que nous devrions pouvoir investir en prenant en compte les raisons qui nous amènent à cette période aride. 

Je conçois aisément que certains lecteurs de l’article pensent que face aux sérieux obstacles présents, je me réfugie dans une prospective métaphysique. Dans une certaine mesure cela est juste, mais selon mon point de vue cela n’est pas une régression de la réflexion car si on analyse l’histoire du développement de la pensée scientifique, on peut se rendre compte qu’une pensée prospective métaphysique peut constituer une sorte d’état chrysalide préalable à une pensée scientifique qui prend par la suite son envol dans le monde de la pensée scientifique.

N.B. L’occasion est très favorable pour préciser la spécificité de ma conviction, lorsque j’affirme que nous faisons de la physique ‘en ‘Présence’’, qui est celle du ‘sujet pensant’ et qui est inexpugnable. En effet, j’adhère sans réserve au raisonnement exposé de J.M. Lachièze-Rey (et je le remercie de m’offrir ce raisonnement) et là où il arrête son raisonnement : « On aurait pourtant envie de dire… », je prends le relais. En effet dans ma conception de l’émergence de la connaissance en physique, en tenant compte de notre existence inexpugnable en deçà du fond céleste de la lumière, et considérant ce que nous sommes, notre sagacité devrait pouvoir concevoir l’au-delà du fond apparent de la lumière. Il serait intéressant de savoir pourquoi Lachièze-Rey qui place l’observateur dans le processus : « D’une façon générale, l’observateur qui est lié à un processus et l’accompagne du début à la fin mesurera la durée la plus petite possible. », l’élimine totalement ensuite dans sa réflexion quand il prononce : « Cela n’est qu’une manifestation du fait qu’il voyage à la vitesse limite, celle de la lumière. »



[1] Voir mon article du 23/04/2014 : ‘Doute sur la publication du 17/03/2014.’

Partager cet article
Repost0
29 janvier 2015 4 29 /01 /janvier /2015 16:56

                          Bilan de la recherche de la matière noire.

Tout savoir sur l’Univers est inaccessible pour le ‘sujet pensant’ car le ‘Tout’ de l’univers est infini. Ainsi le sujet pensant sera toujours en quête… en mouvement.

Au tout début des années 1980, lorsqu’il s’avéra évident que la dynamique : des galaxies, des amas de galaxies, et plus généralement des structures recensées dans Notre univers, ne pouvait pas être rendue compte correctement en ne considérant que la matière identifiée c’est-à-dire la matière baryonique, le problème de la masse manquante s’est posé. Assez rapidement cette hypothèse de ‘masse manquante’ fut qualifiée : hypothèse de la matière noire.

 Astrophysiciens, cosmologistes, ont tout de go considérés qu’ils devaient résoudre cette problématique d’une façon globale, universelle, conformément à leur assurance que la vraie science fondamentale, la bonne science, est celle qui fournit des réponses complètes, invariantes, à ce genre de questionnement nouveau. Ils ont entrepris de lever cet énigme en ne tenant compte que des connaissances canoniques à cette époque et toujours dominantes aujourd’hui. Ils raisonnent sur la base d’un univers fermé (que je désigne comme : Notre univers), d’une genèse de cet univers sur la base d’un Big-Bang, comme si cette hypothèse de matière noire ne pouvait pas battre en brèche ces certitudes canoniques.

Fin 2014, début 2015, aucun indice tangible de cette fameuse matière noire n’a été mis en lumière. La situation est extrêmement anarchique car les proclamations des indices de matière noire varient, selon les équipes de recherche de quelques meV (tel l’axion) à 1012 eV (tel un WIMP comme le neutralino), en passant par le neutrino stérile à 7.1 keV et autres WIMPs de plusieurs GeV. Ces propositions dans cette très large gamme de masse proviennent d’instruments de détection dans l’espace dédiés ou pas à la recherche de la matière noire (XMM-Newton, PAMELA, CHANDRA, Fermi Space Télescope, AMS-02). Plus déroutant encore, un grand nombre de publications très récentes (en 2014), pour justifier leurs résultats et leurs annonces, s’appuient sur une phénoménologie qui semblerait interdite, consistant à privilégier la propriété d’annihilation entre les particules de matière noire (matière et antimatière). ‘J’indique qui semblerait interdite’ car dès 2013 les premiers résultats publiés par l’équipe de ‘Planck’, et les plus récents de novembre 2014, affirme qu’il n’y a pas eu d’annihilation de matière noire dans l’univers primordial car, dans le cas contraire, il y aurait eu un excès d’énergie de radiation qui aurait laissé son empreinte dans le rayonnement fossile très précisément analysé. Or le bilan est : pas d’annihilation dans les temps primordiaux, donc pas d’annihilation après. Ou alors il faudrait expliquer pourquoi cette propriété puisse apparaître après coup. Cette perspective est très peu probable, et peu cohérente. On doit donc s’interroger sur cette persistance à concevoir l’annihilation de composants de la matière noire.

Ainsi l’article de l’ESA-Planck du 04/12/2014 précise : « Nos nouveaux résultats sont encore plus intéressants quand on les compare avec les mesures réalisées par d’autres instruments. Les satellites Fermi et Pamela, tout aussi bien que l’expérience AMS-02 au sein de l’ISS, ont observé un excès de rayons cosmiques, qui pourrait être interprété comme la conséquence de l’annihilation de matière noire. Etant donné les observations réalisés par Planck, une explication alternative pour AMS-02 et les mesures sur Fermi – comme des radiations de Pulsars non encore identifiés – doivent être considérées, si on fait l’hypothèse raisonnable que les propriétés des particules de matière noire sont stables dans le temps. »

Pour être complet, il faut préciser que Planck exclut aussi l’hypothèse d’une 4e famille de neutrinos donc exclut l’hypothèse du neutrino stérile.

Aucun de ces détecteurs spatiaux n’est spécifiquement configuré pour détecter directement la matière noire. Les équipes qui décryptent les signaux sur ces détecteurs sont contraints de considérer que ces signaux résultent des produits de la cascade du processus d’annihilation, par exemple des rayons ϒ en ce qui concerne le Fermi Space Télescope, des rayons X en ce qui concerne XMM-Newton, des flux d’antimatière (rayons cosmiques, essentiellement des positrons) en ce qui concerne AMS, etc… On devrait s’étonner que, selon les physiciens, cette matière exotique s’annihile en produisant obligatoirement des produits standards. De même, il est possible de lire, dans des articles : « Although still elusive in particle-physics experiments, dark matter is a reality for astronomers. » : «Bien que toujours insaisissable dans les expériences de physique des particules, la matière noire est une réalité pour les astronomes.» Sans être provocant on doit s’étonner de l’absence de recul intellectuel de la part de ces astrophysiciens et astronomes. En effet considérer par la force des choses que la matière noire est une matière exotique, mais la faire rentrer immédiatement dans le tuyau de la phénoménologie de la matière standard dès qu’on conçoit son annihilation[1]ou bien considérer qu’on en a tellement besoin dans notre conception du cosmos et de sa genèse qu’on postule sa réalité, on est loin d’une démarche scientifique. L’impatience de résoudre des énigmes persistantes en court-circuitant le raisonnement et la rigueur scientifiques ne peut mener qu’à une succession d’impasses.

Sans vouloir dramatiser outre mesure, j’ai perçu que nous atteignîmes l’Impasse, avec un ‘I’ majuscule, le 1er Novembre 2013, lorsqu’il fut annoncé qu’aucun indice de détection directe de matière noire n’a été relevé au sein du détecteur : LUX. Or tous les atouts sont réunis à propos de ce détecteur, (Large Underground Xenon Experiment, situé dans une mine désaffectée dans le Dakota), atouts technologiques qui autorisent d’évaluer d’un facteur 100, par rapport aux meilleurs détecteurs actuels, l’amélioration de sa sensibilité, et aussi atouts de compétences humaines car l’équipe dédiée à LUX est considérée comme l’une des plus pointues dans ce domaine. On peut considérer qu’il y a, depuis plus de dix ans, sur la planète terre, une bonne dizaine de détecteurs configurés pour relever des traces de passages de particules de matière noire. Même s’ils sont moins sensibles que LUX, l’accumulation de résultats non significatifs doit être prise en compte. Il pourrait y avoir une exception avec les détecteurs Cogent et Dama, mais l’interprétation des résultats ne fait pas l’unanimité, loin s’en faut : il vaut mieux s’en tenir là.

En 1983, une autre démarche, très solitaire, pragmatique, a été empruntée par le scientifique : Moti Milgrom. Il a proposé de modifier la loi de Newton pour rendre compte d’une façon pragmatique de la dynamique observée des galaxies et autres structures de Notre univers (cela conduit à la théorie MOND : MOdified Newtonian Dynamics). Autant dire que ce pragmatisme iconoclaste fut spontanément rejeté par la communauté scientifique. Il a fallu beaucoup de témérité de la part de Milgrom pour qu’il soit entendu plutôt que occulté. En fait, on a commencé à exprimer de l’intérêt pour MOND, lorsqu’il y eut une conjonction remarquable entre la loi de Tully-Fischer et les travaux de Milgrom. La loi de Tully-Fischer (découverte en 1977, par les deux astronomes américains Tully et Fischer), obtenue par les moyens d’observations, montre une corrélation très significative entre la masse d’une galaxie et sa vitesse de rotation. Ce résultat est contenu dans la théorie MOND et cela permet d’attribuer à cette théorie une valeur prédictive à ce niveau donc elle acquiert un statut nouveau. Après coup et plus récemment la théorie MOND s’est avérée plus précise que l’hypothèse courante de la matière noire pour rendre compte de la dynamique des ‘galaxies naines’ qui sont au voisinage de la Voie Lactée et d’Andromède, par exemple.

En conséquence il n’est plus souhaitable de sous-estimer l’intérêt que représentent les travaux de Milgrom sur plus de 30 ans qui précisons-le ne résolvent pas toutes les questions relatives à la dynamique des structures de Notre univers, mais les adéquations croissantes, significatives, obtenues le sont sans qu’il soit fait appel à l’existence de matière noire dans l’univers. Malgré cela, que devons-nous penser de ce que nous dit F. R. Bouchet[2], cosmologue à l’Institut d’Astrophysique de Paris, directeur de recherche : «En dépit de ce succès, l’immense majorité des cosmologues a préféré accepter l’existence de matière noire en grande quantité plutôt que d’abandonner un cadre conceptuel qui a fait ses preuves, au profit d’une modification ad hoc. Il pourrait s’avérer que MOND soit une théorie effective, limite de basse énergie d’une théorie plus fondamentale, mais cela nous laisse alors sans cadre théorique bien défini, en dépit de nombreuses tentatives. Il devient alors difficile de progresser, puisqu’il est dès lors impossible de vérifier si l’alternative est capable de reproduire les succès bien réels de la cosmologie relativiste, même s’ils sont obtenus au prix de révisions de nos idées sur ce qu’est le contenu « naturel » de l’Univers. En bref, même sans trop d’a priori, il semble que, pour aller de l’avant, le plus prometteur soit de chercher d’autres indications de la matière sombre, en ignorant cette tentation de MOND. »

Ecrit il y 10 ans ce paragraphe indique d’une façon remarquable le dilemme dans lequel les cosmologistes sont pris dans une sorte de houle intellectuelle. Il serait intéressant de savoir si F. Bouchet continue de considérer la théorie MOND comme purement effective. De même, il serait intéressant qu’il  nous dise, s’il considère toujours, après ces 10 dernières années de recherche infructueuse de matière noire, « Pour aller de l’avant, le plus prometteur soit de chercher d’autres indications de la matière sombre, en ignorant cette tentation de MOND. » Je ne crois pas extrapoler abusivement les propos de Bouchet en disant qu’en fait il retient l’hypothèse de la matière noire par défaut. Combien de temps est-ce souhaitable, est-ce que ce n’est pas aveuglant sur le plan intellectuel et aussi contraire à la curiosité scientifique ouverte ?

Depuis que F. Bouchet a écrit : « Il devient alors difficile de progresser, puisqu’il est dès lors impossible de vérifier si l’alternative est capable de reproduire les succès bien réels de la cosmologie relativiste… », il semblerait que les choses aient changé puisque dans le NewScientist du 03/May 2014, M. Milgrom affirme « Après bien des efforts jusqu’en 2004, J. Bekenstein avec B. Sanders, en s’appuyant sur la théorie TeVeS, ils obtinrent de décrire la gravité avec trois champs et ainsi ils ont obtenu que MOND soit compatible avec la relativité d’Einstein. » Est-ce que cette compatibilité avec la relativité d’Einstein est en mesure de réduire la prévention de Bouchet ? Ou bien cela confirmerait sa prévention que MOND n’est qu’une théorie effective ?

Il y a un domaine sur lequel MOND est muet c’est évidemment sur la formation des puits de potentiel si nécessaires dès les premières secondes de la genèse de Notre univers afin que la matière baryonique s’y précipite pour former les grumeaux primordiaux de matière qui sont à l’origine des structures de l’univers. Jusqu’à présent, la thèse du Big-Bang a besoin de ce scénario puisque les fluctuations relevées du rayonnement fossile sont de 10-5 à 10-6 °K

Au-delà des problèmes de la détection de constituants de matière noire sur lesquels je me concentre dans cet article, il est nécessaire de signaler les désaccords très significatifs entre les résultats des observations et ceux résultants de la simulation. Citons[3]le désaccord de la densité de matière noire observée avec celle simulée lorsqu’on fait une évaluation de cette densité au plus près du centre des galaxies (désigné comme problème des cuspides, prédites dans les simulations, alors que des cœurs sont observés.) Autre désaccord : il concerne, avec l’hypothèse de la matière noire, la prédiction de 500 galaxies naines autour de la Voie Lactée alors que nous atteignons à peine une trentaine observées.

Wimp, axions, neutrinos ? Détecteurs enterrés, accélérateurs de particules, observatoires spatiaux ? « Je ne sais pas d’où viendra la lumière, mais le bout du tunnel est proche », nous dit Emilian Dudas de l’Ecole polytechnique dans une interview très récent, son collègue Pierre Salati (Université de Savoie) assure que : « Si rien ne vient, il nous restera à réexaminer les lois de la physique. »

Au début des années 1980, c’était une démarche ‘raisonnable’ que de vouloir insérer l’hypothèse de la matière noire dans le cadre des connaissances canoniques qui prévalaient à cette époque à propos de notre connaissance rassemblée pour concevoir ce que l’on appelle l’univers, accompagné de sa genèse. Etant donné qu’avec cette hypothèse nous n’avons pas progressé d’un iota, il est temps de se s’interroger sur le fait que : soit l’hypothèse n’est pas judicieuse, soit le cadre des connaissances canoniques est incorrecte, soit encore d’une façon plus dramatique nous devons simultanément reconsidérer ces deux socles de connaissances et d’hypothèses. Les succès croissants de la théorie MOND nous y obligent d’une façon objective sans devoir considérer que cette théorie est la ‘bonne’, loin s’en faut.

Et si cette hypothèse de matière noire nous signalait que notre conception de l’univers était erronée, en tous les cas provisoire ? Dans le sens où ce que nous désignons actuellement comme l’Univers n’est rien d’autre que l’univers de nos connaissances actuelles et qu’il faut franchir maintenant un cap de connaissances nouvelles pour résoudre les problèmes posées depuis les années 80. Par exemple, ne plus penser en terme d’un univers borné, déterminé, par la vitesse de la lumière, ne plus considérer que le Big-Bang est un paradigme valable. Mais penser à un univers qui engloberait un champ plus riche de connaissances, qui n’obligerait pas à réexaminer les lois de la physique présentement acceptées comme l’imagine Pierre Salati mais à accepter leur validité locale, provisoire, pas vraiment universelle. (Notre univers n’aurait que la valeur d’un univers local). Bref il faudrait aller au-delà. Dans cet au-delà de connaissances (que nous devons nous approprier) le problème lié à l’hypothèse de l’énergie sombre devrait certainement avoir aussi une explication.  



[1] Qui plus est, ne jamais prendre en considération, dans ce cas, que la quantité de matière noire diminue dans notre univers et qu’ainsi un effet gravitationnel général va en diminuant, laisse perplexe.

[2] In ‘Einstein, aujourd’hui’, p.361, Edit. CNRS Editions, 2005.

[3] Voir livre de F. Combes : ‘Mystères de la formation des galaxies – vers une nouvelle physique ?’, édit. UniverSciences, 2008. P. 150-158. Voir aussi cours de F. Combes, Collège de France : janvier-février 2015.

Partager cet article
Repost0
3 janvier 2015 6 03 /01 /janvier /2015 09:47

Pourquoi cette inertie ?

Sur le Blog : ‘Philoscience’, à la date du 13/12/2014, J.P. Baquiast produit un article, ‘L’Univers est-il unique ? Ou non ? Et notre cerveau, quel est-il ?’, visant dans un premier temps à analyser des ouvrages récents et attrayants, écrits par : Aurélien Barrau, ‘Des univers multiples. A l’aube d’une nouvelle cosmologie’ ; Carlo Rovelli, ‘Et si le temps n’existait pas.’ ; Roberto Unger et Lee Smolin, ‘The Singular Universe and the Reality of Time’.

Voilà des auteurs que nous connaissons bien et dont le travail scientifique nous est familier. Ce qui m’intéresse, en particulier, c’est l’étonnement de J. P. Baquiast qui est exprimé par la longue citation suivante :

« Or nous avions dans des articles précédents fait remarquer que ces physiciens ne semblent pas encore, tout au moins dans leur grande majorité, tenter de mieux comprendre les limites de la capacité du cerveau humain à traiter de tels problèmes, cerveau s'exprimant au niveau de l'individu comme au plan global des communautés de chercheurs. Autant ils cherchent à perfectionner, grâce à l'expérimentation, les capacités de traitement des données sensorielles par le cerveau, autant ils ne semblent pas s'intéresser aux capacités de ce que l'on appellera pour simplifier le cerveau associatif, qu'il soit individuel ou collectif.

Il s'agit pourtant du premier instrument à prendre en considération, lorsqu'il s'agit, non pas seulement d'imaginer des hypothèses, mais de tenir compte d'une façon cohérente et communicable sur le mode langagier de toutes les données fournies par les sens et utilisées dans la mise à l'épreuve de ces hypothèses. Autrement dit, le perfectionnement des capacités du cerveau, qui est l'instrument essentiel dont se servent les scientifiques, ne semble pas préoccuper les cosmologistes.

Cela tient indiscutablement à des raisons culturelles, spécialisation des connaissances et manque d'interdisciplinarité. Le Pr MacFadden, auquel nous avons donné la parole dans un précédent article, déplore que les biologistes et les neurologues n'aient pas suffisamment de compétences relatives à la physique quantique pour détecter des phénomènes biologiques ou cérébraux dans lesquels interviennent des q.bits.

Il en est de même, et sur le mode inverse, des physiciens quantiques et des cosmologistes. Ils n'ont certainement pas assez de compétences fines sur le fonctionnement en profondeur des neurones, du cortex associatif et des grands modèles cognitifs collectifs à base de traitements neuronaux, pour mesurer les limites de ces « instruments biologiques de la cosmologie » et suggérer des améliorations.

Une hypothèse pessimiste serait qu'ils ne le pourront jamais, tant du moins que le cerveau restera lié à des bases biologiques qui sont à la fois mal connues, sinon inconnaissables, et non susceptibles d'amélioration car trop liées à l'organisation génétique et aux structures sociales propres à l'animal humain. »

De mon point de vue, beaucoup d’expressions de Baquiast sont maladroites et bien évidemment il ne faut pas poser le problème de la façon dont cela est proposé. Ainsi, il n’est pas sans risque d’isoler le cerveau comme s’il était une île. Je préfère prendre en compte le ‘Sujet Pensant’ dans son intégrité en ne perdant pas de vue le fait, certes, que le siège de la cogitation donc de la pensée est entre autre le cerveau et qu’il est possible maintenant d’associer à une dynamique d’organisation et de fonctionnement du cerveau une dynamique de production de pensées. Mais pas plus ! Les propos rapportés, de MacFadden, fleurent bon le mécanisme d’antan sous couvert d’un vocabulaire des temps modernes et à coup sûr ils ne peuvent pas constituer une voie de progrès de la connaissance pour l’être humain.

Ainsi l’expression de l’auteur : « … tenter de mieux comprendre les limites de la capacité du cerveau humain à traiter de tels problèmes » laisse pointer l’idée qu’actuellement nous sommes les représentants d’une humanité aboutie, qui n’évoluera plus et qui doit présentement considérer les ‘limites’de la capacité de son cerveau comme définitivement établies. Aveuglement ! Orgueil mal placé ! Certes du point de vue du physicien on pourrait considérer que la problématique des limites, de la capacité du cerveau, s’imposent car depuis plusieurs décennies nous sommes confrontés à des apories dans le domaine de la physique théorique fondamentale qui obstruent le développement cohérent et fertile de la pensée scientifique. Oui, notre entendement collectif ne peut percevoir d’autres horizons que ceux qui nous mènent aux incompatibilités, aux impasses  actuelles. Oui, il faut qu’émergent de nouveaux paradigmes pour que notre entendement collectif reprenne une marche vers l’avant à la conquête de nouveaux domaines de compréhension des lois de la nature. Nature, plus ample (voir le livre de A. Barrau), plus diverse, que ce que nos facultés de compréhension ont pu révéler jusqu’à présent à ce stade de notre évolution. Nature qui se trouve être présentement bornée par ce que nous désignons ‘Notre univers’.

Remettons les choses à leur place, les capacités de notre cerveau ne sont pas en cause, (on perçoit, là, les risques d’une conception instrumentale du cerveau), c’est dans le cadre de l’histoire de la production de la pensée scientifique du ‘sujet pensant’ qu’il faut comprendre la stagnation actuelle. Lorsque ces nouveaux paradigmes (peut-être déjà partiellement formulés) seront acceptés et intégrés dans le patrimoine de notre entendement scientifique collectif, alors bien sûr on aura l’impression d’avoir brisé des limites. Mais avec cette considération nous serons dans l’ordre d’une subjectivité bien placée. Il se peut que corrélativement à cette nouvelle situation de nouvelles connexions se soient établies dans notre cerveau, que notre base de données mémorielle se soit enrichie, mais l’auteur de cette progression c’est l’être humain pensant dans son intégralité qui doit être considéré comme toujours en devenir. Ce seront les facultés intellectuelles de dépassement qui auront été à l’œuvre.

Parmi ces nouveaux paradigmes qui peuvent être opératoires, j’ai évoqué les suivants dans un article, le 5/11/2014, et dans le titre : ‘l’espace et le temps ne sont pas donnés dans la nature, la lumière l’est.’ En ce qui concerne plus spécifiquement le temps : Carlo Rovelli maintient qu’au plan fondamental le temps n’existe pas, par contre c’est une donnée émergente. Au contraire, Lee Smolin a la conviction que le temps est donné dans la nature, il est une réalité de notre univers. Mon point de vue est que le temps est fondé par le sujet pensant, il est le corollaire de sa ‘Présence’.

On peut à juste titre considérer qu’il y a un accord partiel entre mon point de vue et celui de C. Rovelli, car fondamentalement il n’y a pas de temps, c’est pourquoi j’évoque régulièrement : « Au sein d’une éternité, parmi tous les possibles, l’anthrôpos creuse… », et c’est la ‘Présence’ d’une intelligence émergente qui fonde le temps pour qu’un ‘Logos’ sur la Nature puisse se développer. Et je considère que cette inhérence est indestructible. Rovelli, lui, considère que l’émergence d’une ‘impression du temps résulte d’un processus physique, c’est la thermodynamique qui est en jeu et plus spécifiquement l’évolution thermodynamique irréversible du fond diffus cosmologique.

D’un autre côté Lee Smolin a concomitamment affirmé sa réalité du temps en précisant dernièrement avec force dans : ‘Pour une renaissance du temps’, qu’il est essentiel de prendre en compte ‘toujours un moment présent’, à ce sujet voir mon article du 02/05/2013 : ‘Bienvenu au ‘Moment Présent’ de Lee Smolin’. En effet, Smolin est fortement convaincu de la nécessité de prendre en compte cette nouvelle donnée, précisant en même temps que ni le langage, ni les concepts mathématiques ne peuvent saisir la substance profonde de ce ‘moment présent’. Pour autant, dans le cadre de sa nouvelle certitude, il n’a pas encore mené une analyse critique pertinente de la conception Einsteinienne de l’espace et du temps, pourtant nécessaire, s’il veut avancer.

En résumé au sujet du temps, l’hypothèse de TpS (τs) = de l’ordre 10-25s (point aveugle de l’intelligence humaine et tic-tac primordial de la temporalisation du temps), que je formule depuis une dizaine d’années, y compris de ce qui s’en déduit de sa fondation par ‘l’être pensant’, pourrait constituer le juste milieu du point de vue de C. Rovelli, (émergence, mais source distincte) et de celui de L. Smolin, (effectivité du temps incontournable, mais pour moi pas de réalité naturelle, ‘moment présent’, mais pour moi quantifiable et quantifié). Voilà donc un paradigme qui pourrait prendre corps et s’installer dans le paysage de la pensée scientifique. A propos de l’espace, corrélativement, une synthèse est aussi évidemment plausible.

A propos de cette synthèse, maintenant identifions les obstacles. Le physicien est un intellectuel qui est convaincu d’accéder à une connaissance objective c’est-à-dire qu’il est compétent pour saisir d’une façon ou d’une autre la réalité, telle qu’elle est, des objets qui lui sont extérieurs. Le physicien, conçoit la puissance de sa pensée sur la conviction que de ces objets se trouve expurgée la moindre trace de l’action du sujet pensant pour se les approprier. E. Kant a relativisé cette capacité, mais fondamentalement ne l’a pas contrariée. D. Hume a suggéré un aveuglement empirique. A. Einstein a promu quasiment à son acmé l’affirmation de l’intellectuel universel sur le monde réel. N. Bohr et W. Heisenberg ont souvent démontré avec succès qu’il fallait temporiser ce réalisme acharné (voir encore l’article du 13/12/2014). Mais cette conception est profondément ancré : l’homme est un être émancipé de toutes contraintes de la nature, c’est pourquoi, il ne peut être que doué d’un regard absolument objectif, confirmé par la démonstration d’un regard invariant. Affirmer qu’il ne peut avoir qu’un regard intelligent déterminé par des capacités actuelles qui lui seraient propres, est inconcevable, c’est faire trébucher la croyance profonde du physicien de son piédestal. Affirmer que le physicien ne peut présentement discerner que ce qui est supportable par ses facultés intellectuelles et son entendement toujours en évolution, est antinomique (toutefois il faut reconnaître que A. Barrau entrouvre une porte). Voilà pourquoi, dans les extraordinaires joutes intellectuelles qui ont opposé A. Einstein et N. Bohr, les préalables réalistes d’Einstein n’ont jamais été sérieusement rejetés par la communauté des physiciens (de l’époque et actuelle) alors que N. Bohr a toujours apporté la preuve de leurs faussetés. Voilà pourquoi, par exemple, est continument entretenue la confusion d’une conception dualiste avec celle d’une conception propre à la complémentarité car il ne faut pas laisser entrevoir que cela pourrait être une détermination du sujet pensant qui fait que nous détections un objet sous son aspect ponctuel plutôt que sous son aspect ondulatoire et vice versa. Le ‘et’ dualiste est donc préventif pour les réalistes. L’inertie intellectuelle des réalistes est toujours à l’œuvre

Partager cet article
Repost0
13 décembre 2014 6 13 /12 /décembre /2014 14:04

Les 2 sites : Techno Sciences (le 2/12) et Futura Sciences (le 13/12) relatent avec plus ou moins de bonheur les résultats effectifs d’une expérience de pensée, datant de 1927, proposée par les tenants d’une interprétation radicalement opposée des ‘lois’ premières de la mécanique quantique. Une fois de plus, d’entre A. Einstein et N. Bohr, c’est l’interprétation de Bohr (dite de Copenhague) qui est juste.

On remarquera que les 2 auteurs des articles perpétuent une mésinterprétation de la conception de Bohr. En effet chacun d’eux argumentent sur la validité explicite ou implicite de la dualité onde-corpuscule sans la réfuter. Ce que justement N. Bohr a toujours réfuté, préférant cliver et considérer la complémentarité : « Les résultats obtenus dans des conditions expérimentales différentes ne peuvent être englobés en une seule représentation, mais doivent être considérés comme complémentaires (sic) en ce sens que, seule, la totalité des phénomènes épuise l’information possible sur les objets ». En résumé il n’y a pas simultanément : onde et corpuscule, comme le considère le dualisme onde-corpuscule (dont l’auteur est De Broglie) mais il est plus juste de considérer qu’il y a : onde ou corpuscule, la différence entre l’interprétation ondulatoire ou bien l’interprétation corpusculaire est directement corrélée à l’instrument de mesure. A ce moment-là, il faut continuer le raisonnement car : qui dit instrument de mesure, dit observateur. Fondamentalement l’interprétation de Copenhague pense toute la phénoménologie de la mécanique quantique en attribuant un rôle déterminant à l’observateur, à sa ‘Présence’. Non pas à sa petite ‘présence’ comme le préconise superficiellement les ‘Qubistes’ mais à sa grande. Voir mon article du 27/05/2014.

Enfin, ces articles que vous pouvez consulter sur les deux sites respectifs aux dates indiqués avec leurs titres, m’amènent à rappeler que l’expérience que je propose et que je rappelle dans l’article du 22/11 en page 4 est vraiment d’actualité sous réserve que l’imagerie cérébrale a atteint maintenant un bon degré de maturité pour la mettre en œuvre.

 

Physique

Posté par Isabelle le Mardi 02/12/2014 à 00:00

Expérience de pensée d'Einstein Bohr réalisée à l'échelle moléculaire

Dualité onde-corpuscule  Einstein  Bohr 


 

 

 

L'expérience d'Einstein-Bohr confirme la théorie quantique

 

En 1927, Einstein avait lancé un défi à l’interprétation orthodoxe de la mécanique quantique construite par Niels Bohr et Werner Heisenberg. L’expérience de pensée qu’il avait proposée a finalement été réalisée avec des molécules soumises aux rayons X disponibles au synchrotron Soleil. Elle confirme que la réponse donnée à l’époque par Niels Bohr était correcte, fournissant une nouvelle preuve de la cohérence de la mécanique quantique.

 

Le 12/12/2014 à 15:40 - Par Laurent Sacco, Futura-Sciences

 

 

 

Partager cet article
Repost0
22 novembre 2014 6 22 /11 /novembre /2014 05:41

Intrication

Au début du mois de Novembre ce fut l’occasion de célébrer les 50 ans de la découverte théorique de John Stewart Bell adepte d’une interprétation ‘Réaliste’ de la mécanique quantique comme A. Einstein. En effet le 4 novembre 1964, le journal ‘Physics’ recevait un article qui allait faire date dans l’histoire de la physique quantique.

Les idées de Bell ont été mises en pratique par Alain Aspect et ses collègues au moyen d’une expérience conduite à l’université d’Orsay en 1982. Les résultats de cette expérience ont eu un retentissement mondial (violation des inégalités de Bell). L’interprétation des fondateurs de la mécanique quantique, c’est-à-dire de l’’Ecole de Copenhague’, en est sortie renforcée. Depuis elle continue d’être justifiée et la croyance téméraire d’A. Einstein qui s’opposa sans relâche à cette interprétation en puisant ses idées dans une conception ‘Réaliste’ radicale du monde est battue en brèche.

Depuis les résultats d’A. Aspect, l'intrication quantique s’est largement imposée dans le paysage scientifique avec ses propriétés mais aussi, il faut bien le dire, elle véhicule dans son sillage un ensemble de questions qui sont autant de sujets de controverse, et qui ne risquent pas d’être résolus de sitôt, puisqu’aucune explication au sens classique du terme ne peut être proposée et ce n’est qu’au prix de ce renoncement que le phénomène de l’intrication doit être entendu[1]. Celui-ci met en évidence un champ nouveau d'applications potentielles dans les domaines de l'information quantique, tels que la cryptographie quantique, la téléportation quantique ou l'ordinateur quantique. Dans les domaines cités des exploitations technologiques banalisées sont déjà à l’œuvre notamment en cryptographie.

Tout récemment, début septembre, plusieurs articles ont révélé un résultat que l’on peut qualifier d’’imagerie quantique’[2]. Grâce aux propriétés de l’intrication on forme des images d’objets dans une bande de longueurs d’onde donnée bien qu'il n’existe pas d’instruments permettant de prendre réellement une photo de ces objets. Les physiciens pensent que cette technique d’imagerie quantique avec intrication de photons permettra d’avoir un jour des applications en biologie et en médecine.

Plus récemment encore le 11/11 un article annonce : ‘Intrication quantique : la conjecture de Peres est fausse’[3]. Conjecture qui aurait (eu) un impact en téléportation quantique. Cela nous dit que nous sommes dans un domaine de la physique fondamentale théorique qui n’est pas encore stabilisé.

D’autant moins stabilisé que l’interprétation de Copenhague, qui n’a jamais été mise en porte à faux, est toujours contestée explicitement ou implicitement. La dernière tentative explicite apparaît dans un article du 05/11, sur le site du ‘NewScientist[4] : « Des univers fantômes tuent le chat quantique de Schrödinger », relatant les cogitations de Howard Wiseman de l’Université de Griffith en Australie. Le leitmotiv de ce théoricien c’est qu’ « il n’est pas possible de penser la fonction d’onde comme une chose réelle (sic) ». Alors il pense que des univers fantômes sont présents, là, partageant avec Notre univers le même espace, chacun d’entre eux (un très grand nombre, mais un nombre fini) étant régi par les lois physiques classiques newtoniennes. Ces différents univers se bousculent et en conséquence dans Notre univers les propriétés quantiques apparaissent. Toutefois il y a un sérieux bémol, car avec cette vue de l’esprit il n’y a pas la possibilité d’expliquer l’intrication, mais… « Cela pourrait marcher si ces univers étaient en nombre infini. (sic) »

Rappelons-nous, et c’est essentiel, que les fondateurs de la mécanique quantique n’ont jamais prétendu que la fonction d’onde était quelque chose de réel, ni qu’elle représentait une réalité du monde physique investi par le physicien. D’ailleurs, c’est ce qu’on leur reprochait comme le relate W. Heisenberg au cours d’un entretien avec A. Einstein en 1925 : « Il me semble, me mit en garde Einstein, que votre pensée s’oriente maintenant dans une direction très dangereuse. Car tout d’un coup, vous vous mettez à parler de ce que l’on sait de la nature, et non pas de ce qu’elle fait effectivement. Mais dans les sciences, il ne peut s’agir que de mettre en évidence ce que la nature fait effectivement. » Certainement, Einstein avec beaucoup d’autres n’a jamais pu accepter que la fonction d’onde ne représente que le savoir que l’on a de l’état d’un système quantique et pas plus. A Côme, en septembre 1927, lors d’une conférence très pédagogique, N. Bohr a expliqué que les expériences et les mesures sont nécessairement faites avec des appareils de dimensions macroscopiques[5], en conséquence les observations des phénomènes atomiques et subatomiques entraînent une interaction avec l’instrument d’observation qui ne peut être négligée. « On ne peut par conséquent attribuer une réalité indépendante, au sens physique ordinaire de ce mot, ni aux phénomènes ni aux instruments d’observation. » La réalité physique est ramenée à nos rapports opérationnels avec elle, au-delà de laquelle la science n’a plus rien à connaître. Dans sa formulation même, la théorie quantique ne dit pas comment le monde est, mais comment il répond aux sollicitations. Les concepts physiques tirent leur seule légitimité de leur capacité à « couvrir la situation expérimentale. » Pour les ‘Réalistes’, avec A. Einstein comme chef de file, renoncer à décrire la réalité du monde physique était inacceptable, cela le fut aussi pour J. S. Bell et cela continue de l’être pour une grande majorité de physiciens (cela me semble être le cas pour Alain Aspect) que cela soit implicite ou explicite.

L’intrication implique que deux objets quantiques, à un certain moment, sont structurellement tellement imbriqués qu’il n’est plus possible de les distinguer. Ils ne constituent qu’un seul système quantique avec des propriétés qui lui sont propres. Cela veut dire qu’à ce moment-là on ne peut pas leur attribuer des coordonnées spatiales distinctives. Ils sont spatialement indiscernables et ils le resteront après coup quelle que soit leur évolution spatio-temporelle. Des expériences abouties ont permis de constater que l’intrication demeurée pour des photons séparés, par la suite, de plus de 200km. Si le système de bi photon présente un spin 0 au départ, la mesure du spin individuel de chacun d’entre eux donnera en somme toujours 0. Si la mesure de l’un donne : -1, l’autre donnera automatiquement et instantanément comme réponse à la mesure : +1 et vice versa. Evidemment aucun signal n’a pu être échangé entre les deux photons.

Le système de bi photon reste un système de bi photon bien que l’imbrication structurelle ne soit plus, au sens courant du terme, mais la propriété d’intrication, au sens physique du terme, demeure. Cette dernière décennie, des systèmes intriqués sophistiqués ont été élaborés et l’étude expérimentale de ses systèmes a toujours été probante.

Du point de vue du formalisme de la mécanique quantique cela s’exprime par le fait que la fonction d’onde qui représente le système quantique intriqué au départ ne peut par la suite être modifiée de telle façon que deux fonctions d’onde se déduisent de la première, pas plus que formellement l’objet 1 puisse se distinguer de l’objet 2. Donc après coup quand on fait une mesure sur un objet dont on sait qu’il est à 200km de l’autre, on ne sait pas, et on n’a pas les moyens de savoir, si on fait la mesure sur 1 ou sur 2.

C’est donc une faille dans les capacités de l’observateur qui est en cause. Disons plutôt, faille dans les capacités universelles et omniscientes qu’il s’attribue, alors que l’être pensant doit être considéré comme un être déterminé, comme je l’ai maintes fois présenté dans plusieurs de mes articles.

Selon mes critères l’intrication résulte d’une imbrication instantanée de deux objets quantiques. Elle se produit sur une durée inférieure à TpS : point aveugle de l’intelligence humaine, durée pendant laquelle le sujet pensant ne peut fonder les données spatiales attachées à chacun des 2 objets en question. Le sujet pensant ne peut intérioriser que le système lui apparaissant unique, et cela est irréversible.

La différence d’interprétation est nette. Pour la très grande majorité des physiciens il est considéré que ce sont les objets de la nature qui se comportent ainsi et l’énigme est d’une grande ampleur. De mon point de vue, l’intrication résulte des capacités cognitives déterminées du sujet pensant et elles conditionnent notre représentation de la situation.

 Grâce à la maturité des sciences cognitives et de l’imagerie cérébrales, ma conviction est : qu’il est possible maintenant de mettre en évidence cette durée aveugle de l’intelligence humaine et le processus de la fondation de l’espace du sujet pensant.[1]

L’expérience que je propose consiste à mettre en évidence des sollicitations cérébrales distinctes d’un observateur formé à la science physique placé devant un interféromètre dans lequel on fait circuler des objets quantiques. Cet interféromètre permettant soit de connaître à volonté le chemin suivi par les objets soit à volonté d’être dans l’ignorance du chemin suivi. L’idée serait de constater, selon mon hypothèse, que lorsqu’il y n’a pas de connaissance de la trajectoire spatio-temporelle possible des objets en question, alors c’est une zone distincte du cerveau qui s’active pour construire une représentation du phénomène physique conduisant à une image d’interférence. Zone distincte du cerveau de celle qui est activée lorsqu’il y a connaissance des trajectoires spatio-temporelles. Cette évaluation doit être aussi réalisée avec un observateur qui n’a pas une culture physique développée, notamment sur le phénomène ondulatoire.

Ensuite, au cas où cette expérience serait éclairante et probante, il serait alors fondé de réaliser une expérience mettant en jeu le phénomène de l’intrication et observer quelle est la zone du cerveau qui est activée par l’observateur du phénomène.

On commence à sérieusement comprendre que notre cerveau a des modalités de fonctionnement, c’est-à-dire qu’il est contraint par des processus qui résultent de l’assemblage de ses constituants, de leurs articulations et de leurs facultés de communication. Il est par définition un objet naturel, dont on peut dater les grandes étapes de son évolution, il est doué d’une grande ‘plasticité’, mais in fine ce qu’il produit n’est pas de l’ordre de la nature (n’appartient pas spécifiquement à la Nature, n’est pas réductible à des automatismes) mais absolument d’un autre ordre : celui de l‘humain. L’imagerie cérébrale est actuellement suffisamment développée et suffisamment précise pour qu’en toute rigueur il soit possible d’établir des relations de correspondance entre l’objet naturel et la production humaine de la pensée.

Stanislas Dehaene[2] a déjà remarqué le rôle primordial du : « Sens de l’espace et de celui du nombre (qui) sont des prédispositions si indispensables à la survie (sic) qu’elles sont attestées chez de nombreuses espèces : une série de recherches très récentes montrent que non seulement l’homme mais aussi d’autre primates, certains mammifères, des corvidés et même certains poissons disposent de compétences spatiales et numériques. Cela peut se comprendre : toutes les espèces animales ont besoin d’interagir avec un environnement structuré spatialement et numériquement. En 2009, deux équipes, celle de John O’Keefe à l’University College de Londres et celle de May-Britt et Edward Moser à l’université de Trondheim en Norvège ont montré que, dès la naissance, les bébés rats sont munis d’un système de navigation spatiale : celui-ci comprend des neurones sensibles à la position, qui disent où l’on est. Sans que l’on comprenne bien pourquoi, ce système anatomique qui se trouve dans l’hippocampe semble réutilisé chez l’homme pour la mémoire épisodique. » Là où S.D. indique ‘que l’on ne  comprend pas bien pourquoi‘ il est possible qu’il y ait des choses pas banales qui se produisent chez l’homme. Jusqu’où, présentement, peut-on tenter d’aller voir ?


[1] Voir, entre autres, article sur le blog du 27/08/2014 ainsi que l’article du 27/08/2012.

[2] Voir article du 26/10/2014



[1] Einstein a éprouvé la nécessité de rappeler que l’on ne doit pas introduire l’idée d’’action fantôme’.

[2] Par exemple voir sur le site de ‘Futura-Science’, le 03/09/2014 : « Photographier un objet avec une lumière… qui ne l’éclaire pas’

[3] Site ‘Techno-Science’.

[4] Présenté par Michael Slezak.

[5] Il en est ainsi, par exemple, de l’appareil de Stern et Gerlach qui servait à la mesure du moment cinétique d’objet macroscopique et moyennant des adaptations servit par la suite à la mesure du spin de particules élémentaires. Ce qui conduit à une confusion très importante car le terme ‘spin’ : tourner, est un vrai ‘faux ami’. Par exemple l’électron tournerait sur lui-même quel que soit l’axe de rotation que l’on choisirait !! C’est évidemment une représentationerronée. Il vaudrait mieux se dispenser de toute représentation, ce qui n’est pas simple car le mot spin est là et nous n’avons aucun terme de substitution.

Partager cet article
Repost0
5 novembre 2014 3 05 /11 /novembre /2014 06:33

L’espace et le temps ne sont pas donnés dans la nature, la lumière l’est.

Les différents articles que j’ai postés depuis, entre autres, le 27/08/2014, ne sont pas des articles à caractère épistémologique (science dont je ne comprends pas vraiment les frontières), mais mon objectif est bien de proposer un ou des nouveaux paradigmes pour dépasser les apories de la physique d’aujourd’hui.

En résumé des articles précédents, l’espace que nous nous représentons et le temps ne sont pas donnés dans la nature, ils sont le fruit d’opérations de fondations, nécessaires et vitales, de la part de l’être pensant. Par contre la lumière est donnée dans la nature de Notre univers. Notre univers : puisque certainement il est le fruit de nos cogitations toujours en évolution, sans que nous puissions être assurés que nous le révélions suivant une réalité établie. La description rationnelle de la lumière à laquelle nous nous référons dans tous les ouvrages scientifiques est un aboutissement remarquable mais n’atteint pas sa nature réelle et complète. L’exploitation des équations relatives à sa propagation à base d’espace et de temps masque sa véritable nature et l’attribution d’une vitesse de propagation : C, dans le vide, résulte d’une opération d’extrapolation qui n’est pas appropriée en ce qui la concerne. Je considère qu’avec la valeur de C nous sommes dans la même situation qu’avec la valeur de T = 0°K, à partir de la description actuelle de notre monde nous pouvons nous en approcher mais ne jamais l’atteindre. 0°K est une valeur horizon, identiquement : C devrait être considérée comme une valeur horizon.

A partir de ce constat, il s’agit de jeter les bases d’une autre description du monde naturel. Ces bases nécessairement doivent être accessibles aux outils mathématiques existants quitte à devoir en proposer de nouveaux. Pour des raisons probablement différentes, certaines tentatives signifcatives ont déjà été projetées. Par exemple, si je comprends bien le livre de S. Hawking et R. Penrose : ‘La Nature de l’Espace et du Temps’, (livre globalement décevant puisqu’il n’atteint pas le but assigné dans le titre), édit., Gallimard, 1997, la tentative de Penrose d’opérer dans, ‘l’espace des twistors’ relève du projet de faire de la physique autrement (ailleurs) que dans l’espace-temps ordinaire.

P.30, commentaire, dans le livre, de Marc Lachièze-Rey : « On sait par ailleurs que, en relativité, on peut considérer l’espace-temps comme tissé par l’ensemble de ses géodésiques. On peut alors comprendre que Penrose propose de considérer comme objet fondamental de sa théorie, non pas l’ensemble des événements susceptibles de se produire (c’est-à-dire l’espace-temps), mais plutôt l’ensemble des trajets possibles des rayons lumineux. De cette façon, l’espace-temps apparaît comme un concept secondaire (sic) et l’espace des twistors – initialement l’espace des rayons lumineux – comme l’espace le plus fondamental (sic). Ces deux espaces sont liés par une correspondance où les rayons lumineux dans l’espace-temps sont représentés par des points dans l’espace des twistors. Il est possible d’étudier les propriétés mathématiques (dont certaines sont voisines de celles des sphères) de cet ensemble et de le considérer comme un espace géométrique. C’est « l’espace des twistors », et Penrose propose de faire de la physique dans cet espace plutôt que dans l’espace-temps ordinaire. »… « Tout cela n’a que peu de rapport avec la physique quantique (sic) jusqu’à ce que Hawking introduise une « fonction d’onde des twistors ». Les développements deviennent alors très techniques mais ils permettent à Penrose de revenir à son propos initial. Il montre qu’il devient possible de séparer les fréquences positives et négatives d’un champ, ce qui permet de faire véritablement de la physique quantique dans l’espace des twistors. L’intérêt en demeure toutefois relativement obscur (sic). Cela permet, soutient Penrose, une nouvelle approche de la théorie quantique des champs, où les problèmes d’infinis pourraient se régler plus facilement. Mais pour les détails, il laisse le lecteur sur sa faim. » … P.31 : « Pour le moment, il semble que l’on puisse considérer la théorie des twistors de deux manières. D’une part un outil géométrique puissant mais complexe (que très peu de physiciens savent maîtriser), permettant d’aborder et de comprendre certains problèmes de physique quantique ou de relativité, ou même à la frontière. D’autre part, il se pourrait que cet outil offre une piste intéressante pour la mise en place d’une théorie des twistors qui pourrait être extrêmement puissante. Cette piste se place alors en concurrence avec d’autres approches aux ambitions synthétisantes, faisant en général également intervenir une géométrie complexe. On peut citer, par exemple, les théories des cordes, la supersymétrie, la gravitation quantique, la géométrie non commutative, etc. Toutes ces théories, ou ébauches de théories, se placent sur des plans différents, avec parfois, cependant, quelques points communs. »

Comme toujours avec Penrose, les développements géométriques de ses hypothèses prennent rapidement le pas sur des considérations proprement physiques ainsi que sur des perspectives physiques[1]. Quand on lui demande : « Où apparaît explicitement le spectre des particules dans la théorie des twistors ? » Il répond : « Je ne sais pas comment le spectre des particules va pouvoir émerger… Pour ma part, je pense que tant que nous ne comprendrons pas la relativité générale en termes de twistors, nous serons incapables de résoudre ce problème, car les masses sont étroitement liées à la relativité générale. »

Dans sa théorie des twistors, il reprend à son compte la conception du photon traditionnelle avec la même formule de la quantité de mouvement, de l’hélicité, de l’énergie. Pour lui, implicitement, la vitesse C : est une grandeur physique ayant une valeur parfaitement établie.

Or si l’on en croit Wikipédia : « Historiquement, la permittivité du vide ε0a été introduite en électrostatique dans la loi de Coulomb, alors que la constante magnétique μ0a été introduite en magnétostatique dans le théorème d'Ampère. Les équations établies par Maxwell ont fait apparaître une vitesse de propagation des ondes électromagnétiques c=1/√ε0μ0

Aujourd'hui on inverse cette formule en postulant constante la vitesse c des ondes électromagnétiques (vitesse de la lumière). Dans le système international d'unités, on définit le mètre en imposant c = 299 792 458 m·s−1 et on définit l'ampère en imposant μ0 = 4 π 10-7 kg·m·A-2·s-2. La constante électrique est alors définie par ε0=1/μ0c2≈8,85418782×10−12kg−1·m−3·A2·s4. Une unité dérivée équivalente et usuelle est le F·m−1. On approche aussi souvent ε0 au millième prêt par (1/36π).10-9 F/m. »

Dans ce texte de Wikipédia, l’usage des verbes postuler et imposer au participe présent est troublant et je ne sais pas si leur usage est totalement justifié. Ce qui est certain c’est que la valeur de C est totalement dépendante de la valeur de Π

Π[2]est un nombre transcendant cela implique qu’aucune définition finie de π ne peut être donnée en termes d’opérations arithmétiques élémentaires (somme, différence, produit, quotient et extraction de racines). Pour atteindre π, il faut nécessairement combiner une infinité d’opérations, ou faire un passage à la limite, ce qui revient au même. Π n’est pas finiment définissable, il en est de même de la valeur de C.

Historiquement π émerge d’un problème purement géométrique (quadrature du cercle : il y a plus de 2000 ans). En physique ce nombre apparaît pour l’essentiel d’une prise en compte du principe de la conservation du flux de champs à travers une surface et la plus évidente est celle d’une sphère.

Einstein est passé par des équations analogues aux équations de Laplace et de Poisson pour établir finalement son équation de la Relativité Générale et immanquablement, avec le terme de densité de matière et d’énergie, il embarque dans son résultat canonique le terme π.

La géométrisation de la physique entraîne immanquablement que le nombre π soit dans un très grand nombre d’équations de la physique. Qu’en serait-il donc de la valeur de C dans un espace où le problème de la quadrature du cercle ne se poserait pas ?

Si π était une constante physique, et que l’on cherchait à en améliorer la connaissance uniquement pour faire de la physique, ces difficultés seraient fondamentales et ne pourraient pas être négligées. En fait, π est un nombre qui provient de notre univers géométrique. De là, certains  mathématiciens n’hésitent pas à franchir le pas suivant : « Explorer π, c’est comme explorer l’Univers… », propos tenus par dit David Chudnovsky et complétés par son frère Grégory : «… ou plutôt explorer le monde sous-marin, car nous sommes dans la vase et tout semble sans forme. Nous avons besoin d’une lampe, et notre ordinateur est cette lampe… » (Ces deux frères ont calculé π avec un milliard de décimales en 1989)

D’un point de vue expérimental, en physique, il n’est pas possible de constater la conversion de matière chargée en énergie de rayonnement suivant l’égalité E = mc2 car C, est inaccessible parce que la perte d’énergie radiative est telle que l’on peut se rapprocher de C mais ne jamais pouvoir l’atteindre. C’est comme si on avait à faire à un phénomène physique ‘transcendant’. Voir par exemple dans le L.H.C, (à 7 TeV, les protons se déplacent à la vitesse de 0.999999991 x C), et ce que l’on prévoit dans le futur. La désintégration des particules de matière élémentaires en photons dans les détecteurs ne peut être évaluée qu’en termes de section efficace donc en termes de probabilités. Il en est de même du processus inverse de la matérialisation du photon en couple particule-antiparticule. Il n’y aurait que l’hypothétique axion qui de particule élémentaire (matière noire) se convertirait en photon moyennant l’intervention d’un champ magnétique. Lorsqu’il s’agit de la nucléosynthèse ou de la fusion thermonucléaire les interactions élémentaires sont en cause et elles interviennent dans le bilan énergétique. Idem pour la fission.

 



[1] Ce n’est pas par défaut que R. Penrose procède ainsi mais c’est par conviction : « Il croit qu’il convient de concevoir le monde physique comme émergeant d’un monde des mathématiques, lui-même intemporel. » ; « L’un des caractères les plus remarquables du cosmos est la manière dont il semble s’enraciner dans les mathématiques, avec une précision extrême. A mesure que s’accroît notre compréhension du monde physique et que nous pénétrons les lois de la nature plus profondément, il semble que le monde physique s’évapore davantage, pour ne presque plus nous laisser que des mathématiques. », in : ‘Les deux infinis et L’esprit humain’, 1997, édit. Flammarion, P.18.

[2] A propos du transcendant nombre π, j’ai pris comme source le livre de Jean-Paul Delahaye : ‘Le fascinant nombre π’, édit. Belin, 1997.

Partager cet article
Repost0
26 octobre 2014 7 26 /10 /octobre /2014 05:44

              Est-ce que tous les chambardements sont possibles ?

Dans l’article interview de S. Dehaene dans la revue de ‘La Recherche’, de Février 2011, on peut lire :

Question : Pour quelles autres compétences existe-t-il des prédispositions de base qui se traduisent par des spécialisations cérébrales ?

S.D. : « Le sens de l’espace et celui du nombre sont des prédispositions si indispensables à la survie (sic) qu’elles sont attestées chez de nombreuses espèces : une série de recherches très récentes montrent que non seulement l’homme mais aussi d’autre primates, certains mammifères, des corvidés et même certains poissons disposent de compétences spatiales et numériques. Cela peut se comprendre : toutes les espèces animales ont besoin d’interagir avec un environnement structuré spatialement et numériquement. En 2009, deux équipes, celle de John O’Keefe à l’University College de Londres et celle de May-Britt et Edward Moser à l’université de Trondheim en Norvège ont montré que, dès la naissance, les bébés rats sont munis d’un système de navigation spatiale : celui-ci comprend des neurones sensibles à la position, qui disent où l’on est. Sans que l’on comprenne bien pourquoi, ce système anatomique qui se trouve dans l’hippocampe semble réutilisé chez l’homme pour la mémoire épisodique. »

Dans le livre : ‘Kant sans kantisme’ de Gérard Lebrun, Fayard, 2009, il y a l’étude suivante : ‘Le rôle de l’espace dans l’élaboration de la pensée kantienne’. P.54, G. Lebrun indique : « Il y a un moment où Kant, après avoir tenté dans sa jeunesse de concilier deux images du monde (celle de Leibnitz et celle Newton), ose reconnaître que toute tentative de conciliation est vaine, et qu’il s’agit moins de concilier que de comprendre pourquoi la conciliation est impossible…  Et Kant précise : « La conciliation entre le monde métaphysique de Leibnitz et les exigences des sciences exactes est impossible. » Un exemple emblématique : « Selon Leibnitz, l’espace, qui nous apparaît comme une extension divisible et mesurable, est en réalité seulement un ordre intellectuel, l’ensemble des relations instituées par Dieu entre les monades. L’espace n’est rien sans les choses, si ce n’est la possibilité de les mettre. L’espace disparaîtrait donc entièrement quand on supprime les choses et serait seulement pensable dans les réalités actuelles. » S’il en est ainsi, l’espace euclidien est un concept issu de l’expérience perceptive, et les axiomes géométriques ne sont rien de plus que des constructions inductives, de sorte qu’il faut dire : « Nous n’avons jamais découvert jusqu’à présent un espace enfermé par deux droites. », et non : « Deux droites ne peuvent contenir un espace. » Si Leibnitz a raison, la géométrie euclidienne n’est pas une science universelle et nécessaire, mais une sorte de physique intuitive. Si Leibnitz a raison, les notions géométriques ne sont pas extraites de la vraie nature de l’espace, mais forgées arbitrairement – opinion contre laquelle Kant s’insurgeait depuis 1763. Kant à cette époque admettait un espace absolu « indépendant de l’existence de toute matière ». Comme à propos du temps il était un adepte de la conception newtonienne.

 P.56 : Pour Leibnitz, l’étendue, c’est-à-dire l’espace continu des géomètres, est un « phénomène » (au sens péjoratif d’« apparence »). Toute la continuité est une chose « idéale » Et l’espace quantitatif et mesurable n’est qu’une imagination bien fondée (dès lors que la distance spatiale traduit une relation qualitative d’ordre entre les substances) mais, enfin et surtout, une imagination.

Ernst Mach (1836-1916) a relayé à son époque d’activités scientifique et philosophique le point de vue de Leibnitz donc le rejet de l’espace absolu et du temps absolu. Il est même certain que, grâce à son travail critique sur la conception newtonienne de l’espace et du temps, il a contribué à l’émergence des lois de la relativité. A. Einstein a toujours prétendu qu’il avait trouvé chez ce penseur la source de ses intuitions fondamentales qui le mèneront à la formulation de la relativité générale.

Il n’en reste pas moins que réalité ou irréalité du temps et de l’espace est toujours aujourd’hui un sujet de controverses fondamentales, perpétuelles, entre les physiciens.

Dans mon article du 27/08/2014 : ‘Un authentique Big Bang ; Fracturer le masque parfait de la R.R.’, je mets en avant la thèse que l’intelligence primordiale au tout début de la lignée du genre humain a assuré pour des raisons vitales une appropriation-réduction de la notion d’espace parmi toutes les possibilités offerte par la Nature. Il se trouve, et j’en suis fort heureux, que S. Dehaene nous révèle qu’ainsi notre cerveau fonctionne : « …notre cerveau continue de s’interroger, inconsciemment, sur toutes les possibilités et se prépare à changer d’avis à tout instant. Pourtant, consciemment, nous ne percevons qu’un seul échantillon parmi toutes les possibilités… ». Voir son livre ‘Le code de la conscience’ d’octobre 2014, O. Jacob, voir mon article du 14/10.

Selon ma thèse l’espace comme le temps d’ailleurs sont fondés par l’être pensant par une opération de sélection-réduction de toutes les possibilités offertes par la Nature. Le référentiel original, primordial, est évidemment, depuis, à jamais perdu. Dans l’article du 27/08/2014, j’ai tenté d’appréhender les conséquences que cela pouvait avoir sur la grandeur physique de premier ordre c’est-à-dire : C, en ces termes : « La vitesse C, nous est utile, elle témoigne de notre capacité actuelle d’investissement intellectuel des propriétés de la Nature et tout ce qui lui est corrélée, elle marque en fait une frontière, un horizon, de ce que nous pouvons savoir de la nature, de Notre univers. En fait peut-être que ce que nous appelons la lumière n’a pas de vitesse du tout et, finalement, c’est une façon erronée de l’identifier ! Et si mobilité de la lumière, il y a, elle devrait être appréciée qualitativement d’une façon différente. »

Avec C, ses propriétés, ainsi que toutes les contraintes qui de fait s’imposent en tant que contraintes finales, indépassables, (par exemple : nous ne sommes pas capables de penser à de la matière qui n’obéisse pas à E = mc2), peut être que nous sommes confrontés aux limites de l’exploitation du caractère spécifique du concept d’espace résultant de la sélection-réduction de l’intelligence primordiale.

La lumière est dans la Nature, elle nous détermine, elle est inscrite dans ce que je désigne notre part d’’Être de la Nature’, en conséquence à son propos les voies de l’’Idéalisme Transcendantal[1]’ ne peuvent valoir. Elle est un constituant fondamental de cette Nature de Notre univers que nous décryptons et à ce titre elle ne peut pas être pleinement décrite par des grandeurs qui auraient leurs fondements en dehors de sa propre nature. Ceci vaut tout autant que nous considérions, d’une part, que l’espace et le temps soient donnés dans la Nature (comme cela est explicitement considéré par l’hyper majorité des physiciens) ou, d’autre part, qu’ils soient fondés, comme je le propose, par le sujet pensant[2]. En ne sachant considérer la lumière qu’aux moyens de l’espace et du temps nous ne saisissons dans le filet de notre intelligence qu’un ersatz de ce que serait naturellement la lumière[3].

Dans l’article du 27/08, j’ai entrepris, à partir de la conception ‘traditionnelle’ de la lumière, un processus de déconstruction de notre façon d’interpréter les propriétés physiques de Notre univers. Immédiatement, on pourra me dire que rejeter l’idée qu’il soit attribué une vitesse à la lumière et qu’elle soit quantifiée par C est absurde. Tout le monde admet que le rayonnement émis par notre astre met de l’ordre de 8 minutes pour nous parvenir. Je peux répliquer : oui, peut-être, mais par quel moyen avons-nous déterminé la distance entre la terre et le soleil ? Quand faisons de la physique sans exploiter directement ou indirectement la lumière comme intermédiaire ? Nous sommes peut-être à ce propos dans la situation de la poule et de l’œuf. Serge Haroche, le rappelle : « L’essentiel de l’information que nous recevons du monde vient de la lumière. » En résumé, je propose de considérer que la lumière est dans la Nature de l’univers dans lequel nous sommes centrés alors que l’espace et le temps n’y sont pas car ce sont des outils fondés par nous-mêmes.

Si on prend en compte le principe de complémentarité et les expériences qui le mettent en évidence : lorsque dans l’interféromètre nous avons des informations spatio-temporelles sur la trajectoire de l’objet matériel ou immatériel qui le parcourt, l’apparaître matériel ou ponctuel de l’objet s’impose. Lorsque nous n’avons aucune information spatio-temporelle sur la trajectoire effective, l’apparaître ondulatoire s’impose. La lumière étant l’archétype de la représentation ondulatoire on constate que ce mode est autonome vis-à-vis d’un savoir spatio-temporel le concernant. Fondamentalement le mode ondulatoire de la lumière ne véhicule aucune information spatio-temporelle, c’est le physicien qui projette cette information pour les besoins de la cause qui sont ceux, entre autres, du traitement mathématique actuel et ceux de l’échange intersubjectif.

La propriété basique qui conduit à la Relativité Restreinte : c’est la non-additivité à la vitesse de la lumière (telle que nous la concevons et la formulons) de toute autre vitesse d’objet effectivement mesurable par le ‘sujet pensant’ sous la forme habituelle : Δl/Δt. Durant notre scolarité élémentaire, parfois en recevant un coup de règle sur les doigts, on a tous entendu dire : « On ne peut pas additionner des choux et des carottes. »

Je n’ai pas particulièrement envie de donner raison à S. Hawking mais si de facto c’est par une extrapolation abusive et illégitime que nous attribuons la vitesse, finie, C de déplacement à la lumière alors, effectivement, l’horizon du trou noir n’a plus de raison d’être. Mais on ne sait toujours pas clairement, pourquoi, au début de cette année, S. Hawking a changé de pied sur ce sujet.

Si ma thèse a un début de validité, on devine les potentialités de révisions profondes de la genèse de notre univers. Le rayonnement fossile, tel que nous le décrivons, n’est plus le substrat de l’histoire de cette genèse que l’on croyait aussi sûr, l’hypothèse de la matière noire pourrait ne plus devoir s’imposer et celle de l’énergie sombre non plus, etc…, etc…

 



[1]Transcendantal : hors de toute détermination empirique.

[2]La citation de l’interview de S. Dehaene, au début de l’article, est très importante pour conforter ma thèse, toutefois je me dois d’être respectueux du travail de l’auteur qui évoque des prédispositions si indispensables (sic)de compétences spatiales et numériques. Et ce sont ces prédispositions qui, selon moi, sont évidemment les préalables pour qu’émergent des dispositions à fonder chez l’homme, uniquement chez l’homme, l’espace et le temps. Cette fondation passe par une intériorisation. C’est évidemment cette aptitude qui le différencie des autres primates, mammifères, etc… Fondation, au sens de processus d’une saisie nécessaire par une conscience (probablement) embryonnaire, de l’espace et du temps, et qui est concomitante à la naissance de l’homme. On pourrait donc parler d’un processus biunivoque de fondation.

[3]C’est-à-dire qu’il faut aller plus loin que Maxwell pour atteindre plus complètement les propriétés quantitatives et qualitatives de la lumière.

Partager cet article
Repost0
14 octobre 2014 2 14 /10 /octobre /2014 08:03

 

 

 

        

                                        Stanislas Dehaene : suite.

On peut considérer que la publication du livre de S. Dehaene est pour nous un bel événement. En conséquence j’en profite pour prolonger l’exploitation de la matière de ce livre en rapport avec l’ensemble des sujets qui nous préoccupent depuis plusieurs années.

p. 133, paragraphe : Statistiques inconscientes, échantillonnage conscient 

Selon S. Dehaene, globalement comment ça fonctionne ? :

« Ma vision de la conscience suggère une répartition naturelle du travail. Dans les profondeurs de l’inconscient, une armée de travailleurs souterrains effectue un énorme travail de fond : tous traitent des monceaux de données. Pendant ce temps, au sommet, un petit groupe distingué d’administrateurs de haut niveau, sur la base d’un condensé de la situation, réfléchit aux décisions conscientes avec toute la pondération nécessaire. »

En conséquence : « Notre conscience, par contre, ne nous donne qu’un aperçu très réduit de cet univers probabiliste – ce que les statisticiens appellent un « échantillon » de la distribution des possibles (sic). La conscience n’hésite pas à simplifier les choses : elle résume le monde à sa plus simple expression, un aperçu suffisamment condensé pour être utilisable par nos systèmes de prise de décision. »

P.136 : « Une armée de processeurs inconscients évalue toutes les possibilités, mais notre conscience n’en reçoit que la synthèse. »

P.138 : « Ce que nous voyons à un instant donné est donc, le plus souvent, l’interprétation la plus probable, mais d’autres possibilités font irruption dans notre conscience, avec une durée proportionnelle à leur vraisemblance. L’inconscient calcule toutes les probabilités, tandis que la conscience les échantillonne au hasard. »

Ce que nous signifie S. Dehaene c’est comment le sujet pensant fonde ses vérités qui sont le fruit de l’interprétation la plus probable. En conséquence, il vaut la peine de s’interroger sur la problématique de la vraisemblance. Il est implicitement indiqué que les autres possibilités ont des vraisemblances relatives. Comment s’établit cette hiérarchie ? Est-ce que ce sont des vraisemblances qui sont établies par notre entendement pur inhérent au sujet pensant ? A priori la réponse ne peut être que négative. Par contre la vraisemblance a toutes les chances de s’établir sur des acquis empiriques en fonction de l’expérience, de l’éducation, de la culture, des préoccupations du ‘sujet pensant’. Ce qui serait intéressant de comprendre, c’est comment la référence au vraisemblable peut évoluer. C’est-à-dire que, ce qui n’était pas vraisemblable, ou peu, pour la conscience, avant, le devient un peu plus, voire plus, après coup[1].

Je veux illustrer mon propos avec l’exemple suivant qui me touche directement. J’ai créé mon blog il y a maintenant 3 ans avec l’idée principale que E = mc2, n’est pas la panacée et que la constante C : ‘vitesse’ de la lumière n’est universelle que dans la contrée de notre capacité de penser actuelle. Depuis, j’ai toujours eu comme retour que ces hypothèses étaient invraisemblables, gratuites, sauf que depuis quelques mois ces hypothèses deviennent formulables. Pas plus tard que ce matin (le 10/10/2014), je peux lire dans l’annonce d’un colloque (qui aura lieu 3 jours plus tard) : « Existe-t-il des interactions se propageant plus vite que la lumière ? » Qui est-ce qui fait qu’au sein de la communauté des physiciens cela devienne maintenant, pour quelques un, moins invraisemblable de penser : plus vite que C ? Toujours est-il que selon moi, ce n’est pas ainsi qu’il faut aborder ce sujet. Comme je l’ai proposé dans l’article : « Un authentique Big-Bang ; Fracturer le masque parfait de la Relativité Restreinte. », du 27/08/2014, il faut questionner les conditions de possibilités de l’anthrôpos de transcender les déterminations qui sont actuellement les nôtres à propos de l’exploitation de l’espace et du temps car comme je l’indiquai, p.1 : «Il en est de même pour les autres grandeurs qui vont suivre dans l’article. Ce qu’il faut retenir c’est que toutes les grandeurs qui sont appropriées par l’intelligence primordiale et dont la référence première est offerte par la Nature, ne le sont que par un processus de réduction vis-à-vis de toutes les possibilités (sic) qui sont offertes par cette Nature. »  Merci S. Dehaene d’apporter de l’eau à mon moulin.

Dans ‘Le code de la conscience’, il y a un sujet, dans le chapitre 4, aussi très intéressant qui est traité : ‘Chronométrer l’accès à la conscience’, et : ‘La conscience en retard sur le monde’. Selon les personnes, il faut entre 1/3 et 1/2 seconde pour prendre conscience d’un évènement. P.177 : « Une conséquence importante de ces découvertes est que notre conscience est en retard sur les événements. Non seulement nous ne percevons qu’une toute petite fraction des signaux qui bombardent nos sens, mais quand nous y parvenons, c’est avec un délai important. A ce titre, notre cerveau ressemble à un astronome qui recueille la lumière des étoiles : parce que la vitesse de la lumière n’est pas infinie, la nouvelle de l’explosion d’une supernova ne lui parvient que des millions d’années après qu’elle a eu lieu. De même, parce que notre cerveau accumule les données avec lenteur, ce que nous jugeons comme le « temps présent » de la conscience reste à la traîne de la réalité physique. La prétendue « vitesse de la pensée » n’a rien d’extraordinaire : notre cerveau est tellement plus lent qu’un ordinateur qu’il lui faut au moins un tiers de seconde pour réagir consciemment. Bien souvent, cette durée s’allonge lorsque l’entrée sensorielle est si faible que le cerveau doit accumuler de nombreuses données avant de franchir le seuil de la prise de conscience (cette situation est semblable à celle de l’astronome qui prolonge l’exposition pendant plusieurs minutes afin de photographier la lumière des étoiles les plus faibles)… « Nous sommes tous aveugles aux limites de notre attention et nous n’avons aucune conscience que notre perception subjective est en retard sur le monde extérieur… »  

Depuis de nombreuse années, j’ai formulé et développé l’hypothèse de τs (Temps propre du Sujet : TpS) apprécié avec un ordre de grandeur de 10-25seconde et je le qualifie de point aveugle de l’intelligence humaine. Est-ce que j’ai le droit d’envisager une convergence entre le point aveugle de la conscience et le point aveugle de l’intelligence ? Evidemment cela ne se peut directement, la conscience et l’intelligence sont deux instances très distinctes. A priori aucun pont de correspondance ne peut être établi entre ces deux moments aveugles du sujet pensant. Ce sont deux déterminations qui n’ont pas les mêmes conséquences. La période aveugle de la conscience n’est certainement pas un obstacle pour l’être pensant dans sa quête de connaissance et de compréhension du monde, ses conséquences sont effaçables (S. Dehaene, cite des exemples p. 178 – 180). La période aveugle de la conscience s’impose pour des raisons fonctionnelles. Le fonctionnement de notre cerveau, tel que nous le connaissons aujourd’hui met en relief ce que sont ses contraintes. Je fais l’hypothèse du point aveugle de l’intelligence humaine, TpS, pour des raisons existentielles. C’est un intervalle de temps inexpugnable (il pourrait rendre compte : du pourquoi de l’intrication), ses conséquences ne sont pas effaçables, donc il n’est pas possible de penser qu’il puisse y avoir un rapport d’homothétie entre ces deux moments aveugles. Toutefois pas de potentialité de conscience = pas d’intelligence, dans cette situation c’est l’instinctuel qui constitue la référence.

A l’origine de l’hypothèse TpS, je fais référence à une durée (insécable) de retrait, une durée de renouvellement, de réinitialisation (de son unité dans le monde), de l’être pensant. C’est pour cette même raison que S. D. a identifié une durée aveugle de la conscience, cela correspond à la nécessité d’une réinitialisation de l’activité de la conscience occupée par la situation précédente. Il y a là, une contrainte commune identifiée que j’ai expliquée pour une part, à propos de TpS, comme une condition de la mobilité de la pensée et partant du langage et d’autre part le moment aveugle de la conscience mis en évidence par S. Dehaene s’explique comme une nécessité de recouvrer une disponibilité de la conscience.

A des niveaux très distincts, ces deux atavismes ont une fonction de réinitialisation, de régénérescence, de l’être pensant dans un cas et du cerveau de l’être pensant dans l’autre cas. Je m’appesantis sur cette similitude, parce qu’il me semble que ce sera très difficile voire impossible d’accéder à l’identification directe de τs par contre il sera peut être possible, sans chercher à établir un rapport d’homothétie, de valider l’hypothèse de τs, comme une hypothèse légitime voire souhaitable, sur la base de résultats relais, de concepts relais, identifiables, permettant ainsi de concevoir une représentation cohérente des modalités et des capacités d’investissement du ‘sujet pensant’ dans la dynamique de sa quête irrépressible de la connaissance du monde. 

Si le point aveugle de la conscience est à coup sûr une détermination du sujet pensant, il ne semble pas qu’il soit un obstacle rédhibitoire dans sa quête de la connaissance du monde, par contre à l’évidence TpS est un déterminant aux conséquences rédhibitoires. A nouveau, je propose d’exploiter un résultat expérimental décrit dans le ‘Code de la Conscience’, p.136, « Si vous regardez un bâton par le trou d’une serrure, vous ne parvenez pas à déterminer comment il bouge, car une infinité de mouvements réels sont compatibles avec le mouvement observé. Chaque neurone de l’aire MT/V5 est soumis à cette ambiguïté fondamentale – et pourtant nous n’en avons pas conscience. Même dans les pires circonstances, nous ne percevons qu’un mouvement particulier, mais jamais un ensemble de probabilités. Notre cerveau prend une décision et nous donne à voir l’interprétation qu’il juge la plus probable. En l’occurrence, c’est celle qui minimise le déplacement : nous voyons le bâton se mouvoir dans une direction perpendiculaire à lui-même. Une armée de processeurs inconscients évalue toutes les possibilités, mais notre conscience n’en conçoit que la synthèse. »

Réfléchissons car ce résultat n’est pas banal. Premièrement et comme par ‘hasard’ le cerveau qui prend la décision sur l’interprétation de cette expérience opte pour le déplacement minimum. Ceci est vraiment en phase avec le principe de moindre action tel qu’il fut énoncé par Pierre Louis Moreau de Maupertuis, en 1744. S. Dehaene dit : « Notre cerveau » ; je reprends : « Le cerveau », parce qu’il me semble important de distinguer les cerveaux imprégnés intellectuellement de ce principe de moindre action de ceux qui ne le sont pas du tout. Si le résultat est le même dans ces deux cas de figure, alors S. D. a raison, on peut dire « Notre cerveau » et dans ce cas nous avons à faire à une détermination du sujet pensant dont il faut comprendre son origine, sinon il faut faire la distinction expérimentale, comprenant des observateurs ayant, d’un côté, et n’ayant pas, d’un autre côté, la connaissance du principe de Maupertuis.

Revenons sur les conditions de l’expérience ci-dessus : on regarde par le trou d’une serrure, c’est-à-dire qu’on regarde dans les limites d’une distance spatiale imposée et en conséquence on ne peut pas décrire le mouvement réel du bâton, mais simplement donner une description de ce mouvement tel qu’il nous apparaît. Nous n’avons pas accès à la réalité du mouvement mais un collectif d’observateurs homogène sur le plan intellectuel peut concevoir et partager une vérité fondée sur l’apparaître du mouvement et le penser avec force comme étant le mouvement réel.

Maintenant, je propose de reprendre l’idée de cette expérience mais les limites de l’observation sont celles d’une distance temporelle et c’est τs. Eh bien, les conséquences sont les mêmes. Il n’est pas possible de voir la chose telle qu’elle est mais on peut simplement voir qu’à travers le filtre de la contrainte temporelle.  Ce résultat illustre ma thèse que le sujet pensant ne peut accéder au monde réel.  

 



[1]Je fais référence à l’article : ‘Les intuitions en géométrie sont-elles universelles ?’ dans Techno-Science, le 25/05/2011, qui rend compte de l’analyse d’un test entre des Indiens Mundurucus, vivant en Amazonie dans un territoire isolé : 22 adultes et 8 enfants de 7 à 13 ans, n’ayant jamais reçu d’instruction en géométrie et une trentaine d’adultes et d’enfants originaires de France et des Etats-Unis qui avaient étudié la géométrie… Dans un univers sphérique, il s’avère que les Indiens d’Amazonie répondent mieux que les Français et les Nord-américains. Ces derniers auraient de par l’apprentissage de la géométrie à l’école, acquis une plus grande familiarité avec la géométrie plane qu’avec la géométrie sphérique. On constate dans cet article que les représentations induites par les critères de la géométrie sphériques restent vraisemblables chez les Mundurucus. 

 

 

Partager cet article
Repost0
1 octobre 2014 3 01 /10 /octobre /2014 13:46

 

 

 

                                         Au sein d’une éternité parmi tous les possibles…

 

Stanislas Dehaene, publie un nouvel ouvrage : ‘Le Code de la Conscience’, à paraître le 8/10/2014, édit. Odile Jacob. La revue ‘La Recherche’, d’octobre 2014, propose un article : ‘Science avec conscience’ qui commente la valeur de ce travail, avec la publication d’un extrait. J’ai déjà eu l’occasion d’exprimer mon grand intérêt pour les travaux de S. Dehaene et j’ai tenté de vous le faire partager dans plusieurs articles dont celui du 2/11/2012 : ‘Thomas Bayes dans le cerveau ?’

 

Dans la suite du présent article, je vais faire référence à deux articles du Blog datant du 27/08/2012 : ‘D’infinis précautions.’, et du 21/12/2011 : ‘L’être humain est-il nu de toute contribution lorsqu’il décrypte et met en évidence une loi de la Nature ?’ Enfin plus récemment le 27/05/2014 : ‘Persévérons car cela progresse dans le bon sens…mais lentement en zigzag’, notamment l’annexe de cet article.

 

Je suis désolé de commencer par toutes ces références mais cela met en évidence que ce n’est que par une succession d’inflexions que l’on peut traiter du sujet de la connaissance, prétendue universelle, en ce qui concerne la connaissance en physique. Affirmer que ‘La physique n’est pas une science qui nous conduit à la connaissance de la réalité. Elle conduit à établir des vérités fondées.’ (le 22/03/2014), ne va pas de soi car cela constitue un tremblement à l’égard des fondements de notre formation intellectuelle première et d’une croyance culturelle occidentale très ancrées. Donc tout ceci ne doit pas être provocant mais matière à une réflexion approfondie. Chaque nouvelle étape proposée doit légitimer ou rectifier si nécessaire la/les inflexion(s) précédente(s), bref, il faut dans la durée avoir des convictions chevillées au corps. A titre d’illustration, l’article de ‘La Recherche’, page 68, s’intitule ‘Science avec conscience’. Pour moi, l’affirmatif n’est pas encore à l’ordre du jour et j’aurais proposé ce titre à l’interrogatif. Par exemple un fervent platonicien, (ce que je ne suis pas, mais je ne peux pas ignorer leur influence dominante), affirmerait que l’émergence de la connaissance en physique n’a rien à faire avec une conscience créatrice puisque les lois mathématiques de la Nature sont déjà là, inscrites dans la Nature. Il suffit donc de savoir les reconnaître, c’est donc essentiellement un travail de ‘lecture’.

 

Dans la description introductive de mon blog, j’indique que le référentiel principal de celui-ci est anthropocentrique, c’est-à-dire que les connaissances scientifiques (en physique fondamentale) sont avant tout le fruit des capacités cérébrales intrinsèques et évolutives du sujet pensant. Je comprends que les travaux de S. Dehaene contribuent à conforter l’assise sur laquelle je développe et vous soumets ma réflexion.

 

Dans la ‘Recherche’, p.69, je cite S. Dehaene : ‘Ce que nous voyons à un instant donné est donc, le plus souvent, l’interprétation la plus probable, mais d’autres possibilités font irruption dans notre conscience, avec une durée proportionnelle à leur vraisemblance. L’inconscient calcule toutes les probabilités, tandis que la conscience les échantillonne au hasard.

 

Cette loi probabiliste démontre qu’au moment même où nous percevons l’une des interprétations d’une scène visuelle, notre cerveau continue de s’interroger, inconsciemment, sur les autres possibilités et se prépare à changer d’avis à tout instant. Comme le dit Pierce : « l’étoffe de notre savoir n’est qu’un entrelacs d’hypothèses pures confirmées et raffinées par l’induction. » Pourtant, consciemment, nous ne percevons qu’un seul échantillon parmi toutes ces possibilités (sic)… Echantillonner l’espace des possibles semble être l’apanage de la conscience. »

 

« Les processus inconscients sont donc, dans une certaine mesure, plus objectifs que la perception consciente. Notre armée de neurones inconscients évalue toute la distribution de probabilité des états du monde, tandis que la conscience la réduit impitoyablement à quelques échantillons. Les processus inconscients travaillent avec des probabilités continues, mais notre esprit conscient n’a accès qu’à des symboles discrets dont le contenu bascule soudainement, en tout-ou-rien. L’inconscient quantifie, la conscience discrétise. »

 

« Cette organisation ressemble étrangement à celle de la mécanique quantique (sic). En effet celle-ci nous dit que la réalité est faite d’une superposition de fonctions d’ondes qui gouvernent la probabilité de trouver une particule dans un certain état… Or les données que nous venons d’examiner montrent qu’un phénomène similaire survient dans le cerveau : le simple fait de prêter attention à un objet fait s’écrouler la distribution de probabilité de toutes ses interprétations possibles, et ne nous donne à voir que l’une d’entre elles. La conscience se comporte comme un instrument de mesure qui discrétise le réel et ne nous donne à voir qu’un minuscule aperçu de la vaste étendue des calculs inconscients. »

 

Dans l’article ‘D’infinis précautions’, j’ai proposé au final, la réalisation d’une expérience de physique quantique qui place au centre de celle-ci l’investissement cérébral de l’observateur et qui exploiterait les moyens des neurosciences cognitives et d’imagerie cérébrale. Les travaux de S. Dehaene me conduisent à persister de penser que celle-ci devrait être réalisée.

 

Cet article vise évidemment à vous communiquer l’envie de lire à la fois l’article de la ‘Recherche’ et lire directement le livre quand celui-ci sortira dans les librairies.

P.S. l'article du 11/01/2014 : 'L'étrangeté quantique, une illusion ?', est aussi un article référence à propos de ce sujet.

Partager cet article
Repost0
23 septembre 2014 2 23 /09 /septembre /2014 11:41

 

 

 

 

 

 

Descartes, Spinoza… merci Maurice Merleau-Ponty[1].

            Grâce à l’ouvrage cité de M. Merleau-Ponty, j’ai pu constater après coup que certaines des idées  mises en avant pour étayer le contenu de l’article un ‘Authentique Big-Bang’ ont déjà été débattues lorsqu’il s’est agi d’expliquer l’évolution du rapport d’intelligence entre le sujet pensant et la nature. Par exemple, comment l’être pensant puise dans sa relation primordiale à la nature, ce qui va forger sa compréhension, sa représentation, sa pensée, notamment de l’espace ?

Rappel de ce que j’ai proposé dans l’article en question. « Ainsi, c’est un authentique ‘big bang’ qui s’est produit quand a surgi dans la Nature une première intelligence, surgissement que l’on situe à peu près entre 10 à 8 millions d’années. Cette intelligence primordiale de notre ancêtre, qui est à l’origine de la trace de la lignée humaine, s’est différenciée des autres hominoïdes en s’installant dans l’espace et dans le temps. C’est donc une ‘Présence’ embryonnaire qui s’installe. On peut concevoir que cet ancêtre intègre premièrement l’idée d’espace parce que la nature lui offre le support concret qui permet le déplacement, le changement de lieu, ainsi que le repérage concret, physique, des lieux qui diffèrent. L’idée de l’espace s’impose sur une base proprement fonctionnelle, elle est corrélée significativement avec le support proprement tellurique et elle résulte d’un rapport premier ‘d’intelligence’ avec ce qui est offert par l’environnement naturel immédiat. C’est une appropriation, comme toute appropriation, elle se fait par un conditionnement aux fins qui lui sont attachés (pensons à la multitude d’étalons de distance qui ont été inventés par l’homme). L’Idée de l’espace au sens exprimé par Platon ne se forgerait, selon ce processus, bien après coup, à la suite d’un développement intellectuel déjà très sérieusement élaboré qui favoriserait le processus d’une abstraction idéale plus complète, exactement parfaite, (détachée de son conditionnement fonctionnel) qui conduirait à l’Idée de l’espace. »

Avant tout, je cite, ‘la Nature’, p. 335 « Par suite le rapport homme – animalité n’est pas un rapport hiérarchique, mais un rapport latéral, un dépassement qui n’abolit pas la parenté. Même l’esprit est incroyablement pénétré de sa structure corporelle : l’œil et l’esprit. C’est à partir du visible que nous pouvons comprendre l’invisible. A partir du sensible que nous pouvons comprendre l’Etre, sa latence et son dévoilement…» Cette conviction du rapport latéral a été un point d’appui important dans mon article du 27/08, et à ce titre j’ai cité un ouvrage plus récent : ‘La fin de l’exception humaine’.

Dans ‘La Nature’ de M. Merleau-Ponty, p33-34 : « Lorsque nous pensons l’espace, nous pensons une unité spirituelle ; lorsque nous le voyons, nous nous trouvons en face de parties juxtaposées. Le mode d’action, dans cette étendue réelle, ne peut être que le mouvement : d’où le mécanisme cartésien. Spinoza, au contraire, ne connaît pas cette opposition entre l’étendue réelle et l’étendue pensée. Le rapport entre les deux termes est un rapport tout autre ; c’est un rapport intrinsèque, une corrélation entre l’idée et son idéat. (Idéation : processus de la formation et de l’enchaînement des idées). L’idée de l’espace intelligible et l’idée de l’espace perçu ne sont séparées que par une différence d’idéation, plus ou moins finie. Aussi le mécanisme ne se retrouve-t-il pas chez Spinoza : le mathématisme enveloppe tout. Les actions physiques ne sont plus réduites à des transports de mouvements, mais à des relations intelligibles. Le possible et l’actuel sont équivalents

« Ce réalisme est-il une survivance ? Certes, le mécanisme cartésien, au sens étroit d’explication du monde par des machines simples, est sans avenir scientifique. Mais il est intéressant dans la mesure où il traduit une résistance à une idéalisation du monde. Nous ne sommes pas en relation avec des corrélats de pensée, mais avec des réalités. Réalités irréductibles, réalité qui ne peut être comprise par l’esprit pur. C’est déjà ce que Kant exprimera en disant qu’il y a dans les objets de l’espace quelque chose qui résiste au pur entendement… »

 

 

La question que nous pouvons nous poser est la suivante : est-ce que nous avons la capacité de concevoir une pensée de l’espace pur, sans que soit convoqué concomitamment le processus (le mode d’action) par lequel nous avons pu nous l’approprier en tant qu’être pensant ? Si nous ne pouvons pas penser l’espace purement, sans qu’il lui soit attaché le mouvement qui est à l’origine de la genèse de sa ‘globalisation-abstraction’, alors, à la pensée objective de l’accroissement de l’espace se trouve automatiquement associée la nécessité souterraine d’une action induisant le mouvement associé. Je pense concrètement à la problématique de l’énergie sombre qui serait le moyen d’expliquer la raison d’une observation de l’accélération de l’expansion de Notre univers. C’est selon la majorité de la communauté scientifique ce que nous observerions par l’intermédiaire de l’évaluation des distances ‘réelles’ des Supernova de type IA. Expansion accélérée de Notre univers, signifie que depuis peut-être plus ou moins 8 milliards d’années, celui-ci a sa dimension spatiale qui s’accroît avec le temps a une vitesse de plus en plus élevée, quittant ainsi un régime d’expansion à vitesse constante définie par la loi de Hubble.

C’est notre espace qui s’accroît et concrètement nous le visualisons indirectement par un redschift plus important, c’est de l’espace conquis, de l’espace neuf, une extension d’une quantité d’apparaître nouveau ! Devons-nous être étonnés que soit associée à cet accroissement une énergie qui en serait la cause ? Parmi les explications, il y en a une qui prend en considération l’idée que cette énergie est sous-jacente à l’espace-temps. Lorsque celui-ci s’accroît, de fait, il libère (il fait apparaître) cette énergie qui contribue à un nouveau supplément d’expansion, ainsi de suite. C’est la thèse de la quintessence. L’autre thèse qui produit le même effet est celle de l’énergie sombre, dont la densité est constante, qui est interprétée comme une propriété de l’espace-temps.

            Si, comme je le propose, on pense qu’il n’y a pas de mécanisme qui pousse à une extension effective et accélérée de Notre univers, mais plutôt qu’il y a une conquête intellectuelle, grâce à l’accroissement de nos capacités d’inférence, de l’espace existant de Notre univers, cela n’exclut pas, étant donné ce qui a été exposé précédemment, que nous y associons naturellement une énergie active. Cette énergie est virtuelle comme le sont les particules des diagrammes de Feynman. Ici donc, je privilégie une explication anthropocentrique, j’assume pleinement l’intitulé de mes cours : ‘Faire de la physique avec ou sans ‘Présence’’. Ce sont les déterminations fondamentales de l’être pensant qui expliqueraient la problématique de l’énergie sombre.

            Etant donné ce qui précède, il est normal que l’on me dise que mon raisonnement relève d’un parti pris et qu’il ne tient pas compte des observations qui ont été accumulées. En effet, on considère, depuis la fin 1990, que l’on est en mesure d’observer cette accélération de l’expansion de l’univers. Les résultats obtenus s’appuient sur la certitude que les SN IA, doivent être considérées comme des chandelles standards, c’est-à-dire que, qu’elles que soient les supernovae, si elles sont du type IA, elles émettent la même quantité de lumière et par conséquent le flux de lumière recueilli par nos télescopes est classiquement inversement proportionnel au carré de la distance parcouru jusqu’à nos détecteurs.

Il se trouve que de fait, les considérations que nous faisons valoir à propos de nos observations, sont fragiles et relèvent d’un certain parti pris. Nos chandelles standards ne le sont peut-être pas car, évidemment, nous ne pouvons pas reproduire ce phénomène en laboratoire. Tout est basé sur l’idée que nous comprenons parfaitement le mécanisme de formation et d’effondrement des étoiles, particulièrement celui qui conduit aux SN IA. Cette assurance semble forte puisqu’en 2011 il a été attribué, aux trois physiciens : Paul Perlmutter, Brian Schmidt, Adam Riess, le prix Nobel récompensant leurs travaux sur l’accélération de l’expansion de l’Univers, comme si la chose était entendue. On peut s’en étonner car il n’est pas dans l’habitude de ce jury d’être aussi prompt.

De toute façon on peut répliquer que s’il y a erreur, excès d’interprétation, nous ne quittons pas pour autant la voie de la démarche scientifique traditionnelle. Sauf que l’ampleur de l’erreur peut être bien plus significative que ce que l’on croit actuellement. En effet, je cite :

  1. En astrophysique on découvre actuellement, grâce aux moyens d’observations de plus en plus performants, que des résultats qui semblaient établis ne le sont pas effectivement. Ainsi on ne trouve pas le taux de lithium nécessaire au scénario de la genèse de l’univers. Ce résultat paru dans la revue Monthly Notices of the Royal Astronomical Society démontre que le "lithium (Le lithium est un élément chimique, de symbole Li et de numéro atomique 3.) manquant", l'un des mystères de l'astrophysique (L’astrophysique est une branche interdisciplinaire de l'astronomie qui concerne principalement la physique et l'étude des propriétés des objets de l'univers (étoiles, planètes, galaxies, milieu interstellaire par exemple), comme leur...) moderne, n'est pas seulement circonscrit à la Voie Lactée (La Voie lactée (appelée aussi « notre galaxie », ou parfois simplement « la Galaxie », avec une majuscule) est le nom de la galaxie dans laquelle se situent le Système solaire (dont la Terre,...): c'est un problème universel. Le lithium est l'un des rares éléments chimiques (avec l'hydrogène (L'hydrogène est un élément chimique de symbole H et de numéro atomique 1.) et l'hélium) à avoir été formé juste après le "Big Bang (Le Big Bang est l’époque dense et chaude qu’a connu l’univers il y a environ 13,7 milliards d’années, ainsi que l’ensemble des modèles cosmologiques qui la...)" pendant les fameuses trois premières minutes ( Forme première d'un document : Droit : une minute est l'original d'un acte. Cartographie géologique ; la minute de terrain est la carte originale, au...) de l'existence de l'Univers (L'Univers est l'ensemble de tout ce qui existe et les lois qui le régissent.).

  2. De même, grâce à des observations très récentes : On découvre, le rôle inattendu des galaxies naines dans la formation des étoiles.
    Une équipe internationale d'astronomes, dont des chercheurs de l'Institut d'astrophysique de Paris (CNRS/UPMC) et du Laboratoire d'astrophysique de Marseille (CNRS/Aix-Marseille Université), viennent de mettre en évidence que les galaxies naines dans l'
    Univers (L'Univers est l'ensemble de tout ce qui existe et les lois qui le régissent.) lointain ont été des moteurs (Un moteur est un dispositif transformant une énergie non-mécanique (éolienne, chimique, électrique, thermique par exemple) en une énergie mécanique ou...) exceptionnels de la formation stellaire. L'analyse à grande échelle (La grande échelle, aussi appelée échelle aérienne ou auto échelle, est un véhicule utilisé par les sapeurs-pompiers, et qui emporte une...) de ce type de galaxies permet de faire une avancée importante dans la compréhension de l'évolution des galaxies et, avec elles, de l'histoire (sic) de l'Univers. Ces résultats ont été réalisés à l'aide de Hubble (Le télescope spatial Hubble (en anglais, Hubble Space Telescope ou HST) est un télescope en orbite à environ 600 kilomètres d'altitude, il effectue un tour complet de la Terre toutes les 100 minutes. Il est...), le télescope spatial (Un télescope spatial est un télescope placé au delà de l'atmosphère. Le télescope spatial présente l'avantage par rapport à son homologue...) de l'ESA et de la NASA (La National Aeronautics and Space Administration (« Administration nationale de l'aéronautique et de l'espace ») plus connue sous son abréviation...). Ils sont publiés depuis le 19 juin dans The Astrophysical Journal.

  3. ALMA sonde l'origine tumultueuse des galaxies à disque. Le 17/ 09

Des décennies durant, les scientifiques ont pensé (sic) que les fusions de galaxies se soldaient généralement par la formation de galaxies elliptiques. Toutefois, des chercheurs utilisant le réseau ALMA et de nombreux autres radiotélescopes viennent pour la première fois de démontrer que la fusion (En physique et en métallurgie, la fusion est le passage d'un corps de l'état solide vers l'état liquide. Pour un corps pur, c’est-à-dire pour une substance constituée de molécules toutes identiques, la fusion...) de galaxies conduit plutôt à la formation de galaxies à disque (Le mot disque est employé, aussi bien en géométrie que dans la vie courante, pour désigner une forme ronde et régulière, à l'image d'un palet — discus...). Ce résultat pour le moins surprenant serait même très fréquent. Il pourrait expliquer la raison pour laquelle les galaxies spirales ((voir page de discussion)) telle que la Voie Lactée (La Voie lactée (appelée aussi « notre galaxie », ou parfois simplement « la Galaxie », avec une majuscule) est le nom de la galaxie dans laquelle se situent le Système...) sont si nombreuses dans l'Univers (L'Univers est l'ensemble de tout ce qui existe et les lois qui le régissent.).

Avec ces quelques exemples, très récents, on peut constater qu’à propos de Notre cosmos, dans les années à venir, de nombreuses certitudes seront appelées à être plus qu’ajustées, certainement significativement modifiées. Ces exemples cités ne remettent pas en cause directement la problématique de l’accélération de l’expansion de l’univers mais devrait, comme cela est indiqué, remettre en cause notre conception actuelle de ‘l’histoire de l’univers’. Or avec l’hypothèse de l’énergie sombre, son effet survient dans le cours d’une histoire que nous avions conçue avant la découverte des SN IA, et en conséquence cette histoire a été modifiée.  

Comme on peut le constater, l’histoire que nous prêtons à Notre univers, pourrait être tout simplement l’histoire de notre savoir à propos de celui-ci et comme j’ai déjà eu l’occasion de le projeter : la dynamique authentique qui serait à l’œuvre, serait celle relative à la conquête, par le sujet pensant, de nouveaux espaces qui sont investis grâce au développement continu de nos capacités d’inférence. Comme j’aime à le rappeler, au sein d’une éternité, parmi tous les possibles… l’être pensant continuera d’anéantir les frontières qui feront front à l’expansion de l’Univers de sa connaissance.

 




[1] Je cite M. Merleau-Ponty en puisant dans l’ouvrage :’ les Notes du Collège de France : La Nature’, établi et annoté par Dominique Séglard. Edit. Le Seuil, 1995. Disparu brutalement en 1961, M. Merleau-Ponty est l’une des grandes figures de l’existentialisme français, héritier direct de Husserl et de Heidegger.

 

 

 

 

 

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens