Overblog
Suivre ce blog Administration + Créer mon blog
19 août 2015 3 19 /08 /août /2015 10:34

~~Fondamentalement : RENONCER.

Lorsque Planck a dû intégrer formellement, dans son équation de la densité d’énergie du rayonnement du corps noir, que l’échange d’énergie entre le rayonnement et la matière du corps noir se faisait par valeur discrète, il l’a fait par nécessité mais sans renoncer pour autant à dépasser a postériori cette discontinuité des échanges d’énergie. Par nécessité parce que la courbe représentant la variation de la densité d’énergie en fonction de la fréquence du rayonnement était expérimentalement bien connue. Et à la suite de bien des tâtonnements (les siens et ceux de ses contemporains), il a fini par constater que l’adéquation était obtenue lorsqu’il prenait en compte ce concept de la discontinuité de l’échange. Rappelons, parce que c’est essentiel, pour Planck c’était du provisoire car la continuité classique des échanges entre les différents éléments de la nature était définitivement établie et incontournable.

En conséquence cette conception des échanges d’énergie par quantum n’a pas été pensée a priori et n’était pas pensable a postériori par son découvreur. Malgré la signification physique apportée par Einstein en 1905 : E = hν, la certitude de Planck, que l’explication aux moyens de la physique classique s’imposera, continua d’habiter son esprit.

Une loi aussi fondamentale n’a donc pas été pensée et par ricochet cela a conduit au développement à l’aveugle de certains domaines de cette nouvelle physique parce que la loi de Planck est remarquablement exacte quand on se référe aux résultats expérimentaux. Tous les raisonnements qui obtiennent après coup de retrouver cette loi, d’un point de vue formel, sont validés, sans qu’ils soient pour autant a priori franchement cogités. La conception empirique s’impose. Il en est ainsi des propositions de Satyendranath Bose et partant de la statistique de Bose-Einstein et de son reflet fermionique : la statistique de Fermi-Dirac.

Empiriquement, des valeurs discrètes se sont aussi imposées en physique atomique pour rendre compte ce qui était observé à propos du rayonnement atomique, par exemple à propos des atomes hydrogénoïdes avec la formule de Balmer. La mécanique de Bohr-Sommerfeld postule que pour rendre compte des différentes longueurs d’onde des rayonnements émis il faut admettre que les électrons constitutifs de ces atomes orbitent en suivant des trajectoires qui ne peuvent être que spatialement distinctes. En faisant appel à la mécanique ondulatoire, ils déterminent que la dimension des orbites doit coïncider avec un nombre entier de longueurs d’onde.

De 1900, avec Planck, à la fin des années 1910, des observations accumulées concernant l’échelle atomique ont obligé les physiciens à admettre que les phénomènes observés pouvaient être intelligibles si, et seulement si, on acceptait l’idée qu’à cette échelle, les interactions, les échanges, entre matière et rayonnement ne pouvaient se faire qu’aux moyens, d’interactions, d’échanges, qui mettaient en évidence de valeurs discrètes qui sont les observables des grandeurs physiques en jeu.

« Ont obligé les physiciens à admettre… », est euphémique car très peu ne pouvaient admettre cette obligation (voir article du 06/08). Leurs références étant celles de la physique classique qui révélait continument une adéquation acceptable entre ce qui était pensé et ce qui était directement observé. Toutes les tentatives de ces physiciens de rétablir l’entendement réaliste classique pour rendre compte des propriétés physiques à l’échelle atomique échouèrent. Cet échec pouvait conduire à des tourments d’ordre déontologique comme le confiait H. A. Lorentz qui, dans son université, un jour de la semaine enseignait en amphi qu’en physique à l’échelle classique un électron sur une trajectoire circulaire rayonnait de l’énergie et donc la courbure de sa trajectoire sans cesse se modifiait et était donc de type spirale et l’autre jour de la semaine il enseignait que l’électron sur une orbite atomique ne rayonnait aucune énergie et en conséquence suivait une trajectoire stable.

Les fondateurs de la mécanique quantique ont donc postulé qu’il fallait renoncer, à vouloir rendre compte d’une façon classique de ces propriétés lorsque l’on changeait d’échelle et renoncer à expliquer le pourquoi et le comment de cette transition. Le nouveau paradigme de la physique postule que la base du savoir à l’échelle quantique, c’est l’acceptation (sans arrière-pensée) des valeurs discrètes des grandeurs physiques relatives à l’échelle atomique et en deçà qui sont observées aux moyens des instruments de mesure (qui ne peuvent être que de dimension classique). Alors, de cette acceptation, il peut être édifié un savoir des propriétés quantiques, bien qu’elles ne soient pas a priori intuitives.

En 1935, l’article EPR indique avec force l’extraordinaire inertie intellectuelle d’Einstein et de ses nombreux collègues vis-à-vis de la mécanique quantique et rappelle que selon lui, la bonne pensée du physicien est celle qui révèle une réalité… classique : « Dans une théorie complète, il existe un élément correspondant à chaque élément de réalité. », et à toute quantité physique mesurée correspond un élément de réalité qui lui est attaché.

Entrer dans l’acceptation de la description quantique du monde de l’infiniment petit, implique un renoncement, renoncer à pouvoir penser : c’est ainsi parce que je conçois… c’est ainsi parce qu’elle est… par : c’est ainsi parce que la nature me donne à observer… c’est ainsi parce que la nature nous apparaît... L’obligation de ‘Renoncer’ est de fait une contrainte incommensurable car il n’est pas dans notre nature de ‘sujet pensant’ d’être intellectuellement muet vis-à-vis de ce que nous observons et spontanément nous ne pouvons pas penser quantique. ‘Renoncer’, est une contrainte permanente qui doit sans cesse nous accompagner car naturellement dans notre quête de compréhension des propriétés physiques quantiques, c’est toujours en fonction de nos déterminations propres que nous cogitons. Il y a donc un apprentissage, une discipline, qui doit s’imposer et qui est extrêmement contraignante. C’est ce qu’exprimait très explicitement Freeman Dyson en 1958 (collègue éminent de Feynmann, dans le domaine de l’émergence de la théorie de l’électrodynamique quantique) : « Il ne s’agit pas de comprendre la mécanique quantique, mais sauter le pas : accepter l’idée qu’il n’y a rien à comprendre (sic), et apprendre à se servir du formalisme mathématique pour trouver des résultats en accord avec les faits expérimentaux. » et il ajoutait : « Qu’avec le temps, les étudiants acceptent avec une résistance décroissante d’être brisés (sic) pour consentir cette attitude. » Ainsi, comme le dit abruptement F. Dyson, renoncer à vouloir comprendre les postulats fondamentaux de la mécanique quantique, n’est pas naturel pour le ‘sujet pensant’. Ce renoncement ne peut s’estomper, ni être contourné, il est présent à tout instant quand nous investissons les propriétés de la physique quantique, il est une marque de notre investissement intellectuel et en conséquence nous ne pouvons pas être neutre, et encore moins transparent. Ceci constitue donc un des éléments de ma conception qu’on ne peut que : ‘Faire de la physique (qu’) en ‘Présence’’.

Depuis la fondation de la mécanique quantique, cette science a pris son envol et quel envol ! Presque tous les domaines de la connaissance ont été touchés, pas uniquement la physique. Restons dans le domaine de la physique et si nous essayons d’énumérer toutes les applications qui en ont résulté : c’est phénoménal. Ce qui est remarquable c’est que les propositions et les postulats des fondateurs de la mécanique quantique c’est-à-dire les représentants de l’Ecole de Copenhague, n’ont jamais été contredits et ils ont été plutôt confirmés. Le 01/12/2014, les résultats, d’une expérience enfin réalisable et inspirée d’une expérience de pensée qui résultait de la confrontation, une fois de plus, dans les années 1930, entre la conception d’A. Einstein à celle de N. Bohr, ont été publiés. C’est la conception et les conclusions de N. Bohr qui ont été à nouveau confirmées. Cela n’interdit pas de penser que cela ne sera pas toujours ainsi, ou même que cela sera dépassé.

Depuis, et notamment depuis les années 1980, ont émergé des tentatives d’interprétations. Certaines comme celle d’Everett (années 50) visent à offrir une explication au problème de la réduction de la fonction d’onde au moment de la mesure. Cette interprétation ne contredit en rien les postulats de l’Ecole de Copenhague mais propose une extrapolation qui n’est pas choquante. Toutefois, présentement, elle est totalement invérifiable.

On pourrait citer aussi l’interprétation des histoires cohérentes de D. Griffiths, l’interprétation relationnelle, l’interprétation informationnelle, etc… et il y en aura d’autres. Aucune des interprétations mettant en cause les fondements originaux de la mécanique quantique ne peut être acceptée. Ce qui sera acceptable sera la théorie qui les dépassera sans les annuler. Ne doutons pas que cela finira par se produire. Nous devons toujours avoir présent à l’esprit que les critères fondamentaux qui prévalent à la compréhension de la mécanique quantique, sont des critères qui sont (encore) en dehors de nos facultés naturelles de jugement scientifique. A défaut de pouvoir les intérioriser en tant que tels, il faut réinitialiser à chaque fois que cela est nécessaire notre acceptation au renoncement, vérifier que notre discipline intellectuelle à l’égard de cette discipline est intact. Ainsi, il ne faut jamais substituer : « telle qu’elle nous apparaît » par : « telle qu’elle est ». Si je prends cet exemple ce n’est pas par hasard car c’est l’exemple le plus explicite de notre intention naturelle d’atténuer voire d’oublier le critère qui nous dicte comment : penser correctement quantique. Cette dérive nous la rencontrons régulièrement lorsqu’un physicien nous affirme qu’il peut rendre compte, partiellement ou complètement, d’une description du monde, donc d’une réalité, quantique (sic).

J’ai précisé ci-dessus entre parenthèses : encore. Cet encore indique qu’il faut accepter l’idée que le sujet pensant évolue et évoluera et qu’ainsi : ‘penser quantique’ pourra devenir progressivement, quelque peu, plus naturel. Personne ne saurait dire, encore : combien de générations (2, 3 ou 1 ou 10 ?), mais en effet on peut être assuré que cette conquête intellectuelle en marche doit avoir en retour une influence sur notre culture scientifique collective et partant induire une intelligibilité de plus en plus affûtée de ce qui est de l’ordre du quantique. Au sens propre du terme, notre bagage intellectuel s’enrichit et la pratique du raisonnement propre à la mécanique quantique dans des domaines de plus en plus variés ne peut que progressivement nous accoutumer et rendre plus naturel une pensée quantique. (Ainsi on peut considérer que la violence Dysonesque appartient à jamais à l’histoire de l’enseignement de la physique car les nouvelles générations sont plus imprégnées de culture spécifiquement quantique). Dans ce nouveau contexte les postulats de la mécanique quantique de ‘l’école de Copenhague’ finiront par être dénoués et deviendront directement intelligibles.

Cet optimisme peut être encore enrichi par le fait que nous continuerons d’acquérir une connaissance de plus en plus pertinente de l’organisation et du fonctionnement de notre cerveau ce qui favorisera une meilleure compréhension des modalités de la perception et du décryptage du monde qui nous est extérieur qu’elle que soit l’échelle à laquelle nous le scrutons. Dans ce but, j’ai déjà proposé des expériences qui permettraient d’accroître cette compréhension, qui à mon avis n’aurait pas un protocole plus compliqué que celui de l’expérience dont les résultats ont été publiés le 22/07 dans ‘Current Biology’ et commentés le 10/08, dans Techno-Sciences : « Une avancée dans la compréhension des origines du langage’. C’est l’équipe de S. Dehaene qui est responsable de ce résultat.

Partager cet article
Repost0
13 août 2015 4 13 /08 /août /2015 13:00

~~Une nouvelle appréciation déterminante de la consistance interne du Modèle Standard.

J’aurais pu terminer l’article précédent du 06/08, par cette phrase : « Le continuum théorique que nous entretenons et qui nous induit dans l’erreur c’est celui qui nous amène à penser que nous devons combler ce qui manque dans un tout que nous croyons avoir défini et identifié et que nous appelons l’univers. », si… Si, l’article que j’ai cité : ‘Une nouvelle avancée du CERN porte un coup dur à la « supersymétrie », une théorie de physique des particules destinée à combler les lacunes du « Modèle Standard », avait été plus définitif, plus déterminant.

Toutefois, la source de cet article et de cette déclaration est Guy Wilkinson qui est le porte-parole du : LHCb, c’est-à-dire d’un détecteur très important du LHC avec CMS et ATLAS. Nous pouvons, évidemment, accorder tout notre crédit à ce physicien qui s’était empressé de rappeler : «Il est toutefois "trop tôt" pour enterrer la supersymétrie. Il est très difficile de tuer la supersymétrie, c'est un monstre à plusieurs têtes! Mais si rien n'est observé dans les deux prochaines années, la théorie sera dans une situation difficile. Le nombre de vrais croyants chutera".

La publication originale est sur le site de : ‘Nature Physics’, depuis le 27/07 et signée par tous les scientifiques (environ 700) qui collaborent sur LHCb, elle a pour titre : ‘Determination of the quark coupling strength : Vub, using baryonic decays’ soit : ‘Détermination de la force de couplage des quarks : Vub, en utilisant la désintégration baryonic.’ Parmi les 6 quarks connus, u désigne le quark up et b désigne le quark beauty (bottom). Les résultats obtenus sont selon G Wilkinson :"Tout à fait compatibles avec le Modèle Standard et suppriment la nécessité d'une théorie alternative" En effet l’équipe de physiciens a observé le mécanisme extrêmement rare de transformation d'un quark "beauté" en quark "up". Cette transformation, rendue possible grâce au Grand collisionneur de Hadrons (LHC) du CERN, s'est effectuée exactement comme le prédit le Modèle Standard.

Maintenant voyons pourquoi, ce résultat renforce la consistance propre du Modèle Standard, et élimine un tremplin éventuel pour une théorie alternative :

En premier lieu, rappelons-nous que les masses et les mélanges éventuels des quarks ont une origine commune : le Modèle Standard (MS). Ces résultats proviennent des interactions de Yukawa avec le boson de Higgs. Par les moyens du formalisme et du calcul spécifique défini par la théorie quantique des champs nous obtenons une matrice, 3 lignes et 3 colonnes, unitaire, dite matrice de Cabbibo-Kobayashi-Maskawa, nom des physiciens qui ont réalisé ce calcul et obtenus le prix Nobel. Les neufs termes de cette matrice indiquent la désintégration d’un quark en un autre grâce à l’émission d’un boson W virtuel. Etant donné que le MS ne prédit pas les valeurs des quatre paramètres libres de la matrice CKM, les mesures de ces paramètres par des voies différentes doivent être conséquentes les unes par rapport aux autres. Si ce n’est pas le cas, cela signifie qu’il faut faire appel à une autre physique au-delà du MS. Pour finaliser la consistance de ces résultats, la mesure de Vub (transition d’un quark b en un quark u) devait être encore plus précise, et c’est exactement ce qui vient d’être obtenue et publiée.

En reprenant l’allégorie de Wilkinson, on peut considérer que le monstre : ‘Supersymétrie’ a une tête en moins et contrairement à celle de l’hydre de Lerne elle ne devrait pas repousser. Une fois de plus la consistance du MS est confirmée, et souvenons-nous que l’étonnement fut grand, et cause d’un questionnement certain, par le fait que le boson de Higgs, mis en évidence, soit si conforme à ce que prédisait le modèle standard. Devons-nous nous congratuler de la justesse de ce qui est prédit par le MS ou nous en étonner ? Pourquoi, une fois de plus, il est montré qu’il est aussi self consistant ?

Je considère que nous ne devons pas exclure que le Modèle Standard est un modèle fabriqué par l’intelligence collective des scientifiques sans pour autant être un modèle de la réalité des propriétés physiques élémentaires de la nature que nous voulons saisir. Il ne nous offre aucune aspérité parce que lorsque nous testons la validité du MS, en fait, nous testons la validité de la représentation scientifique que nous projetons sur cette nature. Ce n’est pas si mal mais cela serait un sérieux progrès si nous étions en mesure de l’objectiver et cela fait aussi appel à beaucoup d’humilité. Une telle distanciation assumée nous permettrait, à coup sûr, de franchir un cap important pour progresser vers de nouvelles compréhensions des propriétés de la nature.

Partager cet article
Repost0
6 août 2015 4 06 /08 /août /2015 14:54

~~Deux lectures et quelques autres.

Première lecture :

Le sujet qui m’a interpelé au cours de ma première lecture en question se trouve dans un livre tout récent (2015) : ‘Foucault avec Merleau-Ponty (Ontologie politique, présentisme et histoire)’ de Judith Revel. Page 46-47, est évoquée la révolution islamique en Iran qui eut lieu en 1979. Dans ces pages, c’est la position de Foucault qui est analysé car il avait écrit dans la presse des articles enthousiastes à l’égard de cette révolution. Ensuite, il avait dû répondre à des critiques violentes qui lui reprochaient cet enthousiasme inconséquent qu’il avait éprouvé. Sa réponse repose sur la même argumentation que celle que l’on retrouvera en 1984, à partir de Kant, à propos de l’idée de révolution : « Une révolution est une virtualité de différence, l’ouverture d’une bifurcation dans l’histoire – c’est-à-dire un acte de liberté, indépendamment de la forme concrète dans laquelle elle s’incarne et des effets qu’elle peut induire. La révolution est un évènement, une rupture et bouleversement dans l’histoire, est signe (sic) de l’espèce humaine. » En fait Foucault avait repris un texte de Kant qu’il avait qualifié d’extrêmement intéressant : « Peu importe si la révolution d’un peuple plein d’esprit, que nous avons vu s’effectuer de nos jours (c’est bien entendu de la Révolution française qu’il s’agit), peu importe si elle réussit ou échoue, peu importe si elle accumule misère et atrocité, si elle les accumule au point qu’un homme sensé qui la referait avec l’espoir de la mener à bien ne se résoudrait jamais, néanmoins, à tenter l’expérience à ce prix… Un tel phénomène dans l’histoire de l’humanité ne s’oublie plus parce qu’il a révélé dans la nature humaine une disposition, une faculté de progresser telle qu’aucune politique n’aurait pu, à force de subtilité, la dégager du cours antérieur des événements… »

Deuxième lecture :

Il s’agit d’un article dans le journal le ‘Monde’ du 31/07, dans la rubrique : ‘Ces hôtels qui ont changé le monde’. L’hôtel en question le ‘Métropole’ à Bruxelles où, en 1911, eut lieu la première réunion des rencontres de ‘Solvay’. A cette première, se sont retrouvés réunis durant plusieurs jours les plus grands physiciens européens de l’époque. Sur la photo du groupe on reconnaît entre autres : M. Curie, H. Poincaré, M. Planck, H. Lorentz, A. Einstein, A. Sommerfeld, etc… A cette époque ce sont donc des physiciens classiques et des précurseurs de la physique atomique quantique qui confrontent leurs idées. Depuis on reconnaît les effets bénéfiques très significatifs que ces rencontres ont impulsés pour le développement de la physique contemporaine, rencontres qui ont eu lieu jusqu’en 1933. Ensuite, l’installation de l’idéologie nazie en Allemagne a provoqué la dispersion de cette élite intellectuelle scientifique.

A cette occasion Einstein (33 ans) voulait que soit validé son concept des quanta de lumière (le photon) dont il avait été amené à affirmer la valeur théorique à partir de l’étude de l’effet photoélectrique en 1905 (on peut dire que le concept de photon est le fruit d’un acte de liberté intellectuel comme signifié par Foucault). Mais ceux qui représentaient l’autorité scientifique à ce congrès refusèrent de se laisser convaincre. Ainsi ni Planck, ni Poincaré, traditionnalistes : c’est-à-dire promoteur de la physique dite classique, n’acceptèrent le concept précurseur d’Einstein. Celui-ci fut déçu, et exprimait sa frustration en écrivant à son ami et confident : M. Besso, que ces réunions ressemblaient à un ‘sabbat de sorcières’ et il ajoutait : «Personne n’y voit clair. Il y aurait dans toute cette affaire de quoi ravir une compagnie de jésuites démoniaques. » L’opposition aux quanta de lumière est persistante chez Planck au prétexte qu’elle conduirait à réformer la théorie de l’électromagnétisme de Maxwell et Lorentz. Poincaré est pessimiste à cette idée nouvelle.

A cette date : 1911, Einstein n’a pas une autorité scientifique suffisamment reconnue pour passer outre le scepticisme de Planck, d’autant que celui-ci est à l’origine en 1900 de l’idée de l’échange d’énergie par paquets discrets entre matière et rayonnement. Mais n’oublions pas qu’il n’a jamais été convaincu de la validité physique de cette thèse. Pour lui c’était une conception empirique, par défaut et sa fameuse constante, qui apparaît dans l’équation de la densité d’énergie du rayonnement du corps noir, n’était qu’un pur artéfact mathématique et il refusait de lui attribuer une signification physique contrairement à la proposition d’Einstein. Bref M. Planck avait une conception classique des lois de la physique comme d’autres présents à ce premier congrès et il ne fallait pas attendre de leur part qu’ils dégagent, du cours antérieur des événements, des lois et des idées, un cours nouveau qui fasse émerger une bifurcation de la connaissance en physique.

On voit donc qu’il en est de même des révolutions scientifiques comme des révolutions sociales, la discontinuité s’impose toujours par une rupture et non pas dans une continuité de la réflexion. Au cours des rencontres de Solvay qui suivront émergera une nouvelle génération de physiciens qui imposera son autorité scientifique en rupture avec l’ancienne et reléguera l’autorité des anciens dans le camp d’une conception classique de la physique. Effectivement, A. Einstein sera le chef de file de cette nouvelle génération bien qu’il y eut des désaccords significatifs mais surtout dynamiques avec d’éminents représentants, de cette nouvelle génération, tels que Bohr, Heisenberg, Born, etc…

Est-ce que ces deux lectures associées nous indiqueraient le chemin le plus approprié pour sortir de l’impasse persistante dans laquelle se trouve actuellement la connaissance en science physique en se référant uniquement aux 95% inconnu de ce qui composerait l’univers ? Où se situe la bonne bifurcation ? Pourquoi est-ce que depuis plusieurs décennies nous sommes incapables d’identifier ce que, par exemple, nous appelons la matière noire ? A cet égard, quelles sont les hypothèses persistantes formulées qui seraient un obstacle à l’élucidation de la bonne bifurcation ?

Déjà, le fait de l’appeler matière noire induit notoirement des caractères semblables à la matière ordinaire sauf qu’elle est invisible. Cela laisse supposer qu’elle est composée de constituants élémentaires, alors que rien ne permet de le considérer. De plus, certains scientifiques prêtent à ces constituants élémentaires la propriété de s’annihiler avec leur anti-élément en photons comme la matière ordinaire, alors que les données récentes recueillies par le satellite Planck, interdisent cette éventualité. Comme l’a écrit Kant, il y a plus de 2 siècles, il n’est pas facile de se dégager du cours antérieur des événements et ajoutons donc des idées. Il faut qu’il y ait une révolution des pensées et quelque part elle ne se décrète pas.

Certains physiciens sont convaincus que la matière noire interagit gravitationnellement avec la matière ordinaire mais pas selon la loi de Newton. D’autres affirment qu’elle n’interagit pas gravitationnellement avec elle-même. De toute façon on reste dans la continuité de l’interaction gravitationnelle et il n’y aurait à procéder qu’à des ajustements.

Actuellement une grande partie de la communauté scientifique a le regard fixé sur le LHC à Genève avec l’espoir que l’on va enfin découvrir des particules supersymétriques, parmi lesquelles on identifierait le neutralino : soit disant représentant un constituant élémentaire de la matière noire. La théorie de la supersymétrie est considérée comme une théorie prolongeant le Modèle Standard, ou bien comme une théorie dépassant le Modèle Standard, c’est selon. Ce qui est certain c’est que la théorie quantique des champs est la référence pour la concevoir.

A ce propos, il y eut le 26/07 sur le site de Sciences et Avenir, un article très (trop) succinct qui principalement signalait : ‘Une nouvelle avancée du CERN porte un coup dur à la "supersymétrie", une théorie de physique des particules destinée à combler les lacunes du "Modèle Standard" : ‘Selon une étude publiée lundi 26 juillet 2015 dans la revue Nature Physics, des chercheurs du CERN ont observé le mécanisme extrêmement rare de transformation d'un quark "beauté" en quark "up". Cette transformation, rendue possible grâce LHC du CERN, s'est effectuée exactement comme le prédit le Modèle Standard.’ Bien que cet article soit publié dans Nature Physics, il n’a pas été repris dans d’autres sites. Pour le moment on peut être sceptique à l’égard de cette annonce et si elle n’est pas reprise d’ici la fin de l’été, on pourra la laisser de côté, sinon on aura à faire à un sacré chambardement. Peut-être que là, nous tiendrons le début d’une rupture de la pensée scientifique des tenants du Modèle Standard de la physique des particules et des tenants du Modèle Standard de la cosmologie. On verra !

Partager cet article
Repost0
28 juillet 2015 2 28 /07 /juillet /2015 11:04

~~C’est exactement une bévue.

Lorsque j’ai posté l’article : « Une étonnante régression », le 28/02/2015, j’étais troublé. Trouble provoqué, à la lecture de ‘Par-delà le visible’ de C. Rovelli et qui ne s’est pas depuis dissipé. Aussi, j’ai prolongé l’analyse de ce livre avec quelque part le secret désir de considérer que je n’avais pas tout bien compris. Je me suis concentré sur l’exploitation de la théorie de l’information qui est proposée, acceptant l’idée a priori que cette thèse pouvait apporter de la valeur ajoutée à une meilleure compréhension (si cela est nécessaire) de la mécanique quantique.

Lorsque C. Rovelli écrit, p. 228 : « Toute la structure de la mécanique quantique peut être lue et comprise en termes d’information de la façon suivante. Un système physique se manifeste seulement et toujours en interagissant avec un autre. La description d’un système physique est donc toujours faite par rapport à un autre système physique, celui avec lequel le premier interagit. Toute description de l’état d’un système physique est donc toujours une description de l’information qu’un système physique a d’un autre système physique, c’est-à-dire de la corrélation entre les systèmes. Les mystères de la mécanique quantique deviennent moins épais si nous l’interprétons de cette façon à savoir comme la description de l’information que les systèmes physiques ont l’un de l’autre. » Dans ce paragraphe, il y a une omission étonnante de la part de l’auteur, c’est que la description effective d’un système physique quantique ne peut être obtenue qu’à partir d’une interaction avec un système physique macroscopique. Ceci est incontournable car il n’y a pas de manifestation ni de description effective sans observateur, qui est un être classique. L’observable quantique est obtenue au moyen d’un instrument qui est conçu grâce à l’ingénierie et au savoir-faire classiques des physiciens. Avec le processus de la mesure (de l’observation) nous sommes dans un processus univoque. C’est l’observateur qui prélève de l’information sur le système quantique déterminé par l’observateur (voir la mesure du spin, par exemple). Pour l’observateur, cette observation fige ensuite le système dans l’état qui a donné la valeur de la variable quantique (voir l’intrication, par exemple). Depuis la fondation de la mécanique quantique nous n’avons acquis aucune connaissance nouvelle qui nous permettrait d’extrapoler et d’attribuer une valeur universelle à cette affirmation de C. Rovelli : « Toute description de l’état d’un système physique est donc toujours une description de l’information qu’un système physique a d’un autre système physique ».

A propos du terme information, je pense que nous avons à faire essentiellement à un glissement sémantique qui n’offre pas de valeur ajoutée à la compréhension que nous pouvons avoir à l’égard de la mécanique quantique. La connaissance de la valeur d’une grandeur quantique est une information obtenue par le sujet pensant, que dire de plus. Depuis le début de la mécanique quantique l’objectif des physiciens est donc de recueillir de l’information sur les systèmes quantiques qu’ils déterminent.

Cette banalisation que je propose du mot : information, n’est évidemment pas partagée par Rovelli, car on peut lire, p.224 : « Pourquoi la notion d’information est-elle utile, et peut-être même fondamentale pour comprendre le monde ? Pour une raison futile (sic) : elle mesure la possibilité des systèmes physiques de communiquer entre eux. » Cette affirmation de l’auteur est une conviction mais en aucun cas ne peut être considérée, jusqu’à présent, comme l’énoncé de ce que l’on pourrait considérer comme la source d’un paradigme nouveau qui permettrait de franchir un cap jusqu’alors inconnu de la connaissance scientifique. Dans le premier article j’ai évoqué une régression car si on suivait l’auteur, se développerait la croyance que le monde naturel a un comportement propre absolu, qu’il serait mû par une dynamique propre et finalement nous en aurions la connaissance objective.

Je ne trahis pas l’auteur en affirmant que c’est cette conception-là qui prévaut chez lui, p.225 : « La façon dont les atomes se disposent peut être corrélée à la façon dont d’autres atomes se disposent. Et donc, un ensemble d’atomes peut être porteur d’une information, au sens technique et précis décrit plus haut, sur un autre système.

Cela, dans le monde physique, se produit sans arrêt et partout, à chaque instant et en chaque lieu : la lumière qui parvient à nos yeux transporte de l’information sur les objets dont elle provient, la couleur de la mer donne une information sur la couleur du ciel au-dessus d’elle, une cellule possède une information sur le virus qui l’a attaquée, un nouvel être vivant est riche d’information car il est corrélé (sic) à ses parents et à son espèce…

Le monde ne se réduit donc pas à un réseau d’atomes qui se rencontrent : il est aussi un réseau de corrélations entre des ensembles d’atomes, un réseau d’information réciproque entre des systèmes physiques.

Dans tout cela, il n’y a rien d’idéaliste ni de spirituel (pourquoi devoir le préciser ?) ; ce n’est qu’une application de l’idée de Shannon selon laquelle on peut compter les alternatives. Mais tout cela est une partie du monde comme les pierres des Dolomites, le bourdonnement des abeilles ou les vagues de la mer.

Une fois compris que ce réseau d’informations réciproques existe (sic) dans l’Univers, il est naturel d’essayer d’en tirer profit pour décrire le monde… »

Avant tout, je dis qu’il est extrêmement choquant et inapproprié d’utiliser le terme corrélation indistinctement pour évoquer l’interdépendance qui pourrait prévaloir dans le monde inerte ainsi que dans le monde vivant. Ici, à ce degré, on ne peut pas excuser un raccourci, cela met plutôt en évidence une tambouille intellectuelle inacceptable.

Avec ce paragraphe cité, on constate que Rovelli qui attribue à notre œil, donc à notre cerveau, par exemple, la faculté d’interpréter la couleur de la mer via un processus de décryptage vaut identiquement pour le monde inerte atomique ??? Soit il nie la spécificité du monde vivant et en l’occurrence du ‘sujet pensant’, soit il dote le monde matériel inerte d’un dessein.

Basiquement, voyons d’où vient l’idée que la théorie de l’information selon Claude Shannnon pourrait être exploitée en physique… quantique. P.222 : «Avant tout, qu’est-ce que l’information ? le mot est employé dans le langage courant avec une grande diversité de sens, ce qui est aussi une source de confusion dans son usage scientifique (sic). La notion scientifique d’information a été définie par Claude Shannon, mathématicien et ingénieur américain, en 1948 : l’information est une mesure du nombre d’alternatives possibles pour quelque chose. Par exemple, si je jette un dé, celui-ci peut tomber sur six faces. Si je vois qu’il est tombé sur une face particulière, j’ai une quantité d’information N = 6, car il y avait six possibilités. Si je ne sais pas quel jour est ton anniversaire, il y a 365 possibilités différentes. Si tu me dis quel jour est ton anniversaire, j’aurai une information N = 365, etc. (L’information ne mesure pas ce que je sais, mais le nombre d’alternatives possibles. L’information qui me dit qu’est sorti le numéro 3 à la roulette est N = 37, car il y a 37 numéros…)

Au lieu du nombre d’alternatives N, il est plus commode, pour indiquer l’information, d’utiliser le logarithme en base 2 de N, appelé S. l’information de Shannon est donc S = log2N, où N est le nombre d’alternatives. De la sorte, l’unité de mesure, S = 1, correspond à N = 2, c’est à dire à l’alternative minimale, qui comprend seulement deux possibilités. Cette unité de mesure est l’information entre deux alternatives et elle est appelée « bit ». Quand je sais qu’à la roulette est sorti un numéro rouge au lieu d’un noir, j’ai un bit d’information : si je sais que c’est rouge-pair qui est sorti, j’ai deux bits d’information ; si c’est un rouge-pair-manque, j’ai trois bits d’information. Deux bits d’information correspondent à quatre alternatives (rouge-pair, rouge-impair, noir-pair, noir- impair)… »

Ensuite, p.223 (à lire), l’auteur développe un exemple pour justifier l’idée d’information corrélée. Son exemple est très déterminé et au-delà, il n’a aucune validité générale, à moins de partager le réductionnisme de Rovelli.

La théorie de l’information proposée par Shannon est conçue étant donné qu’une communication est établie. Elle est donc typée. Je cite, p.223-224 : « Shannon, qui a inventé la théorie de l’information, travaillait dans une compagnie de téléphone, et cherchait le moyen de mesurer avec précision ce que pouvait « transporter » une ligne téléphonique. Que transporte donc une ligne téléphonique ? Elle transporte de l’information. Elle transporte une capacité de distinguer deux alternatives. C’est pourquoi Shannon a défini l’information. » Il est donc difficile de considérer que cette théorie ait une valeur au-delà de ce contexte spécifique et encore moins considérer qu’elle peut indiquer quand il y a communication ou pas.

Je suis tellement désappointé que je préfère faire mon propre mea culpa et essayer l’humour pour masquer ma déception. Je ne devrais avoir rien à reprocher à C. Rovelli, car le titre de son livre est : ‘Par-Delà Le Visible’. C’est donc un voyant qui a écrit le livre et non pas un physicien, je suis de fait responsable de ma bévue. S = 1, chez l’auteur, N = 2, il y a deux possibilités, l’une est le voyant, l’autre est le physicien. Nous avons donc à faire à un cas exceptionnel, comprenant ces deux états antagoniques qui pourraient être superposés et représentés par une même fonction d’onde avant sa réduction. Le livre est comme un instrument de mesure qui a réduit la fonction d’onde dans l’état : voyant.

De tout ceci il faut en débattre, ce livre est donc à lire.

N.B. Que des physiciens éprouvent le besoin et…l’utilité de proposer des coups de projecteur d’anticipation s’appuyant sur leur propre intuition est une bonne chose. Certes, c’est un exercice risqué, mais ceci n’a de valeur que si cela s’appuie sur les connaissances existantes consistantes respectées, si la rigueur des résultats consolidés est prise en compte. Dans ce cas les propositions anticipatrices de ces physiciens éclairés peuvent avoir de la valeur et conséquemment ouvrir des horizons prospectifs nouveaux.

Partager cet article
Repost0
21 juillet 2015 2 21 /07 /juillet /2015 12:01

~~La seconde naissance de l’homme.

La période des vacances est l’occasion de recharger nos batteries intellectuelles en glanant dans des ouvrages, jusqu’alors ignorés, des informations, des savoirs, qui peuvent enrichir des réflexions que peut-être nous développerons dans l’autre période de l’année ou plus tard encore.

J’ai découvert ce livre : ‘Une seconde naissance de l’homme’, passionnant, de Jean Guilaine (professeur au Collège de France, spécialiste du Néolithique), édit. O. Jacob, mars 2015. Evidemment je m’appuie sur de larges extraits pour vous inviter vivement à lire ce livre dans son intégralité.

Comme souligné, d’une façon rapide, le passage du Paléolithique au Néolithique peut se caractériser ainsi : « Les temps paléolithiques, dont la très longue durée (quelques 2 500 000 ans) n’avait connu, en dépit de remarquables exemples d’adaptation aux contextes environnementaux, aucun affranchissement fondamental à l’égard de ceux-ci. L’homme ne pouvait jusque-là que négocier avec la nature et gérer au mieux les ressources que celle-ci lui proposait. Elle était dominante, lui dominé.

Or, il y a environ 12000 ans, c’est-à-dire avant-hier à l’échelle de l’évolution, une mutation s’amorce. En plusieurs points de la planète, l’homme cherche à se libérer de ce joug, expérimentant par divers tâtonnements appliqués au monde végétal et animal des stratagèmes pour ne plus être dépendant des contraintes du milieu. Il y parviendra en « inventant » l’agriculture et l’élevage, en « fabriquant » en quelque sorte de nouvelles plantes, de nouvelles bêtes. Une transformation sans retour qui fît de lui le maître, l’unique aménageur de son environnement, mais aussi souvent le destructeur de celui –ci.

Pour franchir ce cap qui le désolidarisa de la nature, l’homme dut d’abord beaucoup cogiter avant de se lancer dans cette aventure (sic).»

Pour des raisons évidentes, je ferai référence au grand chapitre : ‘Maîtriser la nature : Environnement, Temps, domestication’ p.42-74, et plus particulièrement, p.55-74 : ‘Du chasseur à l’agriculteur, conscience et notions de temps’ qui nous offre un historique profond de la relation qui se développe entre ‘le sujet pensant’ et le temps. L’auteur nous signifie que le terme synonyme peut être ‘sujet cogitant’.

Préalablement l’auteur précise toutes les précautions qui s’imposent avant de franchir le stade de l’affirmation à propos de ce thème. Dans le paragraphe : ‘Du chasseur à l’agriculteur, conscience et notions du temps’, ce qui fait référence au temps du chasseur consiste à repérer le cycle des saisons pour s’approvisionner en proies nécessaires à la nourriture, pour l’agriculteur la reconnaissance du cycle saisonnier lui permet d’agir en phase avec la nature, il est dans ce cas bien moins passif. C’est donc l’observation de ce qui a été déjà constaté auparavant dans la nature, au cours des cycles précédents, qui provoque l’idée chez l’homme primitif que son action peut aboutir à un résultat projeté favorable. Cette perception du temps authentiquement cyclique fait penser à la thèse de ‘l’Eternel Retour’ développé par Nietzsche, où le temps a sa propre dynamique et l’être humain n’y peut rien. Mais prendre conscience du retour de ce qui a déjà été constaté auparavant (mémoire : temps passé) révèle la mise en œuvre d’une capacité de projection (temps à venir) qui engage et nourrit la cogitation. On doit comprendre aussi que se met en place très tôt un processus d’addition des cycles naturels qui relève de la faculté primitive de cogitation. Cette opération est fondamentale car prendre conscience de la succession de cycles qui ont une durée naturelle c’est intégrer l’idée première d’une scansion qui rythme ce que l’on pourrait déjà appeler l’écoulement temporel.

Dans le paragraphe : « Origines : le temps déduit de l’espace ? » L’auteur met en évidence une primitive expérimentation conjointe de la notion d’espace et de temps. (Voir article du 27/08/2014 : ‘Un authentique Big-Bang’). P.57 : « Au paléolithique archaïque, aux alentours de 1,9 millions d’années, l’analyse de la documentation fournie par plusieurs sites africains montre une gestion des matières premières fondée sur un certain rapport à l’espace (et donc au temps). A Oldowaï (en Tanzanie), les matériaux bruts nécessaires à la taille ont été apportés de sources distantes de 3 km. De gîtes plus lointains, entre 9 et 13 km, on n’a ramené que des outils finis…

L’histoire des temps paléolithiques, dans leur extrême durée, est précisément caractérisée par une maîtrise de l’espace toujours plus élargie, par des déplacements sans cesse portés vers des frontières plus lointaines. Ces pérégrinations impliquent donc une maîtrise minimale du temps… Dans ce cas, le temps nécessaire pour parvenir aux gîtes est une notion intellectuellement assimilée. »

Dans le paragraphe : « Les rythmes saisonniers des sociétés de chasseurs-cueilleurs évolués » : « Le concept de temps se confond avec celui de saison, ou plutôt, de saisonnalité… Les circuits du chasseur-collecteur sont calqués sur la géographie des ressources et sont étroitement corrélés à une grille calendaire, celle-ci incluant le degré d’amplitude chronologique nécessaire à l’accès aux proies ou aux cueillettes. »

Paragraphe : « L’art et le temps » : « On a beaucoup disserté sur la signification de l’art rupestre paléolithique. A côté des problèmes qu’un tel sujet peut agiter sur la formation de l’esprit humain, la question ici soulevée paraîtra bien ténue : l’art fut-il un marqueur du temps ? … On peut s’interroger sur la signification des marques temporelles observables sur certaines œuvres, pariétales ou mobilières. »

Paragraphe : « Existait-il des « calendriers » paléolithiques ? »

« Des sortes de « calendriers » auraient existé dès les débuts du Paléolithique supérieur et des périodes plus récentes, soit un champ chronologique se déroulant d’environ – 35000 jusqu’à – 5000.

Ces vestiges traduiraient un procédé symbolique de notation du temps, basé sur l’observation des phases de la lune…

L’homme semble donc s’inscrire dans un temps donné par la nature dont, chaque mois, les phases de la lune lui livrent témoignage : il en découpe les séquences qu’il mémorise et dont il tire parti de façon pragmatique. En ce sens, les activités périodiques et les rites qui leur sont liés peuvent être dès lors largement anticipés, programmés. »

Cours du temps et rythmes agraires.

« Si les néolithiques étaient tributaires du temps « climatique » pour leur quotidien, nul doute qu’ils aient essayé de « domestiquer » le temps cosmique, de la même façon qu’ils maîtrisaient désormais l’environnement végétal et animal. En ritualisant son déroulement annuel, en l’artificialisant, en le socialisant à travers des rythmes (fêtes, rites), ils ont fait du temps « naturel » une entité culturel.

Des monuments à mesurer le temps.

Le temps de l’artisan.

« Ainsi les élites néolithiques marquait-elles leur position sociale par l’acquisition d’outils « inutilitaires » à fort impact esthétique ou émotionnel : un comportement étonnamment moderne. Dans le cas évoqué des haches de parade, on sait, grâce à des enquêtes ethnographiques, que leur temps de réalisation peut être particulièrement long, plusieurs mois souvent. Le temps investi est donc un marqueur hiérarchique. »

Temps-mémoire, « éternité »

« Sans doute cette dramatisation ou « théâtralisation » architecturale entre espace profane et espace sacré trouve-t-elle sa réplique dans la conception du temps réel/éternité ou intemporalité. Un rite peut accompagner ce transfert entre ces deux états. En statufiant tel personnage, en le mutant en une image de pierre, on le fait passer du temps court au temps long…

Temps/espace, temps réel/temps mythique, rythmes saisonniers et « philosophie » de l’éternel retour, tentatives de mesure et de découpage de la durée, temps des vivants/intemporalité, etc., les quelques exemples évoqués montrent que toutes ces interrogations ont été, à des degrés divers, abordées et assumées par les préhistoriques. Les quelques exemples évoqués sont, pensons-nous, assez suggestifs : toutes les grandes spéculations de l’humanité sur le temps sont fort anciennes et, très tôt, des réponses y ont été apportées, au gré des cultures et des degrés de socialisation. »

Entre la période la plus primitive que l’auteur a identifié (250000ans), et celle qui nous amène jusqu’à – 5000 ans et plus près, l’homme a progressivement tissé un lien entre ce qui apparaît comme étant de l’ordre de la nature et ce qui est de l’ordre d’une nécessité existentielle. Pour les besoins de la cause, l’homme a capturé dans son environnement des signes observables qui se répétaient d’une façon régulière, que ce soit sur des cycles courts (jour et nuit) ou plus longs (saisons), pour lui-même se situer dans l’écoulement de son existence. On peut considérer que concomitamment, au fil de ce temps, il développe une conscience de plus en plus aigüe de son existence propre. Être : existant humain et Être : dans le (un) temps, pourrait vouloir signifier une seule et même chose. Dans ce cas la moindre différenciation ne peut être envisagée.

Pendant la durée du paléolithique on peut dire qu’il s’agit d’un côtoiement entre la marche de l’homme et ce qui peut être considéré comme la production d’une marche du temps, l’appropriation intellectuelle par le ‘sujet cogitant’ doit être rudimentaire. Toutefois, comme l’auteur l’indique à partir de – 35000 ans l’art rupestre étudié pourrait laisser apparaître des marqueurs du temps ainsi que les hypothétiques calendriers paléolithiques. Dans ce cas nous aurions des indications d’un processus effectif d’intériorisation du flux du temps, via des procédés symboliques de notation de ce temps, sur la base de la compréhension et de l’intégration de durées. L’appropriation intellectuelle est donc de plus en plus élaborée.

Au milieu du néolithique l’homme attribue de la valeur à des durées temporelles c’est ce qui est présenté dans le paragraphe : « le temps de l’artisan ». Il y a là un investissement du temps par l’homme, il se l’approprie pour lui attribuer sa valeur, par exemple celle de la durée d’une action humaine sur la matière.

Selon J. Guilaine il y eut la volonté de « domestiquer » le temps cosmique. A juste raison, il y voit là, un processus culturel à l’œuvre et donc un ajustement encore plus harmonieux entre une idée intime que se fait l’homme du flux du temps avec celui qui apparaît par l’observation du cosmos. A ce propos on doit comprendre que cette volonté de domestiquer le temps cosmique est illustrative de la volonté de l’homme de se projeter dans le cosmos et donc de l’habiter. Sans chercher à conjecturer au-delà, il est significatif de constater que ce serait le temps qui serait l’intermédiaire, le tremplin de cette projection.

Il n’y a pas matière à conclure quoi que ce soit, avec la lecture de ce livre. Ce livre révèle un magnifique chantier de réflexions sur des indices qui nous aident à comprendre ce qui a contribué à un éveil intellectuel de l’être humain depuis le surgissement dans la nature d’une intelligence première, il y a environ 12 millions d’années. L’’Être de la nature’ a suivi une très longue marche pour devenir aussi progressivement un ‘Être dans la nature’. Contrairement à ce qu’affirme l’auteur, je pense que l’homme moderne ne peut pas se désolidariser complètement de la nature, il y a cohabitation de deux Êtres chez l’Être humain sachant que la place de l’être dans la nature est évidemment de plus en plus prépondérante et la dynamique de ce déséquilibre ne peut que s’accentuer sans qu’une influence de ‘l’être de la nature’ ne soit définitivement extirpée. Dans le cas contraire un représentant d’une nouvelle humanité pourra écrire : ‘La troisième naissance de l’homme’. Les représentants de cette nouvelle humanité seront tellement prothèsés qu’effectivement plus rien de naturel ne les détermineront.

Le problème de la compréhension, ou de la perception, de l’espace et du temps, que nous : sujets pensants, d’aujourd’hui, pouvons avoir, n’est absolument pas figé. Rappelons-nous de la discorde, il y a trois siècles, entre Leibniz et Newton. Selon la conception de Leibniz l’espace et le temps sont des productions du sujet ; par conséquent ils ne sont pas absolument indépendants. Selon Newton l’espace comme le temps n’est ni substance ni accident mais possède une ontologie singulière (sic). Il se rapporte à l’existence des choses et non pas à son essence. Etant l’« affection commune de tout ce qui existe », il faut dire que dès lors qu’un être existe, existe à fortiori un espace qui est comme l’« amplitude de sa présence » ou sa « quantité de présence ». C’est ainsi que l’espace infini et absolu est la suite nécessaire, l’« effet émanant », de l’Être infini qui est premier à exister. Sur cette base, il devient possible d’affirmer de Dieu qu’il est omniprésent. L’espace absolu est ainsi le sensorium (centre de toutes les sensations) de Dieu. Leibniz s’oppose à cette définition de l’espace car : «Si l’espace existait véritablement comme entité, comme substance de fond, Dieu aurait à choisir un endroit où placer l’univers dans cette substance. » Newton, dans ses ‘Principia’ donne comme définition du temps : « Le temps existe dans et par lui-même et s’écoule tranquillement sans référence avec quoi que ce soit d’extérieur. » Ce temps absolu est sans rapport avec le temps relatif : « … apparent et vulgaire qui est cette mesure sensible et externe d’une partie de durée quelconque [ … ] prise du mouvement : telles sont les mesures d’heures, de jours, de mois, etc., dont on se sert ordinairement à la place du temps vrai. »

La variable temps qui s’inscrit dans les équations décrivant la majeure partie des lois physiques que nous maîtrisons actuellement correspond au temps classique conformément à la définition de Newton. Ce n’est qu’en troisième année de physique, à l’Université, que l’on commence à enseigner le temps de la relativité restreinte qui, il est vrai, ne s’applique que dans des conditions particulières extrêmes.

Il y a unanimité chez les physiciens pour considérer que le grand bond théorique espéré à venir impliquera une nouvelle conception du temps et de l’espace.

Quand on lit avec attention un ouvrage comme celui que vient de publier Jean Guilaine on peut s’interroger sur l’obstination des physiciens tel que Carlo Rovelli qui affirme que : « le temps est émergeant et que cela correspond à un fait dans la nature ». Temps émergeant c’est aussi ma conviction mais la cause de cette émergence c’est la ‘Présence’ de l’être cogitant et Guilaine pourrait conforter ma conviction.

Je pense que le temps qui pour nous fait sens est celui qui intimement contribue au développement de la faculté de penser de l’être humain. Toute autre référence de temps me semble chimérique. A ce niveau, l’argument qui fait appel au critère d’une nécessaire objectivité constitue vraiment ce que l’on appelle un faux ami.

Il y a une dizaine d’années, A. Connes et C. Rovelli ont publié des travaux qui tentaient de montrer que la seule flèche du temps qui devrait faire sens pour les physiciens serait celle induite par le refroidissement irréversible du rayonnement fossile. Pourquoi cette flèche serait exhaustive, plus vrai, plus authentique, alors qu’elle est le fruit de l’observation par le sujet pensant ? Pourquoi exclure que le temps qui nous est donné soit autre chose que le temps dont nous avons l’intelligence et qui en est son substrat ?

Depuis deux ans Lee Smolin nous dit avec force que le temps est réel et donné dans la nature, (voir son livre la ‘Renaissance du temps’). On peut considérer que le livre de Jean Guilaine nous offre la possibilité de réfuter la thèse de Smolin car la nature, certes, offre des cycles, offre donc des durées répétitives mais en aucun cas cela n’est, ni ne fait, du temps. Ces durées peuvent ‘faire’ du temps si et seulement si on les additionne (primitif processus mental de l’addition ?), si intellectuellement on les enchaîne. Or il faut qu’il y ait un être cogitant présent dans la nature pour concevoir un enchaînement dit temporel, à partir de là ces durées naturelles peuvent être, de plus, qualifiées de durées temporelles. Le temps n’a de consistance que par la ‘Présence’ de l’être pensant’. Depuis, on comprend que l’être humain a fabriqué des machines marquant des intervalles aux durées contrôlées, des machines de plus en plus sophistiquées qui égrènent le temps. La précision de la mesure de notre temps se rapporte maintenant à la précision avec laquelle on crée des intervalles naturels élémentaires de plus en plus étroits. Nous en sommes aujourd’hui à concevoir l’attoseconde.

Partager cet article
Repost0
6 juillet 2015 1 06 /07 /juillet /2015 14:33

~~Einstein tue le chat de Schrödinger : La relativité ruine le monde quantique.

L’article qui a le titre cité ci-dessus a été publié le 16/06 sur le site du NewScientist. Cet article mérite d’être analysé et commenté, c’est ce que je propose après l’avoir traduit en français. La version originale est renvoyée en fin du présent article.

Traduction :

« La même particularité de la relativité générale, cela signifie que votre tête vieillit plus vite que vos pieds et cela veut dire que nous devons aller dans l’espace pour voir en action la mécanique quantique à grande échelle.

Etre à deux places en même temps n’est pas aisé pour de simples humains. … Un bilan avisé de l’effet de la gravité sur des systèmes quantiques pourrait ruiner des expériences quantiques. Si cela est confirmé, cela suggère que des études quantiques peuvent être impossibles à réaliser sur terre.

Qu’elle que soit la peine que vous y mettez, vous ne pouvez pas être à deux places à la fois. Mais si vous êtes un électron, surgir de plusieurs places à la fois est un mode de vie. Les lois de la mécanique quantique nous disent que les particules subatomiques existent (sic) dans des états superposés jusqu’à ce qu’elles soient observées et trouvées dans une seule place – lorsque leur fonction d’onde est réduite.

Chasser les chats

Alors pourquoi nous ne pouvons pas réaliser le même tour que celui d’un électron ? Cela semble provenir du fait qu’une fois que quelque chose devient suffisamment grand, il perd ses propriétés quantiques : un processus appelé décohérence. C’est parce que principalement des objets grands interagissent avec leur environnement que cela les force d’être dans une position ou une autre. E. Schrödinger, d’une façon fameuse, pointa l’absurdité des superpositions à grande échelle avec l’exemple d’un chat mort et vivant.

Mais cela n’a pas arrêté les physiciens d’essayer des expériences en isolant des objets des influences externes. En 2010, une équipe de l’université de Californie, à Santa Barbara, a placé une lame de métal de 60 micromètres de longueur en superposition pendant quelques nanosecondes, en la refroidissant juste au-dessus du zéro absolu pour la protéger des fluctuations de température.

L’espoir est que des expériences plus précises puissent être réalisées avec des objets plus grands, tels des virus, placés dans des états superposés, obtenant ainsi une meilleure proximité avec le chat mythique de Schrödinger. Mais maintenant il semblerait qu’il y ait un obstacle plus fondamental : la gravité.

Dans le champ gravitationnel.

La relativité générale, tend à être ignorée par la physique quantique. ‘Habituellement les gens ne la prennent pas plus en compte parce qu’elle agit sur des grandes échelles’ dit I. Pikovski de l’université de Harvard. « Ils pensent qu’il n’y a pas beaucoup d’effets qui soient significatifs ». Maintenant Pikovski et ses collègues ont calculé ce qui se produit quand vous réalisez des expériences quantiques dans le champ gravitationnel. Ils disent qu’une particularité de la relativité appelée dilatation du temps pourrait faire perdre aux grands systèmes leur nature quantique.

Une des prédictions d’Einstein est que la gravité ralentit le temps. Pour les objets massifs, l’effet peut être extrême, comme cela est rendu dans le film Interstellar, où une heure sur une planète qui orbite autour d’un trou noir est équivalent à sept ans sur la terre.

Mais ceci vous affecte aussi. Les expériences en laboratoire avec des horloges atomiques ont révélé que l’âge de votre tête vieillit plus vite que vos pieds, à cause de la subtile différence de la force du champ gravitationnel.

Le calcul de Pikovski montre que les molécules mises en superposition peuvent subir cette différence temporelle et ainsi rompre leur état quantique. Cela peut se produire parce que les liens entre les atomes dans une molécule connaissent des sauts et vibrent constamment. Si une molécule est en superposition de deux états qui sont à des hauteurs distinctes du sol, chacun des états vibrera à des fréquences distinctes, ce qui détruirait la superposition.

Matières hautes

La décohérence se produit plus vite quand plus de particules sont ajoutées au système. Par exemple, prenons l’expérience qui tente de mettre 1 gramme de carbone – environ 1023 atomes – dans une superposition de 2 états. S’ils peuvent être séparés verticalement d’1 micromètre, Pikoski dit que le champ gravitationnel terrestre provoquera la décohérence en une milliseconde, même si rien d’autre n’interfère. « Même complètement isolés les systèmes sont de toute façon affectés par leur propre composition »

Ceci ne se produit pas avec des plus petites particules comme les électrons, parce qu’ils n’ont pas de parties en mouvement, donc ne sont pas affectés par la dilatation du temps, ce qui explique qu’ils se maintiennent en superposition d’états jusqu’à la mesure.

Pour le moment, les idées de Pikoski restent théoriques, mais il considère que cela peut être testé avec des horloges atomiques, qui utilisent la fréquence régulière d’émission d’énergie d’atomes pour conserver le temps. Si vous pouvez placer une horloge atomique dans une superposition verticale, elle ‘tic-tacquera’ à deux fréquences simultanément, forçant ainsi la décohérence.

Cet effet est relativement petit, donc les équipements doivent être encore améliorés, mais Pikovski pense que cela pourra se faire dans quelques années.

Laisser la terre en arrière.

Si l’effet est confirmé, cela suggère que les physiciens doivent quitter l’emprise de la gravité terrestre pour réaliser des expériences quantiques extrêmes.

« Cela serait probablement plus facile de faire des expériences quantiques de grands systèmes sur la lune ou dans l’espace que sur terre. » puisque la plus faible gravité ralentira la décohérence. « Si les gens veulent obtenir des superpositions macroscopiques, il faut aller dans l’espace » Ce serait bien, l’International Space Station, pourrait être appropriée.

D’autres personnes ne sont pas convaincues. « C’est un effet ténu, et je ne pense pas qu’il nous conduira dans l’espace prochainement. » indique S. Hossenfelder du centre de Stockholm. L’effet est de l’ordre de grandeur en dessous de ce qui pourrait affecter une expérience courante.

Des observateurs partout.

Faire des expériences dans l’espace a son propre objet, dit R. Bondarescu de Zurich. Travailler en gravité faible est difficile, coûteux et les équipements doivent être blindés contre les radiations cosmiques, mais ceci n’est pas déraisonnable dit-elle. « Peut-être que dans le futur, l’effet dominant sera la décohérence quantique due à la gravité. »

La dilatation du temps pourrait résoudre un épineux problème philosophique. Quelques physiciens s’inquiètent que la mécanique quantique requière un observateur conscient pour réduire une fonction d’onde. Est-ce qu’un chat quantique dans une boite devrait rester à la fois mort et vivant pour toujours si personne ne le vérifie ? Est-ce que le chat lui-même pourrait réduire la fonction d’onde ? La décohérence gravitationnelle règle le problème, dit Pikovski. Même si vous isolez le système des effets qui provoquent la décohérence normalement, l’effet gravitationnel sur le chat réduira le système. « La dilatation du temps induit ce type d’observateur. » dit-il.

Préserver la superposition.

Mais ceci ne règle pas le problème, indique T. Ralph d’Australie. Il se pourrait qu’il n’y ait pas de dilatation du temps si les deux états sont à la même hauteur. « En principe, il est toujours possible de préserver une superposition si un contrôle suffisant peut être réalisé sur le système quantique » dit-il.

En pensant plus : comment la gravité et les effets quantiques interagissent, comme l’a fait l’équipe de Pikovski, cela peut conduire au prix ultime de la physique quantique. Les mathématiques derrière la relativité générale et la mécanique quantique produisent des solutions incompatibles quand les deux physiques sont importantes, comme la singularité au cœur d’un trou noir.

Les tentatives pour développer une théorie unifiée de la gravité quantique étudient comment les mathématiques se transforment pour l’interpréter, mais luttent pour réaliser des expériences qui confirmeraient ces idées – il est compliqué d’introduire des trous noirs dans un laboratoire. « Cette approche peut contribuer à une meilleure compréhension de l’interaction entre mécanique quantique et gravité », « Cela nous permettra d’envisager une compréhension des phénomènes qui font appel à ces deux théories à la fois. »

Ce travail peut permettre de savoir comment les deux théories se comportent ensemble mais cela ne signifie pas que c’est la route de la théorie du tout, dit C. Rovelli. « La gravité quantique se réfère aux propriétés quantiques de l’espace-temps, et pas au comportement quantique de la matière dans l’espace-temps, ce qui est quelque chose qui est parfaitement maitrisé théoriquement. » affirme-t-il.

Mais Ralph pense que c’est un bon départ. « Les effets prédits combinent mécanique quantique et relativité générale d’une façon non triviale. » dit-il. « Jusqu’à présent il n’y a pas d’expériences qui virtuellement testent si cette voie du calcul est correcte, ces expériences qui testeraient ces types de prédictions sont extrêmement importantes – même si minimalement elles ne font que confirmer que l’on est dans la bonne direction. »

Analyse de l’article :

C’est annoncé dans le titre, l’auteur est convaincu qu’il y a un monde quantique indépendant de l’observateur, ce qui ne peut être accepté puisque jamais constaté. Dans l’article il est souvent fait référence à des expériences théoriques, sans que soit pris en compte l’expérimentateur (l’observateur), comme si celles-ci parlaient d’elles-mêmes, ce qui est incongru. En aucun cas la fonction d’onde avant sa réduction ne correspond à la description réelle de l’objet quantique. La fonction d’onde comprend la connaissance que nous : ‘sujet pensant’, pouvons avoir de l’objet, sans plus. Ainsi les deux phrases suivantes citées : «Mais si vous êtes un électron, surgir de plusieurs places à la fois est un mode de vie. Les lois de la mécanique quantique nous disent que les particules subatomiques existent (sic) dans des états superposés jusqu’à ce qu’elles soient observées et trouvées dans une seule place – lorsque leur fonction d’onde est réduite » violent les fondements de la mécanique quantique. Le terme d’existence est inacceptable. Seule l’affirmation suivante : « apparaissent à l’observateur », serait correcte. Malheureusement, il n’y a pas que ces arguments qui soient erronés. En M.Q. l’observateur embrasse l’objet quantique dans une unité. S’il distingue le haut, du bas de l’objet ou une partie de celui-ci (voir les travaux d’A. Zeilinger et son équipe), la décohérence est déjà établie, ceci annule donc une grande partie des expériences théoriques de l’auteur. En plus cette unité implique que ce soit la temporalité de l’observateur qui s’impose et non pas celle de l’objet puisque celui-ci est doté de multiples scansions possibles. Prenons en compte qu’il y a dans certaines situations une unité indestructible, même quand on sait que l’objet quantique de la fonction d’onde est composite comme dans le cas d’intrication d’objets simples ou complexes (voir les travaux de N. Gisin et son équipe).

Pikovski ose formuler l’idée suivante : « Est-ce que le chat lui-même pourrait réduire la fonction d’onde ? La décohérence gravitationnelle règle le problème » Ceci étant dit, je propose de dépasser simplement l’intérêt pédagogique de ce genre d’article contenant tellement d’extrapolations erronées de la M.Q. que le rétablissement de la vérité conceptuelle de celle-ci remet les ‘pendules à l’heure’. Cela se comprend dans une certaine mesure car penser quantique n’est pour aucun de nous une chose naturelle.

Toutefois, il serait certainement important que nous sachions réaliser des expériences quantiques sous l’influence de champs gravitationnels différents. Il est rappelé dans la fin de l’article de la difficulté de la réalisation mais cela devrait pouvoir se faire bientôt. Il y a certainement plusieurs cas de figure à envisager : 1) l’observateur se trouve subir les mêmes variations du champ gravitationnel que le dispositif expérimental physique ; 2) l’observateur se trouve subir des variations différentes du champ gravitationnel que le dispositif ou maintenu dans un champ constant. Rien que la variation des résultats, ou leur invariance, sera très instructif. En effet, il est essentiel de savoir comment gravitation et M.Q. se combinent et interagissent, et donc quel nouvel espace de connaissances cela pourrait nous révéler.

Einstein kills Schrödinger's cat: Relativity ruins quantum world

Version originale. 18:30 16 June 2015 by Jacob Aron

"The same quirk of general relativity that means your head ages faster than your feet may mean we have to go to space to see large-scale quantum mechanics in action Being in two places at the same time isn't easy for mere humans (Image: Chen Liu/EyeEm/Getty) It's been holding us back as well as holding us down. A previously overlooked effect of gravity on quantum systems could be messing up quantum experiments. If confirmed, it suggests that some quantum studies may be impossible to perform on Earth. No matter how hard you try, you can't be in two places at once. But if you're an electron, popping up in multiple places is a way of life. The laws of quantum mechanics tell us that subatomic particles exist in this superposition of states until they are measured and found to be in just one – when their wave function collapses. Chasing cats So why can't we do the same party trick as an electron? It seems that once something gets large enough, it loses its quantum properties, a process known as decoherence. That's mainly because larger objects interact with their environment, which forces them into one position or another. Erwin Schrödinger famously pointed out the absurdity of large-scale superposition with the example of a cat that is both dead and alive. But that hasn't stopped physicists from trying quantum experiments by isolating objects from external influences. In 2010, a team at the University of California, Santa Barbara, placed a strip of metal 60 micrometres long into a superposition for a few nanoseconds, cooling it to just above absolute zero to shield it from temperature fluctuations. The hope is that more precise experiments could place larger objects, such as a virus, into a superposition, getting us closer to Schrödinger's mythical cat. But now it looks like there is a more fundamental obstacle: gravity. In the gravitational field General relativity, Albert Einstein's sweeping reassessment of gravity that celebrates its centenary this year, tends to be ignored by quantum physicists. "Usually people don't look much at it because gravity acts on very large scales," says Igor Pikovski of Harvard University. "They think there are probably not many effects that are relevant." Now Pikovski and his colleagues have calculated what happens when you do quantum experiments in Earth's gravitational field. They say a quirk of relativity called time dilation could be making large systems lose their quantum nature. One of Einstein's predictions is that gravity slows down time. For massive objects, the effect can be extreme, as shown in the film Interstellar, where an hour on a planet orbiting a black hole is equivalent to seven years on Earth . But it also affects you. Lab experiments with atomic clocks have revealed that your head ages slightly faster than your feet, because of the tiny differences in gravitational field strength. Pikovski's calculations show that molecules placed in a superposition should also experience this time difference, and it can disrupt their quantum state. This happens because the bonds between atoms in a molecule act like springs and constantly vibrate. If a molecule is in a superposition of two states that are at different heights from the ground, each state will vibrate at a different rate, destroying the superposition. Height matters Decoherence happens faster as more particles are added to the system. For example, take an experiment attempting to place 1 gram of carbon – about 1023 atoms – in a superposition of two states. If they could be separated vertically by 1 micrometre, Pikovski says Earth's gravitational field will cause the experiment to decohere in a millisecond, even if nothing else interferes. "Even completely isolated systems are somehow affected by their own composition," he says. This doesn't happen to smaller particles like electrons, because they don't have moving parts, so are unaffected by time dilation, which explains why they happily remain in superposition until we measure them. For the moment, Pikovski's idea remains theoretical, but he says it could be tested with atomic clocks, which use the regular frequencies of energy emitted by atoms to keep time. If you could place an atomic clock in a vertical superposition, it would tick at two rates simultaneously, forcing it to decohere. "This effect is relatively small, so the equipment needs to be a little better than currently," says Pikovski, but he thinks it could be done within a few years. "I think it's brilliant, I love it," says Andrew Briggs of the University of Oxford. He is working on tests of large-scale superposition involving vibrating nanotubes, and thinks he might be able to adapt his experiment to test Pikovski's theory. "If it is right, it might be a serious contribution to the mismatch between our everyday experience and the exquisitely tested theory of quantum mechanics." Leaving Earth behind If the effect is confirmed, it suggests that physicists may have to leave the clutches of Earth's gravity to perform extreme quantum experiments. "It would probably be easier to do a quantum experiment of large systems on the moon or in space than it is on Earth," says Pikovski, because lower gravity would slow decoherence. "If people really want to do macroscopic superposition, eventually you will have to go to space." "Wouldn't that be nice?" says Briggs. "We might get some of my bench-top experiments out into orbit." One location could be the International Space Station, where astronauts already run low-gravity experiments. But others aren't convinced. "It is a tiny effect and I don't think it will force us into space any time soon," says Sabine Hossenfelder of the Nordic Institute for Theoretical Physics in Stockholm, Sweden. The effect is orders of magnitude below what could affect current experiments, she says. Observers everywhere Doing experiments in space has its own issues, says Ruxandra Bondarescu of the University of Zurich, Switzerland. Working in low gravity is difficult, expensive and equipment must be hardened against cosmic radiation, but it's not totally unreasonable, she says. "Maybe in the future, the dominant effect will be quantum decoherence due to gravity." Time dilation could also solve a thorny philosophical issue. Some physicists worry that quantum mechanics requires a conscious observer to collapse a wave function. Would a quantum cat in a box stay both dead and alive forever if no one checked on it? Could the cat itself collapse the wave function? Gravitational decoherence solves the issue, says Pikovski. Even if you perfectly isolated a system from the effects that cause decoherence normally, gravity's effect on the cat would collapse the system. "Time dilation induces this kind of observer," he says. Preserving the superposition But this doesn't entirely remove the problem, says Tim Ralph of the University of Queensland in Australia. There should be no time dilation if both states are at the same height. "In principle, it is still possible to preserve a superposition if sufficient control over the quantum systems can be achieved," he says. Thinking more about how gravity and quantum effects interact, as Pikovski's team has done, could lead to the ultimate prize in modern physics. The mathematics behind general relativity and quantum mechanics produce nonsense solutions in situations where both are important, like the singularity at the heart of a black hole. Those attempting to develop a unified theory of quantum gravity study how the maths breaks and try to fix it, but struggle to do experiments to confirm their ideas – black holes are hard to come by in the lab. "This approach can contribute to a better understanding of the interplay between quantum mechanics and gravity," says Pikovski. "It allows you to build up understanding of phenomena that take place where both theories really matter." The work may be about how quantum physics and gravity work together, but that doesn't mean it's a route to a theory of everything, says Carlo Rovelli of Aix-Marseille University, France. "Quantum gravity refers to the quantum properties of space-time, not the quantum behaviour of matter in space-time, which is something for which we have perfectly credible theories," he says. But Ralph thinks it is a good start. "The predicted effect does combine quantum mechanics and general relativity in a non-trivial way," he says. "There are virtually no experiments so far that test whether this way of doing calculations is correct, thus experiments testing these sorts of predictions are very important – even if they just confirm that we are on the right track."

Journal reference: Nature Physics, DOI: 10.1038/nphys3366

Partager cet article
Repost0
29 juin 2015 1 29 /06 /juin /2015 12:00

~~C’est avec un intérêt certain que j’ai pris connaissance de l’article cité ci-dessous sur le site du NewScientist, le 18/06. J’en propose une traduction et l’original est renvoyé en fin d’article.

Pourchasser une ombre : Pendant combien de temps peut-on continuer de rechercher la matière noire ?

« Nous sommes en quête de matière noire depuis les années 30. Sans cette substance, nous ne pouvons expliquer la rotation des galaxies ni comment à l’origine les galaxies se forment. Et au jour d’aujourd’hui, nous n’avons rien trouvé. Même au LHC au CERN, notre meilleur et plus coûteux outil pour la trouver a jusqu’à présent fait chou blanc. Combien de temps pouvons-nous continuer de chercher ?

La matière noire est censée résoudre plusieurs anomalies tenaces – comme Isaac Asimov l’indique, des choses qui vous ne font pas vous exclamer : « Euréka » mais : « c’est drôle… » De telles anomalies sont souvent la clé de progrès scientifiques. Mais en ce qui concerne la matière noire, et nos efforts sans succès pour la mettre en évidence, le doute finit par sérieusement s’immiscer.

Peut-être que tout simplement nous cherchons une mauvaise chose. Peut-être que les particules de matière noire sont très massives plutôt que relativement légères comme beaucoup l’assument. Les premières expériences sont maintenant engagées pour détecter une telle ‘superlourde’ matière noire qui aurait été créée au tout début de l’univers.

Ou peut-être que la réelle identité de la matière noire est si inattendue que nous n’avons même pas pensé l’observer, en dépit d’une potentielle évidence tapie quelque part dans les vastes quantités de données du LHC. Voir article du 09/06/2015 : ‘Hors Prédiction’

Ou peut-être, nous nous sommes embarqués dans ces fameuses quêtes qui relèvent du ‘Don Quichottisme’ qui marquent l’histoire de la physique. Au début de la cosmologie, Ptolémée conçoit un modèle du mouvement des planètes étroitement ajusté aux observations. Pendant plus d’un millénaire, ses successeurs ont ajusté des ‘épicycles’ qui engendraient de nouvelles anomalies. Leurs louables efforts et ingéniosités devenaient de moins en moins efficaces. Au bout du compte, Copernic et Kepler ont fait exploser le système – il fallut un certain temps pour que leur modèle soit reconnu.

Un parallèle plus récent est fourni par la recherche de l’éther luminifère, substrat que l’on considérait essentiel pour la propagation de la lumière. Quand A. Michelson et E. Morley échouèrent à le détecter en 1887, ils ne déclarèrent pas que le monde avait besoin d’une nouvelle théorie pour la propagation de la lumière. Au contraire, avec d’autres scientifiques ils construisirent une série de plus gros et meilleurs instruments pour trouver cet éther. Eventuellement la relativité restreinte abolit l’anomalie – mais les ‘éthéristes’ continuèrent de l’ignorer.

Peut-on être sûr de ne pas être dans la même situation : chercher quelque chose qui n’est pas là ? Bien qu’il n’y ait pas d’alternative robuste à la matière noire pour résoudre les anomalies cosmiques par d’autres moyens, par exemple la gravité modifiée non encore bien attestée !

Mais pragmatiquement, le problème réel n’est pas scientifique mais financier. La majorité des scientifiques diront qu’il est préférable de persévérer la recherche étant donné les conséquences énormes en cas de succès. Mais pendant encore combien de temps les financeurs vont-ils accorder des crédits ? Considèrons la recherche d’intelligence extraterrestre, qui en dépit de son impact potentiel, maintenant n’est plus dotée de financement public et de peu de soutien privé. Ceci s’explique facilement : l’échelle de la tâche et les limites de notre technologie signifient que les chances de trouver des ‘Aliens’ intelligents sont minces. Avec quelques années supplémentaires sans résultat, la matière noire pourrait devenir un sujet d’investissement peu attractif.

Il nous reste à espérer que ceci ne se produise pas avant que nous trouvions soit de la matière noire, soit des anomalies nouvelles qui renversent le ‘charriot de pommes’, soit une nouvelle résolution de notre énigme cosmique. Et nous devons aussi espérer que, contrairement aux ‘épicyclistes’ et aux ‘éthéristes’, nous reconnaîtrons promptement les brèches quand elles apparaîtront. »

Cet article me parle d’autant plus que le 29/01/2015 j’ai posté : ‘Bilan de la recherche de la matière noire’ qui se concluait ainsi : « Au début des années 1980, c’était une démarche ‘raisonnable’ que de vouloir insérer l’hypothèse de la matière noire dans le cadre des connaissances canoniques qui prévalaient à cette époque à propos de notre connaissance rassemblée pour concevoir ce que l’on appelle l’univers, accompagné de sa genèse. Etant donné qu’avec cette hypothèse nous n’avons pas progressé d’un iota, il est temps de s’interroger sur le fait que : soit l’hypothèse n’est pas judicieuse, soit le cadre des connaissances canoniques est incorrect, soit encore d’une façon plus dramatique nous devons simultanément reconsidérer ces deux socles de connaissances et d’hypothèses. Les succès croissants de la théorie MOND nous y obligent d’une façon objective sans devoir considérer que cette théorie est la ‘bonne’, loin s’en faut.

Et si cette hypothèse de matière noire nous signalait que notre conception de l’univers était erronée, en tous les cas provisoire ? Dans le sens où ce que nous désignons actuellement comme l’Univers n’est rien d’autre que l’univers de nos connaissances actuelles et qu’il faut franchir maintenant un cap de connaissances nouvelles pour résoudre les problèmes posées depuis les années 80. Par exemple, ne plus penser en terme d’un univers borné, déterminé, par la vitesse de la lumière, ne plus considérer que le Big-Bang est un paradigme valable. Mais penser à un univers qui engloberait un champ plus riche de connaissances, qui n’obligerait pas à réexaminer les lois de la physique présentement acceptées comme l’imagine Pierre Salati mais à accepter leur validité locale, provisoire, pas vraiment universelle. (Notre univers n’aurait que la valeur d’un univers local). Bref il faudrait aller au-delà. Dans cet au-delà de connaissances (que nous devons nous approprier) le problème lié à l’hypothèse de l’énergie sombre devrait certainement avoir aussi une explication. »

En effet il est dorénavant nécessaire de prendre tout le recul suffisant pour se poser les bonnes questions à propos de la matière noire. Comme il est rappelé dans l’article du N.S., dans l’histoire de la connaissance scientifique, il y a eu des impasses à la compréhension, à l’interprétation, impressionnantes, avant que le cap bénéfique ne soit effectivement franchi. A mon sens ce qui est redoutable c’est l’inertie intellectuelle difficile à accepter face à la nouveauté qui a été rappelé dans cet excellent article. Au point que c’est la perte de la réflexion objective qui peut s’installer. C’est exactement ce que j’ai pointé dans l’article du 31/03/2015 : « L’objectivité scientifique exclut qu’elle soit parasitée par des problèmes de doctrine. »

Chasing shadows: How long can we keep looking for dark matter?

18 June 2015

We've known we need dark matter since the 1930s, but still haven't found it. The search can't go on for ever.

WE HAVE been aware of the need for dark matter since the 1930s. Without this stuff, we can't make sense of the rotation of galactic clusters, or how galaxies formed in the first place. And yet, to date, we have found nothing. Even CERN's Large Hadron Collider, our best and by far most expensive tool for finding it, has so far drawn a blank. How much longer can we keep looking?

Dark matter is posited as the resolution to several obstinate anomalies – as Isaac Asimov put it, things that make you exclaim not "Eureka!" but "that's funny..." Such anomalies are often the key to scientific progress. But dark matter, and our efforts to pin it down, have been around long enough for doubts to creep in.

Perhaps we have simply been looking for the wrong thing. Perhaps dark matter particles are very massive, rather than fairly light, as many assume. The first experiments are now under way to detect any such "superheavy" dark matter that might have been created when the universe was just getting started (see "WIMPZILLAs: Monster particles from the dawn of time").

Or perhaps the true identity of dark matter is so unexpected that we haven't even thought to look for it, despite potential evidence lurking somewhere in the vast quantities of data from the LHC.

Or perhaps we have embarked on one of those quixotic quests that mark the history of physics. At the beginnings of cosmology, Ptolemy devised a model of planetary motion that closely fitted observations. For more than a millennium, his successors adjusted these "epicycles" for new-found anomalies. Their laudable commitment and ingenuity was to increasingly little effect. In the end, Copernicus and Kepler blew the whole thing away – though it took a while for their model to be accepted.

A more recent parallel comes from the search for luminiferous ether, the all-pervading substance once thought to be the medium for light. When Albert Michelson and Edward Morley failed to detect it in 1887, they didn't declare that the world needed a new theory for the propagation of light. Instead, they and others built a series of bigger and better instruments to find it. Eventually special relativity abolished the anomaly – but many etherists carried on looking regardless.

Can we be sure we're not in their position, looking for something that isn't there? Well, there is no robust alternative to dark matter; plans to resolve the cosmic anomalies by other means, such as modified gravity are not well-attested.

But pragmatically, the real issue is not the science, but the money. Most physicists would say it's worth persevering with the search, given its potentially huge ramifications. But how long can they persuade their funders to keep paying for it? Consider the search for extraterrestrial intelligence, which, despite its potential impact, now receives no public money and relatively little private support. That's easily explained: the scale of the task and the limits of our technology mean the chances of finding intelligent aliens seem slim. Given a few more years of null results, dark matter might come to seem a less worthwhile investment to cash-strapped funding bodies too.

We'll have to hope that doesn't happen before we find either dark matter, some fresh anomalies that upset the apple cart, or a clever new resolution to our cosmic conundrums. And we'll also have to hope that, unlike the epicyclists and etherists, we'll recognise that breakthrough promptly when it comes.”

Partager cet article
Repost0
17 juin 2015 3 17 /06 /juin /2015 10:20

~~Décrypter en ‘Présence’ l’effet tunnel.

L’explication traditionnelle de l’effet tunnel intégrait parfaitement les concepts de la mécanique quantique, l’explication nouvelle prolonge évidemment cette intégration mais sa phénoménologie connaît une évolution très significative.

Jusqu’à présent l’effet tunnel était interprété comme un phénomène ubiquiste, dans la mesure où un objet quantique pouvait se trouver simultanément des deux côtés d’une barrière de potentiel, alors qu’il n’est pas pourvu d’une énergie suffisante pour franchir classiquement cette barrière. Cette éventualité ubiquiste est envisageable parce que la fonction d’onde, de l’objet quantique, formellement exprime une probabilité de présence variable de chaque côté de la barrière de potentielle. En conséquence la présence effective de l’autre côté de la barrière est interprétable comme si l’objet était passé sous la barrière de potentiel par l’intermédiaire d’un tunnel. L’observation de cet effet fait partie des succès remarquables de l’avènement de la mécanique quantique illustrés par les propriétés concrètes des semi-conducteurs, aussi bien par la radioactivité alpha, etc...

L’exploitation du formalisme au sens stricte nous confronte à une énigme car des probabilités de présence de l’objet quantique, simultanément possible de chaque côté de la barrière, implique l’instantanéité, ce qui est effectivement physiquement impossible. En se cantonnant qu’au traitement formel, les physiciens acceptaient d’introduire un temps imaginaire associé à ce processus. Ceci est une conséquence de l’exploitation des équations de la mécanique quantique au sens stricte d’un point de vue formel. Et comme l’effet tunnel est expérimentalement observé dans des domaines extrêmement variés, il est légitime d’exploiter les outils mathématiques qui décrivent ce phénomène… jusqu’à ce que des éléments nouveaux de connaissance apportent de la compréhension qui autorise une explication différente et plus riche. Ceci est résumé par Anatoli Kheifets, de l’Université Nationale Australienne signataire de la publication en question : « On avait toutes les raisons expérimentales de penser que le temps mis par un électron pour échapper d’un atome par effet tunnel était significatif. Mais les équations nous disaient que le temps associé à ce processus était imaginaire, c’est-à-dire un nombre complexe, et nous avons réalisé que cela signifiait que le processus était instantané »

Cette étape vient d’être proposée par des physiciens Australiens qui ont évalué (par simulation) que l’effet tunnel ne se produisait pas instantanément mais avait une durée qui était de l’ordre de l’attoseconde. Il faut entendre que ce résultat ne s’oppose pas au traitement formel précédent, ni au résultat, mais l’interprétation formelle standard est maintenant enrichie d’une description phénoménologique de l’effet tunnel. Cette progression, nous l’obtenons parce que nous avons acquis une compétence nouvelle qui est celle de maîtriser la mesure de l’intervalle de temps de 10-18s. (Voir article du 26/05/2015). Spontanément j’ai eu envie d’écrire que nous savions maintenant produire des intervalles de temps de 10-18s. Ce qui est exact et ce sont les lasers qui sont à la base de ce nouvel outil de création.

Grâce à cette nouvelle capacité des physiciens, la ‘Présence’ de l’observateur est maintenant possible lorsque des phénomènes physiques ont cette durée temporelle et on peut constater un saut qualitatif de la compréhension et de l’explication des phénomènes en question. Avec cet exemple on bénéficie d’une illustration intéressante de mon thème favori de réflexion : ‘Faire de la physique avec ou sans ‘Présence’’. Nous constatons ici que ce n’est pas la même chose ‘avec’ que ‘sans’ et la thèse que je privilégie est celle de l’inexpugnabilité de la ‘Présence’ du sujet pensant, qu’il soit en situation d’observateur ou d’être réflexif. De plus, j’ai toujours considéré que cette ‘’Présence’ du sujet pensant’ était réaliste jusqu’à un intervalle de temps compris entre 10-22s et 10-25s, limite que je dénomme : Temps propre du Sujet (TpS). En deçà de cette durée aucune ‘Présence’ ne peut être envisagée car l’intelligence du sujet pensant devient aveugle. Je commente d’autant plus la valeur des travaux des physiciens Australiens que j’ai toujours considéré que la conquête des connaissances des propriétés de la Nature étaient corrélées à la conquête de la mesure du temps car contrairement à ce qu’affirme Lee Smolin : le temps n’est pas donné dans la Nature, le temps est pour moi la signature de la ‘Présence’ de l’être réflexif : l’anthrôpos. En ce sens le temps est émergeant comme l’affirme Carlo Rovelli, mais évidemment pas du tout pour les mêmes raisons que celles que je privilégie. Ceci étant dit, il n’est pas banal que Serge Haroche ait intitulé son cours du 07/04/2015 : « La passion (sic) de la précision et la mesure du temps. » Il serait intéressant que S. Haroche nous dise pourquoi cette passion ? Est-ce que la précision et la mesure du temps est motivée par une intuition profondément humaine qui nous conduirait jusqu’à la proximité de la plus pure palpitation existentielle ?

De plain-pied avec cette publication australienne se trouve illustrée la dynamique de la conquête de la connaissance que j’ai souvent exprimée dans différents articles : « Au sein d’une éternité parmi tous les possibles, l’Anthrôpos creuse sa connaissance de l’Univers et il n’y a pas de raison qu’il y ait une fin, une finalité… » Au cœur de cette dynamique se trouve concentré ce qui fait que nous soyons là et que perpétuellement l’on vise l’au-delà d’un là spatio-temporel toujours provisoire.

Je profite de l’occasion pour commenter le fait que ma thèse est aux antipodes de la thèse anthropique puisque quand je me réfère à la réflexion menée par S. Hawking sur ce sujet qui stipule qu’il s’agit de se poser la question : « Pourquoi sommes-nous là pour nous demander pourquoi l’Univers est tel qu’il est ? », « En gros, le principe anthropique énonce que l’Univers doit être plus ou moins tel que nous le voyons parce que, s’il était différent, il n’y aurait personne pour l’observer… ».

Selon ma conception ce qui est significatif c’est l’évolution de notre représentation de l’Univers et il est inapproprié de considérer qu’il ‘pourrait être plus ou moins tel que nous le voyons’. Il n’y a pas de raison de vouloir installer une pause concernant une réalité d’un univers qui serait le Nôtre et encore moins de considérer qu’il serait une sorte de miroir qui justifierait, voire expliquerait, notre existence.

Selon ma conception ce qui fait sens c’est la relation entre Nature et être pensant (voir l’article du 18/03/2015 ; ‘Décrypter la physique comme science de l’interface de l’être humain et de la Nature ! ‘). Comment cela se noue ?

Avec la maîtrise assurée de l’attoseconde, la prochaine étape annoncée est celle de la zeptoseconde : 10-21s, pas d’impatience car il nous faudra peut-être une décennie pour fabriquer l’outil qui nous rendra maître de cet intervalle de temps. Selon mon hypothèse, à ce niveau, nous serons probablement en mesure d’expliquer des phénomènes connus d’une façon inédite, voire que nous découvrions des phénomènes tout à fait inédits.

Partager cet article
Repost0
9 juin 2015 2 09 /06 /juin /2015 14:49

~~Hors prédiction.

Il y a quelques semaines dans un article publié dans Nature, les collaborations du détecteur CMS et du détecteur LHCb au CERN, révèlent la première observation d'une désintégration très rare de la particule méson B0s en deux muons. D'après les prédictions théoriques relatives au Modèle standard, modèle qui rend compte actuellement de la façon la plus satisfaisante l’ensemble des particules recensées, ce processus subatomique rare se produit quatre fois sur un milliard de désintégrations, mais il n'avait jamais été constaté auparavant. Ce résultat s'appuie sur des données prises en 2011 et 2012. Ces données contiennent également des indices d'une désintégration similaire, mais encore plus rare, celle du B0, une particule cousine du B0s, en deux muons

Ces résultats sont en accord avec les prédictions du Modèle standard. Doit-on s’en réjouir ? Oui ! Evidemment puisque ces résultats confirment la consistance absolue de ce modèle standard. Non ! Car l’horizon est bouché, ces désintégrations rares ne révèlent pas la moindre indication d’une nouvelle physique. Cela voudrait dire que ce Modèle Standard confirme des frontières de ses capacités de prédictions, comme si les physiciens avaient épuisé avec leurs outils théoriques propres à ce Modèle les ressources d’interprétation des concepts et des paradigmes attachés. L’ensemble de ces outils constitue la Théorie Quantique des Champs…à basse énergie.

Il n’est pas banal de constater que le livre datant de 2003, qui recense l’ensemble des résultats expérimentaux attendus au LHC : ‘La phénoménologie au LHC’ comprend, en fin d’ouvrage (420 pages), l’éventualité de ces désintégrations rares avec les probabilités de les observer. Ainsi se referme la boucle des prédictions, y compris les plus ténues.

On se souvient que la découverte du boson de Higgs, fut annoncé avec enthousiasme mais…en fait un enthousiasme relatif car il est tellement conforme, là encore, aux prédictions du Modèle standard que cela est troublant. Si on ne découvrait que ce que l’on cherchait ? Tout est tellement conforme. L’article ultime sur la désintégration du méson B est signé par 2500 physiciens, l’ultime sur la masse du boson de Higgs (février 2015) est signé par 5000 physiciens.

Dans la revue : ‘Le courrier du CERN’, le 09/04/2015, un article nous affirme à juste raison : « Les données du satellite Planck ne révèlent aucune évidence d’une nouvelle physique. La publication, des données de la mission complète du satellite Planck, est un évènement majeur de la cosmologie. En dépit de la très haute qualité des données, cet évènement a peu d’impact dans la communauté scientifique (sic). Plutôt que donner de l’élan pour une nouvelle physique, Planck confirme avec une grande précision le Modèle standard de la Cosmologie, annule la perspective de l’existence d’un neutrino, léger, stérile, et contredit l’espoir que l’excès de positron des rayons cosmiques ait comme origine la matière noire. »

De plus l’équipe de Planck a annoncé avec une ferme autorité scientifique le 06/02/2015 que les premières étoiles contribuant à la réionisation se sont allumées 550 millions d’années après le big-bang et non pas 400 millions comme on croyait avoir observé grâce au télescope Hubble.

Ainsi, il semblerait que nous ayons obtenu de la part des deux Modèles Standards tous les résultats que nous avions anticipés, avec une précision étonnante, mais pas plus, ni la moindre indication concernant un au-delà de ceux-ci.

Depuis quelques jours, nous avons une grande perspective grâce au redémarrage du LHC, largement amélioré et avec des détecteurs reconfigurés. A priori, on devrait détecter des productions qui constitueraient au moins des indices qu’un au-delà à chacun des modèles standards est crédible. L’espoir largement exprimé est que l’on découvre, par exemple, enfin des particules supersymétriques qui comprendraient la découverte de particules de matière noire. Ces résultats on est prêt à les observer parce qu’ils sont exactement dans le prolongement de ce que l’on maîtrise à propos des modèles standards. Sans vouloir jouer les Cassandre, il y a un risque certain de distorsion, et de laisser de côté des découvertes authentiquement originales.

En effet, étant donné la ‘grande’ science qui est programmé au CERN, il est très difficile de laisser de la place à de l’inattendu. Tout est préétabli, tout est préalablement simulé, et dans les détecteurs ne sont sélectionnées que les traces des évènements attendus. Entre la première séquence d’exploitation du LHC jusqu’en 2013 et la deuxième séquence qui vient de démarrer, il n’y a rien de neuf du point de vue théorique, pas de concept nouveau, encore moins de paradigme nouveau. Si on ne voit pas de particules supersymétriques donc corrélativement pas de particules de matière noire telles qu’elles sont préalablement conçues cela provoquera un très grand désarroi.

Ce qui à mon sens est à l’origine de cette perspective déroutante mais concevable, c’est que les physiciens théoriciens sont convaincus qu’ils disposent avec la ‘Théorie Quantique des Champs’ (TQC) de l’outil universel permettant de traiter de tous les problèmes de la physique des hautes énergies actuelle. Il n’est donc pas impossible que cela induise un tropisme qui nous rende aveugle intellectuellement à l’égard d’évènements hors TQC. Rappelons-nous, lorsque fut annoncée, l’an passé, la détection des ondes gravitationnelles primordiales du Big-Bang, c’est la thèse d’Andreï Linde avec l’inflaton : champ quantique inducteur de l’inflation, qui a refait surface, jusqu’à ce que la baudruche se dégonfle.

Heureusement que des très grandes quantités de données sont enregistrées, ce qui permettra des retours en arrière sur les années du run : 2012, 2013, dès qu’on aura pris conscience de notre aveuglement théorique.

A mon sens il faudrait dépasser la TQC, pour ouvrir vraiment des nouvelles perspectives d’une nouvelle physique et non pas nous cantonner à chercher ce qui pourrait constituer ses prolongements. Autrement on risque, dans les deux ou trois prochaines années, de n’avoir qu’à contempler la justesse des prédictions du Modèle Standard tel que nous l’avons prospecté jusqu’en 2013. Les failles de la TQC sont décelables à propos des neutrinos, dont on cherche depuis 80 ans à saisir les propriétés physiques dans ce cadre alors qu’on devrait concevoir une physique spécifique des neutrinos.

Il y a des domaines où il est envisageable que des découvertes déverrouillent la situation, et c’est peut-être à la portée de la nouvelle session au LHC d’ouvrir cette perspective. Etant donné le niveau d’énergie atteint dans le centre de masse des collisions des protons, il y aura peut-être formation de micro-trous noirs qui seront détectables par la formation de photons résultants de leur évaporation. Dans ce cas l’hypothèse de petites dimensions spatiales (ou 4, ou 6) deviendra crédible et partant nous mettrons en évidence un authentique paradigme nouveau. La conception d’une nouvelle physique serait immédiatement à notre portée. Cela impliquerait une modification maîtrisable de la loi de Newton aux très petites dimensions (de l’ordre de 10-10m), ainsi que notre représentation actuelle des particules élémentaires. Il ne faut pas oublier d’indiquer que cela validerait aussi les travaux de S. Hawking.

Ce qui est hors prédiction voire insolite, à condition que nous soyons disponibles pour le déceler, pourrait donc nous offrir des bifurcations qu’il nous faudra savoir exploiter.

Partager cet article
Repost0
26 mai 2015 2 26 /05 /mai /2015 10:02

~~Académie des sciences : ‘A la Recherche du temps’ Le 19 Mai 2015.

Deux interventions ont retenu mon attention. Celle de Stanislas Dehaene : ’Le tempo de la conscience’ et celle de Alain Connes : ’Aléa du quantique et passage du temps’.

Au cours de son intervention, S. Dehaene a relaté que « Le cerveau ne perçoit pas instantanément les évènements du monde extérieur. Il lui faut au moins un tiers de seconde, et souvent bien plus, avant qu’une information sensorielle élémentaire accède à la conscience. Il montre comment, grâce à l’imagerie cérébrale et notamment à la magnéto-encéphalographie, il parvient à suivre toutes les étapes de traitement visuel non conscientes et conscientes dans le cerveau humain. »

Rappelons que cela fait à peu près deux décennies que nous avons connaissance d’une temporalité de l’activité cérébrale, elle a toujours été estimée inférieure à la ½ seconde. Comme le précise Dehaene les moyens techniques exploitables maintenant permettent une compréhension de plus en plus précise de ce qui se passe dans notre cerveau durant ce 1/3 de seconde avant qu’il n’y ait prise de conscience effective à propos d’une image ou encore à propos d’un concept. En effet des neurones conceptuels sont maintenant isolés dans le cerveau.

Mon hypothèse est que cette durée correspondant à la ‘tâche aveugle de la conscience’ ne peut pas être sans conséquence sur l’éveil intellectuel et la vigilance observationnelle du sujet réflexif. En effet nous rencontrons des durées propres limites qui nous rendent aveugles. C’est par exemple le cas autour de 10-21s, 10-22s quand des particules élémentaires (structures résonnantes) ont des durées de vie de cet ordre de grandeur. Nous les appelons des particules virtuelles puisqu’effectivement inobservables mais que l’on peut reconstituer par le calcul à partir de la connaissance des caractéristiques physiques des éléments de leur désintégration. Nous trouvons là une frontière incontournable qui sépare le monde des particules réelles (observables) de celui des particules virtuelles (inobservables).

Cette durée aveugle ne peut pas se résoudre en exploitant des moyens techniques nouveaux quel que soit le détecteur (les plus sensibles et précis sont actuellement en activité au Cern) car ces particules n’ont pas le temps de déposer une trace pour nous perceptible. Elles ont une durée de vie, mais si étroite, que notre acuité observationnelle, intellectuelle (cérébrale ?), ne peut pas enregistrer un signal de leur présence extrêmement fugace et c’est rédhibitoire.

Il me semble qu’il est légitime d’établir une corrélation entre la durée aveugle de la conscience et la durée aveugle de l’intelligence humaine (que je situe autour de 10-25s) et que je nomme le Temps Propre du Sujet (TpS), (Voir article du 2/11/2012). Il serait quand même difficile de postuler que le fonctionnement par intermittence avérée de la conscience du ‘sujet pensant’ conduise à un fonctionnement intellectuel, observationnel, absolument continu du sujet.

Il y a peut-être une piste, dans le futur, pour vérifier le bien-fondé de mon hypothèse : actuellement nous sommes capables techniquement de maîtriser et de mesurer des phénomènes d’une durée de 10-18s (attoseconde), la prochaine étape sera 10-21s, ainsi de suite. Jusqu’à quelle durée pourrons-nous aller ? Réponse dans une dizaine d’années. (En ce qui concernent ‘La passion de la précision et la mesure du temps’ ainsi que ‘La métrologie et la science de l’attoseconde et de l’angström’, voir les leçons 5 et 6 de Serge Haroche du 07 et 14 /04/2015 au Collège de France).

En ce qui concerne l’intervention d’Alain Connes, je suis moins enthousiaste car on pouvait espérer une présentation plus solide. Il a surtout aligné un certain nombre d’affirmations qui lui sont propres, certaines appropriées, certes, mais certaines communément acceptées depuis longtemps, d’autres qui auraient dû être étayées. Ainsi affirmer : « L’aléa quantique est le tic-tac de l’horloge divine (sic) » mérite au minimum que cela soit commenté. La référence au divin est une échappatoire assez habituelle chez les platoniciens. A mon sens ce n’est pas intellectuellement rassurant, surtout quand on prend en compte les affirmations d’un autre platonicien notable : Roger Penrose : « La vérité mathématique est quelque chose qui va au-delà du simple formalisme. Il y a quelque chose d’absolu et de « divin » dans la vérité mathématique. C’est ce dont il est question dans le platonisme mathématique. […] La vérité mathématique réelle va au-delà des constructions fabriquées par l’homme. »

En conséquence, Penrose n’hésite pas à prétendre : « Non seulement j’affirme que nous avons besoin d’une physique nouvelle, mais aussi que celle-ci doit s’appliquer à l’action du cerveau (sic). » et on peut considérer que son programme de recherches comprend les trois thèses suivantes : 1- l’activité du mental peut être abordée de manière scientifique ;

2- les idées de la mécanique quantique sont pertinentes pour le problème des relations du corps et de l’esprit ;

3- le problème de l’actualisation des potentialités en mécanique quantique est un vrai problème, qui ne peut être résolu sans modifier le formalisme de la théorie.

On aboutit donc à une situation extrêmement paradoxale, plus R. Penrose situe dans les altitudes inaccessibles et divines les vérités mathématiques platoniciennes plus l’être humain et ses facultés cognitives, seraient réductibles aux schémas de son physicalisme. (Physicalisme : doctrine émanant du Cercle de Vienne à partir de 1931, selon les fondateurs (notamment, Neurath) : la langue de la physique est langue universelle de la science et par conséquent, toute connaissance peut être ramenée aux énoncés sur les objets physiques, y compris celle relative aux sciences humaines.)

Je ne dis pas qu’A. Connes raisonne ainsi, mais je considère que la référence au divin constitue un renoncement de la pensée qui est préjudiciable à l’avancée de la pensée scientifique collective.

Alain Connes a aussi énoncé l’idée que, selon lui, la variabilité quantique était plus fondamentale que la variabilité du temps. Donc le temps n’est pas le chef d’orchestre dans la Nature. Et c’est la non commutativité qui implique l’évolution (théorème de Tomita-Takesahi).

Une autre affirmation qui a été exprimée, non développée, mais qui a retenu mon attention, c’est que la connaissance partielle de la réalité joue un rôle dans la détermination de la flèche du temps voire même dans la scansion de ce temps. Globalement cette idée me convient car conformément à mon article du 12/05, « La praxis du sujet pensant est motivé par un déséquilibre permanent entretenu par l’être dans la Nature et qui anime une dynamique de la conquête de la connaissance des lois physiques de la Nature… Il est évident maintenant que cette conquête n’aura pas de fin. »

En me décidant d’aller à cette conférence, j’espérais qu’A. Connes allait proposer des développements de ce qu’il avait introduit en 2007 lors d’une conférence sur le campus de l’université de Metz et repris au cours d’une interview sur Arte. Ci-joints les différents éléments qui avaient retenu mon intérêt :

- L’espace-temps est très légèrement non commutatif, en fait le point lui-même dans l’espace-temps n’est pas commutatif. Il a une toute petite structure interne qui est comme une petite clé.

- Le point a une dimension 0 au niveau de la métrique mais avec ma géométrie il a une structure interne et j’ai un espace de dimension 6, non commutatif.

- La longueur spectrale c’est exactement le passage de la géométrie commutative à la géométrie non commutative.

- La structure interne du point, dans l’espace-temps, a un lien important, très fort, avec la mesure des longueurs, et c’est ça qui donne l’unité des mesures des longueurs.

- Le temps est thermodynamique. Il y a un pont entre la linguistique (sic) et le temps tel qu’on le perçoit.

- Il y a certains types d’harmonies qui sont mathématiques.

- Dans la symétrie pure, il y a quelque chose de mort, de glacée.

- Une algèbre non commutative tourne avec le temps (d’après le théorème de Tomita) c’est le seul endroit des mathématiques où il y a un élément d’imperfection.

- Comme dans l’art japonais, les éléments d’imperfection font partie de la vie.

Le point de dimension 0 du point de vue de la métrique mais avec une structure interne’ est vraiment compatible avec ce que j’appelle le point aveugle de l’intelligence humaine : TpS = 10-26s, avec la ‘‘Présence’ du sujet pensant’ inexpugnable = la structure interne en question. Disons que cette structure est selon mon hypothèse le refuge inexpugnable de ‘l’Être réflexif’. Selon mon hypothèse, contrairement à A. Connes, il n’y a pas à faire appel au divin pour évoquer le tic-tac de l’horloge qui égrènerait une chronologie fondamentale de notre monde, non, point de divin : le temps résulte de l’émergence d’une intelligence primordiale dans la Nature, qui est vecteur d’un ‘tic-tac’ primordial car cette intelligence doit, avant tout, et ce serait sa première nécessaire activité consciente, se situer dans le temps et l’espace pour se déployer.

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens