Overblog
Suivre ce blog Administration + Créer mon blog
6 juillet 2015 1 06 /07 /juillet /2015 14:33

~~Einstein tue le chat de Schrödinger : La relativité ruine le monde quantique.

L’article qui a le titre cité ci-dessus a été publié le 16/06 sur le site du NewScientist. Cet article mérite d’être analysé et commenté, c’est ce que je propose après l’avoir traduit en français. La version originale est renvoyée en fin du présent article.

Traduction :

« La même particularité de la relativité générale, cela signifie que votre tête vieillit plus vite que vos pieds et cela veut dire que nous devons aller dans l’espace pour voir en action la mécanique quantique à grande échelle.

Etre à deux places en même temps n’est pas aisé pour de simples humains. … Un bilan avisé de l’effet de la gravité sur des systèmes quantiques pourrait ruiner des expériences quantiques. Si cela est confirmé, cela suggère que des études quantiques peuvent être impossibles à réaliser sur terre.

Qu’elle que soit la peine que vous y mettez, vous ne pouvez pas être à deux places à la fois. Mais si vous êtes un électron, surgir de plusieurs places à la fois est un mode de vie. Les lois de la mécanique quantique nous disent que les particules subatomiques existent (sic) dans des états superposés jusqu’à ce qu’elles soient observées et trouvées dans une seule place – lorsque leur fonction d’onde est réduite.

Chasser les chats

Alors pourquoi nous ne pouvons pas réaliser le même tour que celui d’un électron ? Cela semble provenir du fait qu’une fois que quelque chose devient suffisamment grand, il perd ses propriétés quantiques : un processus appelé décohérence. C’est parce que principalement des objets grands interagissent avec leur environnement que cela les force d’être dans une position ou une autre. E. Schrödinger, d’une façon fameuse, pointa l’absurdité des superpositions à grande échelle avec l’exemple d’un chat mort et vivant.

Mais cela n’a pas arrêté les physiciens d’essayer des expériences en isolant des objets des influences externes. En 2010, une équipe de l’université de Californie, à Santa Barbara, a placé une lame de métal de 60 micromètres de longueur en superposition pendant quelques nanosecondes, en la refroidissant juste au-dessus du zéro absolu pour la protéger des fluctuations de température.

L’espoir est que des expériences plus précises puissent être réalisées avec des objets plus grands, tels des virus, placés dans des états superposés, obtenant ainsi une meilleure proximité avec le chat mythique de Schrödinger. Mais maintenant il semblerait qu’il y ait un obstacle plus fondamental : la gravité.

Dans le champ gravitationnel.

La relativité générale, tend à être ignorée par la physique quantique. ‘Habituellement les gens ne la prennent pas plus en compte parce qu’elle agit sur des grandes échelles’ dit I. Pikovski de l’université de Harvard. « Ils pensent qu’il n’y a pas beaucoup d’effets qui soient significatifs ». Maintenant Pikovski et ses collègues ont calculé ce qui se produit quand vous réalisez des expériences quantiques dans le champ gravitationnel. Ils disent qu’une particularité de la relativité appelée dilatation du temps pourrait faire perdre aux grands systèmes leur nature quantique.

Une des prédictions d’Einstein est que la gravité ralentit le temps. Pour les objets massifs, l’effet peut être extrême, comme cela est rendu dans le film Interstellar, où une heure sur une planète qui orbite autour d’un trou noir est équivalent à sept ans sur la terre.

Mais ceci vous affecte aussi. Les expériences en laboratoire avec des horloges atomiques ont révélé que l’âge de votre tête vieillit plus vite que vos pieds, à cause de la subtile différence de la force du champ gravitationnel.

Le calcul de Pikovski montre que les molécules mises en superposition peuvent subir cette différence temporelle et ainsi rompre leur état quantique. Cela peut se produire parce que les liens entre les atomes dans une molécule connaissent des sauts et vibrent constamment. Si une molécule est en superposition de deux états qui sont à des hauteurs distinctes du sol, chacun des états vibrera à des fréquences distinctes, ce qui détruirait la superposition.

Matières hautes

La décohérence se produit plus vite quand plus de particules sont ajoutées au système. Par exemple, prenons l’expérience qui tente de mettre 1 gramme de carbone – environ 1023 atomes – dans une superposition de 2 états. S’ils peuvent être séparés verticalement d’1 micromètre, Pikoski dit que le champ gravitationnel terrestre provoquera la décohérence en une milliseconde, même si rien d’autre n’interfère. « Même complètement isolés les systèmes sont de toute façon affectés par leur propre composition »

Ceci ne se produit pas avec des plus petites particules comme les électrons, parce qu’ils n’ont pas de parties en mouvement, donc ne sont pas affectés par la dilatation du temps, ce qui explique qu’ils se maintiennent en superposition d’états jusqu’à la mesure.

Pour le moment, les idées de Pikoski restent théoriques, mais il considère que cela peut être testé avec des horloges atomiques, qui utilisent la fréquence régulière d’émission d’énergie d’atomes pour conserver le temps. Si vous pouvez placer une horloge atomique dans une superposition verticale, elle ‘tic-tacquera’ à deux fréquences simultanément, forçant ainsi la décohérence.

Cet effet est relativement petit, donc les équipements doivent être encore améliorés, mais Pikovski pense que cela pourra se faire dans quelques années.

Laisser la terre en arrière.

Si l’effet est confirmé, cela suggère que les physiciens doivent quitter l’emprise de la gravité terrestre pour réaliser des expériences quantiques extrêmes.

« Cela serait probablement plus facile de faire des expériences quantiques de grands systèmes sur la lune ou dans l’espace que sur terre. » puisque la plus faible gravité ralentira la décohérence. « Si les gens veulent obtenir des superpositions macroscopiques, il faut aller dans l’espace » Ce serait bien, l’International Space Station, pourrait être appropriée.

D’autres personnes ne sont pas convaincues. « C’est un effet ténu, et je ne pense pas qu’il nous conduira dans l’espace prochainement. » indique S. Hossenfelder du centre de Stockholm. L’effet est de l’ordre de grandeur en dessous de ce qui pourrait affecter une expérience courante.

Des observateurs partout.

Faire des expériences dans l’espace a son propre objet, dit R. Bondarescu de Zurich. Travailler en gravité faible est difficile, coûteux et les équipements doivent être blindés contre les radiations cosmiques, mais ceci n’est pas déraisonnable dit-elle. « Peut-être que dans le futur, l’effet dominant sera la décohérence quantique due à la gravité. »

La dilatation du temps pourrait résoudre un épineux problème philosophique. Quelques physiciens s’inquiètent que la mécanique quantique requière un observateur conscient pour réduire une fonction d’onde. Est-ce qu’un chat quantique dans une boite devrait rester à la fois mort et vivant pour toujours si personne ne le vérifie ? Est-ce que le chat lui-même pourrait réduire la fonction d’onde ? La décohérence gravitationnelle règle le problème, dit Pikovski. Même si vous isolez le système des effets qui provoquent la décohérence normalement, l’effet gravitationnel sur le chat réduira le système. « La dilatation du temps induit ce type d’observateur. » dit-il.

Préserver la superposition.

Mais ceci ne règle pas le problème, indique T. Ralph d’Australie. Il se pourrait qu’il n’y ait pas de dilatation du temps si les deux états sont à la même hauteur. « En principe, il est toujours possible de préserver une superposition si un contrôle suffisant peut être réalisé sur le système quantique » dit-il.

En pensant plus : comment la gravité et les effets quantiques interagissent, comme l’a fait l’équipe de Pikovski, cela peut conduire au prix ultime de la physique quantique. Les mathématiques derrière la relativité générale et la mécanique quantique produisent des solutions incompatibles quand les deux physiques sont importantes, comme la singularité au cœur d’un trou noir.

Les tentatives pour développer une théorie unifiée de la gravité quantique étudient comment les mathématiques se transforment pour l’interpréter, mais luttent pour réaliser des expériences qui confirmeraient ces idées – il est compliqué d’introduire des trous noirs dans un laboratoire. « Cette approche peut contribuer à une meilleure compréhension de l’interaction entre mécanique quantique et gravité », « Cela nous permettra d’envisager une compréhension des phénomènes qui font appel à ces deux théories à la fois. »

Ce travail peut permettre de savoir comment les deux théories se comportent ensemble mais cela ne signifie pas que c’est la route de la théorie du tout, dit C. Rovelli. « La gravité quantique se réfère aux propriétés quantiques de l’espace-temps, et pas au comportement quantique de la matière dans l’espace-temps, ce qui est quelque chose qui est parfaitement maitrisé théoriquement. » affirme-t-il.

Mais Ralph pense que c’est un bon départ. « Les effets prédits combinent mécanique quantique et relativité générale d’une façon non triviale. » dit-il. « Jusqu’à présent il n’y a pas d’expériences qui virtuellement testent si cette voie du calcul est correcte, ces expériences qui testeraient ces types de prédictions sont extrêmement importantes – même si minimalement elles ne font que confirmer que l’on est dans la bonne direction. »

Analyse de l’article :

C’est annoncé dans le titre, l’auteur est convaincu qu’il y a un monde quantique indépendant de l’observateur, ce qui ne peut être accepté puisque jamais constaté. Dans l’article il est souvent fait référence à des expériences théoriques, sans que soit pris en compte l’expérimentateur (l’observateur), comme si celles-ci parlaient d’elles-mêmes, ce qui est incongru. En aucun cas la fonction d’onde avant sa réduction ne correspond à la description réelle de l’objet quantique. La fonction d’onde comprend la connaissance que nous : ‘sujet pensant’, pouvons avoir de l’objet, sans plus. Ainsi les deux phrases suivantes citées : «Mais si vous êtes un électron, surgir de plusieurs places à la fois est un mode de vie. Les lois de la mécanique quantique nous disent que les particules subatomiques existent (sic) dans des états superposés jusqu’à ce qu’elles soient observées et trouvées dans une seule place – lorsque leur fonction d’onde est réduite » violent les fondements de la mécanique quantique. Le terme d’existence est inacceptable. Seule l’affirmation suivante : « apparaissent à l’observateur », serait correcte. Malheureusement, il n’y a pas que ces arguments qui soient erronés. En M.Q. l’observateur embrasse l’objet quantique dans une unité. S’il distingue le haut, du bas de l’objet ou une partie de celui-ci (voir les travaux d’A. Zeilinger et son équipe), la décohérence est déjà établie, ceci annule donc une grande partie des expériences théoriques de l’auteur. En plus cette unité implique que ce soit la temporalité de l’observateur qui s’impose et non pas celle de l’objet puisque celui-ci est doté de multiples scansions possibles. Prenons en compte qu’il y a dans certaines situations une unité indestructible, même quand on sait que l’objet quantique de la fonction d’onde est composite comme dans le cas d’intrication d’objets simples ou complexes (voir les travaux de N. Gisin et son équipe).

Pikovski ose formuler l’idée suivante : « Est-ce que le chat lui-même pourrait réduire la fonction d’onde ? La décohérence gravitationnelle règle le problème » Ceci étant dit, je propose de dépasser simplement l’intérêt pédagogique de ce genre d’article contenant tellement d’extrapolations erronées de la M.Q. que le rétablissement de la vérité conceptuelle de celle-ci remet les ‘pendules à l’heure’. Cela se comprend dans une certaine mesure car penser quantique n’est pour aucun de nous une chose naturelle.

Toutefois, il serait certainement important que nous sachions réaliser des expériences quantiques sous l’influence de champs gravitationnels différents. Il est rappelé dans la fin de l’article de la difficulté de la réalisation mais cela devrait pouvoir se faire bientôt. Il y a certainement plusieurs cas de figure à envisager : 1) l’observateur se trouve subir les mêmes variations du champ gravitationnel que le dispositif expérimental physique ; 2) l’observateur se trouve subir des variations différentes du champ gravitationnel que le dispositif ou maintenu dans un champ constant. Rien que la variation des résultats, ou leur invariance, sera très instructif. En effet, il est essentiel de savoir comment gravitation et M.Q. se combinent et interagissent, et donc quel nouvel espace de connaissances cela pourrait nous révéler.

Einstein kills Schrödinger's cat: Relativity ruins quantum world

Version originale. 18:30 16 June 2015 by Jacob Aron

"The same quirk of general relativity that means your head ages faster than your feet may mean we have to go to space to see large-scale quantum mechanics in action Being in two places at the same time isn't easy for mere humans (Image: Chen Liu/EyeEm/Getty) It's been holding us back as well as holding us down. A previously overlooked effect of gravity on quantum systems could be messing up quantum experiments. If confirmed, it suggests that some quantum studies may be impossible to perform on Earth. No matter how hard you try, you can't be in two places at once. But if you're an electron, popping up in multiple places is a way of life. The laws of quantum mechanics tell us that subatomic particles exist in this superposition of states until they are measured and found to be in just one – when their wave function collapses. Chasing cats So why can't we do the same party trick as an electron? It seems that once something gets large enough, it loses its quantum properties, a process known as decoherence. That's mainly because larger objects interact with their environment, which forces them into one position or another. Erwin Schrödinger famously pointed out the absurdity of large-scale superposition with the example of a cat that is both dead and alive. But that hasn't stopped physicists from trying quantum experiments by isolating objects from external influences. In 2010, a team at the University of California, Santa Barbara, placed a strip of metal 60 micrometres long into a superposition for a few nanoseconds, cooling it to just above absolute zero to shield it from temperature fluctuations. The hope is that more precise experiments could place larger objects, such as a virus, into a superposition, getting us closer to Schrödinger's mythical cat. But now it looks like there is a more fundamental obstacle: gravity. In the gravitational field General relativity, Albert Einstein's sweeping reassessment of gravity that celebrates its centenary this year, tends to be ignored by quantum physicists. "Usually people don't look much at it because gravity acts on very large scales," says Igor Pikovski of Harvard University. "They think there are probably not many effects that are relevant." Now Pikovski and his colleagues have calculated what happens when you do quantum experiments in Earth's gravitational field. They say a quirk of relativity called time dilation could be making large systems lose their quantum nature. One of Einstein's predictions is that gravity slows down time. For massive objects, the effect can be extreme, as shown in the film Interstellar, where an hour on a planet orbiting a black hole is equivalent to seven years on Earth . But it also affects you. Lab experiments with atomic clocks have revealed that your head ages slightly faster than your feet, because of the tiny differences in gravitational field strength. Pikovski's calculations show that molecules placed in a superposition should also experience this time difference, and it can disrupt their quantum state. This happens because the bonds between atoms in a molecule act like springs and constantly vibrate. If a molecule is in a superposition of two states that are at different heights from the ground, each state will vibrate at a different rate, destroying the superposition. Height matters Decoherence happens faster as more particles are added to the system. For example, take an experiment attempting to place 1 gram of carbon – about 1023 atoms – in a superposition of two states. If they could be separated vertically by 1 micrometre, Pikovski says Earth's gravitational field will cause the experiment to decohere in a millisecond, even if nothing else interferes. "Even completely isolated systems are somehow affected by their own composition," he says. This doesn't happen to smaller particles like electrons, because they don't have moving parts, so are unaffected by time dilation, which explains why they happily remain in superposition until we measure them. For the moment, Pikovski's idea remains theoretical, but he says it could be tested with atomic clocks, which use the regular frequencies of energy emitted by atoms to keep time. If you could place an atomic clock in a vertical superposition, it would tick at two rates simultaneously, forcing it to decohere. "This effect is relatively small, so the equipment needs to be a little better than currently," says Pikovski, but he thinks it could be done within a few years. "I think it's brilliant, I love it," says Andrew Briggs of the University of Oxford. He is working on tests of large-scale superposition involving vibrating nanotubes, and thinks he might be able to adapt his experiment to test Pikovski's theory. "If it is right, it might be a serious contribution to the mismatch between our everyday experience and the exquisitely tested theory of quantum mechanics." Leaving Earth behind If the effect is confirmed, it suggests that physicists may have to leave the clutches of Earth's gravity to perform extreme quantum experiments. "It would probably be easier to do a quantum experiment of large systems on the moon or in space than it is on Earth," says Pikovski, because lower gravity would slow decoherence. "If people really want to do macroscopic superposition, eventually you will have to go to space." "Wouldn't that be nice?" says Briggs. "We might get some of my bench-top experiments out into orbit." One location could be the International Space Station, where astronauts already run low-gravity experiments. But others aren't convinced. "It is a tiny effect and I don't think it will force us into space any time soon," says Sabine Hossenfelder of the Nordic Institute for Theoretical Physics in Stockholm, Sweden. The effect is orders of magnitude below what could affect current experiments, she says. Observers everywhere Doing experiments in space has its own issues, says Ruxandra Bondarescu of the University of Zurich, Switzerland. Working in low gravity is difficult, expensive and equipment must be hardened against cosmic radiation, but it's not totally unreasonable, she says. "Maybe in the future, the dominant effect will be quantum decoherence due to gravity." Time dilation could also solve a thorny philosophical issue. Some physicists worry that quantum mechanics requires a conscious observer to collapse a wave function. Would a quantum cat in a box stay both dead and alive forever if no one checked on it? Could the cat itself collapse the wave function? Gravitational decoherence solves the issue, says Pikovski. Even if you perfectly isolated a system from the effects that cause decoherence normally, gravity's effect on the cat would collapse the system. "Time dilation induces this kind of observer," he says. Preserving the superposition But this doesn't entirely remove the problem, says Tim Ralph of the University of Queensland in Australia. There should be no time dilation if both states are at the same height. "In principle, it is still possible to preserve a superposition if sufficient control over the quantum systems can be achieved," he says. Thinking more about how gravity and quantum effects interact, as Pikovski's team has done, could lead to the ultimate prize in modern physics. The mathematics behind general relativity and quantum mechanics produce nonsense solutions in situations where both are important, like the singularity at the heart of a black hole. Those attempting to develop a unified theory of quantum gravity study how the maths breaks and try to fix it, but struggle to do experiments to confirm their ideas – black holes are hard to come by in the lab. "This approach can contribute to a better understanding of the interplay between quantum mechanics and gravity," says Pikovski. "It allows you to build up understanding of phenomena that take place where both theories really matter." The work may be about how quantum physics and gravity work together, but that doesn't mean it's a route to a theory of everything, says Carlo Rovelli of Aix-Marseille University, France. "Quantum gravity refers to the quantum properties of space-time, not the quantum behaviour of matter in space-time, which is something for which we have perfectly credible theories," he says. But Ralph thinks it is a good start. "The predicted effect does combine quantum mechanics and general relativity in a non-trivial way," he says. "There are virtually no experiments so far that test whether this way of doing calculations is correct, thus experiments testing these sorts of predictions are very important – even if they just confirm that we are on the right track."

Journal reference: Nature Physics, DOI: 10.1038/nphys3366

Partager cet article
Repost0
29 juin 2015 1 29 /06 /juin /2015 12:00

~~C’est avec un intérêt certain que j’ai pris connaissance de l’article cité ci-dessous sur le site du NewScientist, le 18/06. J’en propose une traduction et l’original est renvoyé en fin d’article.

Pourchasser une ombre : Pendant combien de temps peut-on continuer de rechercher la matière noire ?

« Nous sommes en quête de matière noire depuis les années 30. Sans cette substance, nous ne pouvons expliquer la rotation des galaxies ni comment à l’origine les galaxies se forment. Et au jour d’aujourd’hui, nous n’avons rien trouvé. Même au LHC au CERN, notre meilleur et plus coûteux outil pour la trouver a jusqu’à présent fait chou blanc. Combien de temps pouvons-nous continuer de chercher ?

La matière noire est censée résoudre plusieurs anomalies tenaces – comme Isaac Asimov l’indique, des choses qui vous ne font pas vous exclamer : « Euréka » mais : « c’est drôle… » De telles anomalies sont souvent la clé de progrès scientifiques. Mais en ce qui concerne la matière noire, et nos efforts sans succès pour la mettre en évidence, le doute finit par sérieusement s’immiscer.

Peut-être que tout simplement nous cherchons une mauvaise chose. Peut-être que les particules de matière noire sont très massives plutôt que relativement légères comme beaucoup l’assument. Les premières expériences sont maintenant engagées pour détecter une telle ‘superlourde’ matière noire qui aurait été créée au tout début de l’univers.

Ou peut-être que la réelle identité de la matière noire est si inattendue que nous n’avons même pas pensé l’observer, en dépit d’une potentielle évidence tapie quelque part dans les vastes quantités de données du LHC. Voir article du 09/06/2015 : ‘Hors Prédiction’

Ou peut-être, nous nous sommes embarqués dans ces fameuses quêtes qui relèvent du ‘Don Quichottisme’ qui marquent l’histoire de la physique. Au début de la cosmologie, Ptolémée conçoit un modèle du mouvement des planètes étroitement ajusté aux observations. Pendant plus d’un millénaire, ses successeurs ont ajusté des ‘épicycles’ qui engendraient de nouvelles anomalies. Leurs louables efforts et ingéniosités devenaient de moins en moins efficaces. Au bout du compte, Copernic et Kepler ont fait exploser le système – il fallut un certain temps pour que leur modèle soit reconnu.

Un parallèle plus récent est fourni par la recherche de l’éther luminifère, substrat que l’on considérait essentiel pour la propagation de la lumière. Quand A. Michelson et E. Morley échouèrent à le détecter en 1887, ils ne déclarèrent pas que le monde avait besoin d’une nouvelle théorie pour la propagation de la lumière. Au contraire, avec d’autres scientifiques ils construisirent une série de plus gros et meilleurs instruments pour trouver cet éther. Eventuellement la relativité restreinte abolit l’anomalie – mais les ‘éthéristes’ continuèrent de l’ignorer.

Peut-on être sûr de ne pas être dans la même situation : chercher quelque chose qui n’est pas là ? Bien qu’il n’y ait pas d’alternative robuste à la matière noire pour résoudre les anomalies cosmiques par d’autres moyens, par exemple la gravité modifiée non encore bien attestée !

Mais pragmatiquement, le problème réel n’est pas scientifique mais financier. La majorité des scientifiques diront qu’il est préférable de persévérer la recherche étant donné les conséquences énormes en cas de succès. Mais pendant encore combien de temps les financeurs vont-ils accorder des crédits ? Considèrons la recherche d’intelligence extraterrestre, qui en dépit de son impact potentiel, maintenant n’est plus dotée de financement public et de peu de soutien privé. Ceci s’explique facilement : l’échelle de la tâche et les limites de notre technologie signifient que les chances de trouver des ‘Aliens’ intelligents sont minces. Avec quelques années supplémentaires sans résultat, la matière noire pourrait devenir un sujet d’investissement peu attractif.

Il nous reste à espérer que ceci ne se produise pas avant que nous trouvions soit de la matière noire, soit des anomalies nouvelles qui renversent le ‘charriot de pommes’, soit une nouvelle résolution de notre énigme cosmique. Et nous devons aussi espérer que, contrairement aux ‘épicyclistes’ et aux ‘éthéristes’, nous reconnaîtrons promptement les brèches quand elles apparaîtront. »

Cet article me parle d’autant plus que le 29/01/2015 j’ai posté : ‘Bilan de la recherche de la matière noire’ qui se concluait ainsi : « Au début des années 1980, c’était une démarche ‘raisonnable’ que de vouloir insérer l’hypothèse de la matière noire dans le cadre des connaissances canoniques qui prévalaient à cette époque à propos de notre connaissance rassemblée pour concevoir ce que l’on appelle l’univers, accompagné de sa genèse. Etant donné qu’avec cette hypothèse nous n’avons pas progressé d’un iota, il est temps de s’interroger sur le fait que : soit l’hypothèse n’est pas judicieuse, soit le cadre des connaissances canoniques est incorrect, soit encore d’une façon plus dramatique nous devons simultanément reconsidérer ces deux socles de connaissances et d’hypothèses. Les succès croissants de la théorie MOND nous y obligent d’une façon objective sans devoir considérer que cette théorie est la ‘bonne’, loin s’en faut.

Et si cette hypothèse de matière noire nous signalait que notre conception de l’univers était erronée, en tous les cas provisoire ? Dans le sens où ce que nous désignons actuellement comme l’Univers n’est rien d’autre que l’univers de nos connaissances actuelles et qu’il faut franchir maintenant un cap de connaissances nouvelles pour résoudre les problèmes posées depuis les années 80. Par exemple, ne plus penser en terme d’un univers borné, déterminé, par la vitesse de la lumière, ne plus considérer que le Big-Bang est un paradigme valable. Mais penser à un univers qui engloberait un champ plus riche de connaissances, qui n’obligerait pas à réexaminer les lois de la physique présentement acceptées comme l’imagine Pierre Salati mais à accepter leur validité locale, provisoire, pas vraiment universelle. (Notre univers n’aurait que la valeur d’un univers local). Bref il faudrait aller au-delà. Dans cet au-delà de connaissances (que nous devons nous approprier) le problème lié à l’hypothèse de l’énergie sombre devrait certainement avoir aussi une explication. »

En effet il est dorénavant nécessaire de prendre tout le recul suffisant pour se poser les bonnes questions à propos de la matière noire. Comme il est rappelé dans l’article du N.S., dans l’histoire de la connaissance scientifique, il y a eu des impasses à la compréhension, à l’interprétation, impressionnantes, avant que le cap bénéfique ne soit effectivement franchi. A mon sens ce qui est redoutable c’est l’inertie intellectuelle difficile à accepter face à la nouveauté qui a été rappelé dans cet excellent article. Au point que c’est la perte de la réflexion objective qui peut s’installer. C’est exactement ce que j’ai pointé dans l’article du 31/03/2015 : « L’objectivité scientifique exclut qu’elle soit parasitée par des problèmes de doctrine. »

Chasing shadows: How long can we keep looking for dark matter?

18 June 2015

We've known we need dark matter since the 1930s, but still haven't found it. The search can't go on for ever.

WE HAVE been aware of the need for dark matter since the 1930s. Without this stuff, we can't make sense of the rotation of galactic clusters, or how galaxies formed in the first place. And yet, to date, we have found nothing. Even CERN's Large Hadron Collider, our best and by far most expensive tool for finding it, has so far drawn a blank. How much longer can we keep looking?

Dark matter is posited as the resolution to several obstinate anomalies – as Isaac Asimov put it, things that make you exclaim not "Eureka!" but "that's funny..." Such anomalies are often the key to scientific progress. But dark matter, and our efforts to pin it down, have been around long enough for doubts to creep in.

Perhaps we have simply been looking for the wrong thing. Perhaps dark matter particles are very massive, rather than fairly light, as many assume. The first experiments are now under way to detect any such "superheavy" dark matter that might have been created when the universe was just getting started (see "WIMPZILLAs: Monster particles from the dawn of time").

Or perhaps the true identity of dark matter is so unexpected that we haven't even thought to look for it, despite potential evidence lurking somewhere in the vast quantities of data from the LHC.

Or perhaps we have embarked on one of those quixotic quests that mark the history of physics. At the beginnings of cosmology, Ptolemy devised a model of planetary motion that closely fitted observations. For more than a millennium, his successors adjusted these "epicycles" for new-found anomalies. Their laudable commitment and ingenuity was to increasingly little effect. In the end, Copernicus and Kepler blew the whole thing away – though it took a while for their model to be accepted.

A more recent parallel comes from the search for luminiferous ether, the all-pervading substance once thought to be the medium for light. When Albert Michelson and Edward Morley failed to detect it in 1887, they didn't declare that the world needed a new theory for the propagation of light. Instead, they and others built a series of bigger and better instruments to find it. Eventually special relativity abolished the anomaly – but many etherists carried on looking regardless.

Can we be sure we're not in their position, looking for something that isn't there? Well, there is no robust alternative to dark matter; plans to resolve the cosmic anomalies by other means, such as modified gravity are not well-attested.

But pragmatically, the real issue is not the science, but the money. Most physicists would say it's worth persevering with the search, given its potentially huge ramifications. But how long can they persuade their funders to keep paying for it? Consider the search for extraterrestrial intelligence, which, despite its potential impact, now receives no public money and relatively little private support. That's easily explained: the scale of the task and the limits of our technology mean the chances of finding intelligent aliens seem slim. Given a few more years of null results, dark matter might come to seem a less worthwhile investment to cash-strapped funding bodies too.

We'll have to hope that doesn't happen before we find either dark matter, some fresh anomalies that upset the apple cart, or a clever new resolution to our cosmic conundrums. And we'll also have to hope that, unlike the epicyclists and etherists, we'll recognise that breakthrough promptly when it comes.”

Partager cet article
Repost0
17 juin 2015 3 17 /06 /juin /2015 10:20

~~Décrypter en ‘Présence’ l’effet tunnel.

L’explication traditionnelle de l’effet tunnel intégrait parfaitement les concepts de la mécanique quantique, l’explication nouvelle prolonge évidemment cette intégration mais sa phénoménologie connaît une évolution très significative.

Jusqu’à présent l’effet tunnel était interprété comme un phénomène ubiquiste, dans la mesure où un objet quantique pouvait se trouver simultanément des deux côtés d’une barrière de potentiel, alors qu’il n’est pas pourvu d’une énergie suffisante pour franchir classiquement cette barrière. Cette éventualité ubiquiste est envisageable parce que la fonction d’onde, de l’objet quantique, formellement exprime une probabilité de présence variable de chaque côté de la barrière de potentielle. En conséquence la présence effective de l’autre côté de la barrière est interprétable comme si l’objet était passé sous la barrière de potentiel par l’intermédiaire d’un tunnel. L’observation de cet effet fait partie des succès remarquables de l’avènement de la mécanique quantique illustrés par les propriétés concrètes des semi-conducteurs, aussi bien par la radioactivité alpha, etc...

L’exploitation du formalisme au sens stricte nous confronte à une énigme car des probabilités de présence de l’objet quantique, simultanément possible de chaque côté de la barrière, implique l’instantanéité, ce qui est effectivement physiquement impossible. En se cantonnant qu’au traitement formel, les physiciens acceptaient d’introduire un temps imaginaire associé à ce processus. Ceci est une conséquence de l’exploitation des équations de la mécanique quantique au sens stricte d’un point de vue formel. Et comme l’effet tunnel est expérimentalement observé dans des domaines extrêmement variés, il est légitime d’exploiter les outils mathématiques qui décrivent ce phénomène… jusqu’à ce que des éléments nouveaux de connaissance apportent de la compréhension qui autorise une explication différente et plus riche. Ceci est résumé par Anatoli Kheifets, de l’Université Nationale Australienne signataire de la publication en question : « On avait toutes les raisons expérimentales de penser que le temps mis par un électron pour échapper d’un atome par effet tunnel était significatif. Mais les équations nous disaient que le temps associé à ce processus était imaginaire, c’est-à-dire un nombre complexe, et nous avons réalisé que cela signifiait que le processus était instantané »

Cette étape vient d’être proposée par des physiciens Australiens qui ont évalué (par simulation) que l’effet tunnel ne se produisait pas instantanément mais avait une durée qui était de l’ordre de l’attoseconde. Il faut entendre que ce résultat ne s’oppose pas au traitement formel précédent, ni au résultat, mais l’interprétation formelle standard est maintenant enrichie d’une description phénoménologique de l’effet tunnel. Cette progression, nous l’obtenons parce que nous avons acquis une compétence nouvelle qui est celle de maîtriser la mesure de l’intervalle de temps de 10-18s. (Voir article du 26/05/2015). Spontanément j’ai eu envie d’écrire que nous savions maintenant produire des intervalles de temps de 10-18s. Ce qui est exact et ce sont les lasers qui sont à la base de ce nouvel outil de création.

Grâce à cette nouvelle capacité des physiciens, la ‘Présence’ de l’observateur est maintenant possible lorsque des phénomènes physiques ont cette durée temporelle et on peut constater un saut qualitatif de la compréhension et de l’explication des phénomènes en question. Avec cet exemple on bénéficie d’une illustration intéressante de mon thème favori de réflexion : ‘Faire de la physique avec ou sans ‘Présence’’. Nous constatons ici que ce n’est pas la même chose ‘avec’ que ‘sans’ et la thèse que je privilégie est celle de l’inexpugnabilité de la ‘Présence’ du sujet pensant, qu’il soit en situation d’observateur ou d’être réflexif. De plus, j’ai toujours considéré que cette ‘’Présence’ du sujet pensant’ était réaliste jusqu’à un intervalle de temps compris entre 10-22s et 10-25s, limite que je dénomme : Temps propre du Sujet (TpS). En deçà de cette durée aucune ‘Présence’ ne peut être envisagée car l’intelligence du sujet pensant devient aveugle. Je commente d’autant plus la valeur des travaux des physiciens Australiens que j’ai toujours considéré que la conquête des connaissances des propriétés de la Nature étaient corrélées à la conquête de la mesure du temps car contrairement à ce qu’affirme Lee Smolin : le temps n’est pas donné dans la Nature, le temps est pour moi la signature de la ‘Présence’ de l’être réflexif : l’anthrôpos. En ce sens le temps est émergeant comme l’affirme Carlo Rovelli, mais évidemment pas du tout pour les mêmes raisons que celles que je privilégie. Ceci étant dit, il n’est pas banal que Serge Haroche ait intitulé son cours du 07/04/2015 : « La passion (sic) de la précision et la mesure du temps. » Il serait intéressant que S. Haroche nous dise pourquoi cette passion ? Est-ce que la précision et la mesure du temps est motivée par une intuition profondément humaine qui nous conduirait jusqu’à la proximité de la plus pure palpitation existentielle ?

De plain-pied avec cette publication australienne se trouve illustrée la dynamique de la conquête de la connaissance que j’ai souvent exprimée dans différents articles : « Au sein d’une éternité parmi tous les possibles, l’Anthrôpos creuse sa connaissance de l’Univers et il n’y a pas de raison qu’il y ait une fin, une finalité… » Au cœur de cette dynamique se trouve concentré ce qui fait que nous soyons là et que perpétuellement l’on vise l’au-delà d’un là spatio-temporel toujours provisoire.

Je profite de l’occasion pour commenter le fait que ma thèse est aux antipodes de la thèse anthropique puisque quand je me réfère à la réflexion menée par S. Hawking sur ce sujet qui stipule qu’il s’agit de se poser la question : « Pourquoi sommes-nous là pour nous demander pourquoi l’Univers est tel qu’il est ? », « En gros, le principe anthropique énonce que l’Univers doit être plus ou moins tel que nous le voyons parce que, s’il était différent, il n’y aurait personne pour l’observer… ».

Selon ma conception ce qui est significatif c’est l’évolution de notre représentation de l’Univers et il est inapproprié de considérer qu’il ‘pourrait être plus ou moins tel que nous le voyons’. Il n’y a pas de raison de vouloir installer une pause concernant une réalité d’un univers qui serait le Nôtre et encore moins de considérer qu’il serait une sorte de miroir qui justifierait, voire expliquerait, notre existence.

Selon ma conception ce qui fait sens c’est la relation entre Nature et être pensant (voir l’article du 18/03/2015 ; ‘Décrypter la physique comme science de l’interface de l’être humain et de la Nature ! ‘). Comment cela se noue ?

Avec la maîtrise assurée de l’attoseconde, la prochaine étape annoncée est celle de la zeptoseconde : 10-21s, pas d’impatience car il nous faudra peut-être une décennie pour fabriquer l’outil qui nous rendra maître de cet intervalle de temps. Selon mon hypothèse, à ce niveau, nous serons probablement en mesure d’expliquer des phénomènes connus d’une façon inédite, voire que nous découvrions des phénomènes tout à fait inédits.

Partager cet article
Repost0
9 juin 2015 2 09 /06 /juin /2015 14:49

~~Hors prédiction.

Il y a quelques semaines dans un article publié dans Nature, les collaborations du détecteur CMS et du détecteur LHCb au CERN, révèlent la première observation d'une désintégration très rare de la particule méson B0s en deux muons. D'après les prédictions théoriques relatives au Modèle standard, modèle qui rend compte actuellement de la façon la plus satisfaisante l’ensemble des particules recensées, ce processus subatomique rare se produit quatre fois sur un milliard de désintégrations, mais il n'avait jamais été constaté auparavant. Ce résultat s'appuie sur des données prises en 2011 et 2012. Ces données contiennent également des indices d'une désintégration similaire, mais encore plus rare, celle du B0, une particule cousine du B0s, en deux muons

Ces résultats sont en accord avec les prédictions du Modèle standard. Doit-on s’en réjouir ? Oui ! Evidemment puisque ces résultats confirment la consistance absolue de ce modèle standard. Non ! Car l’horizon est bouché, ces désintégrations rares ne révèlent pas la moindre indication d’une nouvelle physique. Cela voudrait dire que ce Modèle Standard confirme des frontières de ses capacités de prédictions, comme si les physiciens avaient épuisé avec leurs outils théoriques propres à ce Modèle les ressources d’interprétation des concepts et des paradigmes attachés. L’ensemble de ces outils constitue la Théorie Quantique des Champs…à basse énergie.

Il n’est pas banal de constater que le livre datant de 2003, qui recense l’ensemble des résultats expérimentaux attendus au LHC : ‘La phénoménologie au LHC’ comprend, en fin d’ouvrage (420 pages), l’éventualité de ces désintégrations rares avec les probabilités de les observer. Ainsi se referme la boucle des prédictions, y compris les plus ténues.

On se souvient que la découverte du boson de Higgs, fut annoncé avec enthousiasme mais…en fait un enthousiasme relatif car il est tellement conforme, là encore, aux prédictions du Modèle standard que cela est troublant. Si on ne découvrait que ce que l’on cherchait ? Tout est tellement conforme. L’article ultime sur la désintégration du méson B est signé par 2500 physiciens, l’ultime sur la masse du boson de Higgs (février 2015) est signé par 5000 physiciens.

Dans la revue : ‘Le courrier du CERN’, le 09/04/2015, un article nous affirme à juste raison : « Les données du satellite Planck ne révèlent aucune évidence d’une nouvelle physique. La publication, des données de la mission complète du satellite Planck, est un évènement majeur de la cosmologie. En dépit de la très haute qualité des données, cet évènement a peu d’impact dans la communauté scientifique (sic). Plutôt que donner de l’élan pour une nouvelle physique, Planck confirme avec une grande précision le Modèle standard de la Cosmologie, annule la perspective de l’existence d’un neutrino, léger, stérile, et contredit l’espoir que l’excès de positron des rayons cosmiques ait comme origine la matière noire. »

De plus l’équipe de Planck a annoncé avec une ferme autorité scientifique le 06/02/2015 que les premières étoiles contribuant à la réionisation se sont allumées 550 millions d’années après le big-bang et non pas 400 millions comme on croyait avoir observé grâce au télescope Hubble.

Ainsi, il semblerait que nous ayons obtenu de la part des deux Modèles Standards tous les résultats que nous avions anticipés, avec une précision étonnante, mais pas plus, ni la moindre indication concernant un au-delà de ceux-ci.

Depuis quelques jours, nous avons une grande perspective grâce au redémarrage du LHC, largement amélioré et avec des détecteurs reconfigurés. A priori, on devrait détecter des productions qui constitueraient au moins des indices qu’un au-delà à chacun des modèles standards est crédible. L’espoir largement exprimé est que l’on découvre, par exemple, enfin des particules supersymétriques qui comprendraient la découverte de particules de matière noire. Ces résultats on est prêt à les observer parce qu’ils sont exactement dans le prolongement de ce que l’on maîtrise à propos des modèles standards. Sans vouloir jouer les Cassandre, il y a un risque certain de distorsion, et de laisser de côté des découvertes authentiquement originales.

En effet, étant donné la ‘grande’ science qui est programmé au CERN, il est très difficile de laisser de la place à de l’inattendu. Tout est préétabli, tout est préalablement simulé, et dans les détecteurs ne sont sélectionnées que les traces des évènements attendus. Entre la première séquence d’exploitation du LHC jusqu’en 2013 et la deuxième séquence qui vient de démarrer, il n’y a rien de neuf du point de vue théorique, pas de concept nouveau, encore moins de paradigme nouveau. Si on ne voit pas de particules supersymétriques donc corrélativement pas de particules de matière noire telles qu’elles sont préalablement conçues cela provoquera un très grand désarroi.

Ce qui à mon sens est à l’origine de cette perspective déroutante mais concevable, c’est que les physiciens théoriciens sont convaincus qu’ils disposent avec la ‘Théorie Quantique des Champs’ (TQC) de l’outil universel permettant de traiter de tous les problèmes de la physique des hautes énergies actuelle. Il n’est donc pas impossible que cela induise un tropisme qui nous rende aveugle intellectuellement à l’égard d’évènements hors TQC. Rappelons-nous, lorsque fut annoncée, l’an passé, la détection des ondes gravitationnelles primordiales du Big-Bang, c’est la thèse d’Andreï Linde avec l’inflaton : champ quantique inducteur de l’inflation, qui a refait surface, jusqu’à ce que la baudruche se dégonfle.

Heureusement que des très grandes quantités de données sont enregistrées, ce qui permettra des retours en arrière sur les années du run : 2012, 2013, dès qu’on aura pris conscience de notre aveuglement théorique.

A mon sens il faudrait dépasser la TQC, pour ouvrir vraiment des nouvelles perspectives d’une nouvelle physique et non pas nous cantonner à chercher ce qui pourrait constituer ses prolongements. Autrement on risque, dans les deux ou trois prochaines années, de n’avoir qu’à contempler la justesse des prédictions du Modèle Standard tel que nous l’avons prospecté jusqu’en 2013. Les failles de la TQC sont décelables à propos des neutrinos, dont on cherche depuis 80 ans à saisir les propriétés physiques dans ce cadre alors qu’on devrait concevoir une physique spécifique des neutrinos.

Il y a des domaines où il est envisageable que des découvertes déverrouillent la situation, et c’est peut-être à la portée de la nouvelle session au LHC d’ouvrir cette perspective. Etant donné le niveau d’énergie atteint dans le centre de masse des collisions des protons, il y aura peut-être formation de micro-trous noirs qui seront détectables par la formation de photons résultants de leur évaporation. Dans ce cas l’hypothèse de petites dimensions spatiales (ou 4, ou 6) deviendra crédible et partant nous mettrons en évidence un authentique paradigme nouveau. La conception d’une nouvelle physique serait immédiatement à notre portée. Cela impliquerait une modification maîtrisable de la loi de Newton aux très petites dimensions (de l’ordre de 10-10m), ainsi que notre représentation actuelle des particules élémentaires. Il ne faut pas oublier d’indiquer que cela validerait aussi les travaux de S. Hawking.

Ce qui est hors prédiction voire insolite, à condition que nous soyons disponibles pour le déceler, pourrait donc nous offrir des bifurcations qu’il nous faudra savoir exploiter.

Partager cet article
Repost0
26 mai 2015 2 26 /05 /mai /2015 10:02

~~Académie des sciences : ‘A la Recherche du temps’ Le 19 Mai 2015.

Deux interventions ont retenu mon attention. Celle de Stanislas Dehaene : ’Le tempo de la conscience’ et celle de Alain Connes : ’Aléa du quantique et passage du temps’.

Au cours de son intervention, S. Dehaene a relaté que « Le cerveau ne perçoit pas instantanément les évènements du monde extérieur. Il lui faut au moins un tiers de seconde, et souvent bien plus, avant qu’une information sensorielle élémentaire accède à la conscience. Il montre comment, grâce à l’imagerie cérébrale et notamment à la magnéto-encéphalographie, il parvient à suivre toutes les étapes de traitement visuel non conscientes et conscientes dans le cerveau humain. »

Rappelons que cela fait à peu près deux décennies que nous avons connaissance d’une temporalité de l’activité cérébrale, elle a toujours été estimée inférieure à la ½ seconde. Comme le précise Dehaene les moyens techniques exploitables maintenant permettent une compréhension de plus en plus précise de ce qui se passe dans notre cerveau durant ce 1/3 de seconde avant qu’il n’y ait prise de conscience effective à propos d’une image ou encore à propos d’un concept. En effet des neurones conceptuels sont maintenant isolés dans le cerveau.

Mon hypothèse est que cette durée correspondant à la ‘tâche aveugle de la conscience’ ne peut pas être sans conséquence sur l’éveil intellectuel et la vigilance observationnelle du sujet réflexif. En effet nous rencontrons des durées propres limites qui nous rendent aveugles. C’est par exemple le cas autour de 10-21s, 10-22s quand des particules élémentaires (structures résonnantes) ont des durées de vie de cet ordre de grandeur. Nous les appelons des particules virtuelles puisqu’effectivement inobservables mais que l’on peut reconstituer par le calcul à partir de la connaissance des caractéristiques physiques des éléments de leur désintégration. Nous trouvons là une frontière incontournable qui sépare le monde des particules réelles (observables) de celui des particules virtuelles (inobservables).

Cette durée aveugle ne peut pas se résoudre en exploitant des moyens techniques nouveaux quel que soit le détecteur (les plus sensibles et précis sont actuellement en activité au Cern) car ces particules n’ont pas le temps de déposer une trace pour nous perceptible. Elles ont une durée de vie, mais si étroite, que notre acuité observationnelle, intellectuelle (cérébrale ?), ne peut pas enregistrer un signal de leur présence extrêmement fugace et c’est rédhibitoire.

Il me semble qu’il est légitime d’établir une corrélation entre la durée aveugle de la conscience et la durée aveugle de l’intelligence humaine (que je situe autour de 10-25s) et que je nomme le Temps Propre du Sujet (TpS), (Voir article du 2/11/2012). Il serait quand même difficile de postuler que le fonctionnement par intermittence avérée de la conscience du ‘sujet pensant’ conduise à un fonctionnement intellectuel, observationnel, absolument continu du sujet.

Il y a peut-être une piste, dans le futur, pour vérifier le bien-fondé de mon hypothèse : actuellement nous sommes capables techniquement de maîtriser et de mesurer des phénomènes d’une durée de 10-18s (attoseconde), la prochaine étape sera 10-21s, ainsi de suite. Jusqu’à quelle durée pourrons-nous aller ? Réponse dans une dizaine d’années. (En ce qui concernent ‘La passion de la précision et la mesure du temps’ ainsi que ‘La métrologie et la science de l’attoseconde et de l’angström’, voir les leçons 5 et 6 de Serge Haroche du 07 et 14 /04/2015 au Collège de France).

En ce qui concerne l’intervention d’Alain Connes, je suis moins enthousiaste car on pouvait espérer une présentation plus solide. Il a surtout aligné un certain nombre d’affirmations qui lui sont propres, certaines appropriées, certes, mais certaines communément acceptées depuis longtemps, d’autres qui auraient dû être étayées. Ainsi affirmer : « L’aléa quantique est le tic-tac de l’horloge divine (sic) » mérite au minimum que cela soit commenté. La référence au divin est une échappatoire assez habituelle chez les platoniciens. A mon sens ce n’est pas intellectuellement rassurant, surtout quand on prend en compte les affirmations d’un autre platonicien notable : Roger Penrose : « La vérité mathématique est quelque chose qui va au-delà du simple formalisme. Il y a quelque chose d’absolu et de « divin » dans la vérité mathématique. C’est ce dont il est question dans le platonisme mathématique. […] La vérité mathématique réelle va au-delà des constructions fabriquées par l’homme. »

En conséquence, Penrose n’hésite pas à prétendre : « Non seulement j’affirme que nous avons besoin d’une physique nouvelle, mais aussi que celle-ci doit s’appliquer à l’action du cerveau (sic). » et on peut considérer que son programme de recherches comprend les trois thèses suivantes : 1- l’activité du mental peut être abordée de manière scientifique ;

2- les idées de la mécanique quantique sont pertinentes pour le problème des relations du corps et de l’esprit ;

3- le problème de l’actualisation des potentialités en mécanique quantique est un vrai problème, qui ne peut être résolu sans modifier le formalisme de la théorie.

On aboutit donc à une situation extrêmement paradoxale, plus R. Penrose situe dans les altitudes inaccessibles et divines les vérités mathématiques platoniciennes plus l’être humain et ses facultés cognitives, seraient réductibles aux schémas de son physicalisme. (Physicalisme : doctrine émanant du Cercle de Vienne à partir de 1931, selon les fondateurs (notamment, Neurath) : la langue de la physique est langue universelle de la science et par conséquent, toute connaissance peut être ramenée aux énoncés sur les objets physiques, y compris celle relative aux sciences humaines.)

Je ne dis pas qu’A. Connes raisonne ainsi, mais je considère que la référence au divin constitue un renoncement de la pensée qui est préjudiciable à l’avancée de la pensée scientifique collective.

Alain Connes a aussi énoncé l’idée que, selon lui, la variabilité quantique était plus fondamentale que la variabilité du temps. Donc le temps n’est pas le chef d’orchestre dans la Nature. Et c’est la non commutativité qui implique l’évolution (théorème de Tomita-Takesahi).

Une autre affirmation qui a été exprimée, non développée, mais qui a retenu mon attention, c’est que la connaissance partielle de la réalité joue un rôle dans la détermination de la flèche du temps voire même dans la scansion de ce temps. Globalement cette idée me convient car conformément à mon article du 12/05, « La praxis du sujet pensant est motivé par un déséquilibre permanent entretenu par l’être dans la Nature et qui anime une dynamique de la conquête de la connaissance des lois physiques de la Nature… Il est évident maintenant que cette conquête n’aura pas de fin. »

En me décidant d’aller à cette conférence, j’espérais qu’A. Connes allait proposer des développements de ce qu’il avait introduit en 2007 lors d’une conférence sur le campus de l’université de Metz et repris au cours d’une interview sur Arte. Ci-joints les différents éléments qui avaient retenu mon intérêt :

- L’espace-temps est très légèrement non commutatif, en fait le point lui-même dans l’espace-temps n’est pas commutatif. Il a une toute petite structure interne qui est comme une petite clé.

- Le point a une dimension 0 au niveau de la métrique mais avec ma géométrie il a une structure interne et j’ai un espace de dimension 6, non commutatif.

- La longueur spectrale c’est exactement le passage de la géométrie commutative à la géométrie non commutative.

- La structure interne du point, dans l’espace-temps, a un lien important, très fort, avec la mesure des longueurs, et c’est ça qui donne l’unité des mesures des longueurs.

- Le temps est thermodynamique. Il y a un pont entre la linguistique (sic) et le temps tel qu’on le perçoit.

- Il y a certains types d’harmonies qui sont mathématiques.

- Dans la symétrie pure, il y a quelque chose de mort, de glacée.

- Une algèbre non commutative tourne avec le temps (d’après le théorème de Tomita) c’est le seul endroit des mathématiques où il y a un élément d’imperfection.

- Comme dans l’art japonais, les éléments d’imperfection font partie de la vie.

Le point de dimension 0 du point de vue de la métrique mais avec une structure interne’ est vraiment compatible avec ce que j’appelle le point aveugle de l’intelligence humaine : TpS = 10-26s, avec la ‘‘Présence’ du sujet pensant’ inexpugnable = la structure interne en question. Disons que cette structure est selon mon hypothèse le refuge inexpugnable de ‘l’Être réflexif’. Selon mon hypothèse, contrairement à A. Connes, il n’y a pas à faire appel au divin pour évoquer le tic-tac de l’horloge qui égrènerait une chronologie fondamentale de notre monde, non, point de divin : le temps résulte de l’émergence d’une intelligence primordiale dans la Nature, qui est vecteur d’un ‘tic-tac’ primordial car cette intelligence doit, avant tout, et ce serait sa première nécessaire activité consciente, se situer dans le temps et l’espace pour se déployer.

Partager cet article
Repost0
12 mai 2015 2 12 /05 /mai /2015 12:21

~~Pas d’anticipation déraisonnable.

C’est à la fin du présent article que je joins en intégralité celui qui a motivé le mien. L’article en question provient du site ‘Philoscience’ où son auteur est très souvent cité. Dès la première phrase on est saisi par l’ambition du projet d’Alain Cardon : « On peut chercher à préciser la raison de l’existence du vivant organisé formé avec des composants physiques élémentaires en adoptant une approche résolument systémique. »

Il s’agit bien de préciser la raison, on est donc au seuil de l’explication ultime !

Cette explication ultime est nourrie par ce type d’affirmation dans le texte : « Un méta-organisme qui se forme et se reconforme sans cesse en incitant le déploiement de tous les organismes dans toutes les directions viables possibles pour investir l’espace entier d’une planète, est un méta-organisme obéissant à une force organisationnelle qui conduit la matière du réel physique à s’utiliser de façon maximale et pour se déployer sur lui-même en se consommant. »

Ce qui est écrit là n’est pas absurde parce que c’est une opinion que l’on peut exprimer, après coup, en aval de multiples constatations. C’est une façon intelligible de dire ce que l’on pourrait croire observer, ce que l’on croit comprendre mais en fait la phrase citée ci-dessus aurait dû commencer ainsi : « C’est, pour nous, comme si un méta-organisme… » De là, vouloir affirmer comme le fait Cardon : C’est ainsi que cela se passe est extrêmement aventureux. Nous n’avons pas les moyens scientifiques de procéder à une telle affirmation anticipatrice, même à titre prospectif, si j’ose dire : c’est vraiment mettre la charrue avant les bœufs. D’ailleurs rapidement l’article devient redondant et ne peut pas s’appuyer sur de quelconques éléments tangibles. Ce n’est certainement pas en introduisant une cinquième dimension informationnelle à l’univers que Cardon fait preuve d’une démarche scientifique conséquente étant donné la fragilité conceptuelle des quatre premières.

Le nouveau paradigme fondamental que propose A. Cardon : « L’hypothèse de l’existence de cette force (organisationnelle) fondamentale permet donc de donner une raison scientifique (sic) à l’existence de notre univers observable et tend à contrebalancer la théorie usuelle de l’évolution du vivant par un pur hasard ou une raison immanente. » ne peut pas être mis en avant sur des bases aussi faibles, non étayées. En fait il remplace une raison immanente par une autre.

Il me semble que pour progresser nous devons nous en tenir à une posture plus modeste et plus réaliste et que j’ai déjà eu l’occasion d’exprimer dans un article le 18/03/2015, avec le titre : ‘Décrypter la physique comme science de l’interface de l’être humain et de la Nature !’ Dans cet article j’exprime ma conviction que progresser dans la compréhension des lois de la Nature c’est aussi progresser dans la connaissance de l’être pensant que nous sommes. Mais cette progression ne peut être effective qu’en s’appuyant fermement sur l’état présent de ce que nous comprenons, sans vouloir suggérer, organiser, une quelconque fuite en avant ou alors on opte pour une pensée métaphysique. Considérer que la science physique est une science qui a aussi la vertu de conquérir une meilleure connaissance du sujet pensant ne relègue pas les autres domaines de connaissances mais cette concomitance : connaissance des lois physiques de la nature – connaissance de celui qui la pense, prend en compte le processus de l’évolution comme cela est rappelé dans un article tout récent du 30/04 : ’L’invention du réalisme’ à propos du livre d’Etienne Bimbenet.

Pour situer correctement la corrélation entre le rôle, la dynamique de la pensée en science physique, et la connaissance du sujet pensant, il ne faut pas s’attacher à l’idée que la physique nous permet d’accéder au monde réel tel qu’il est. En effet ce monde que nous prétendons réel, que l’on croit atteindre est tellement provisoire (pensons au monde soi-disant ‘réel’ (atemporel, stable) à l’époque d’Einstein : tout riquiqui, il y a un siècle, et celui que nous concevons aujourd’hui). On peut répliquer que pour l’essentiel, ces mondes ‘réels’, d’avant, temporairement expliqués, sont englobés par la représentation la plus récente. Je dirais que cela signifie surtout que l’être humain, auteur de cette conception, façon poupées russes, est fondamentalement le même et qu’il procède par évolutions intellectuelles, même si celles-ci peuvent être parfois qualifiées de renversantes comme le fut la Copernicienne. Il est donc superflu et erroné de vouloir s’attarder sur une représentation figée d’une réalité du monde. D’ailleurs, nous sommes actuellement pris à notre propre piège de vouloir considérer que nous devons connaître à tout prix le monde réel puisqu’au bout du compte nous ne connaissons actuellement que 5% de ce qui constituerait Notre univers.

Comme je l’ai conçu explicitement dans l’article du 26/8/2014 : ‘Un authentique Big Bang’, l’émergence d’une intelligence primordiale embryonnaire, correspond à l’émergence dans la Nature de l’Être embryonnaire qui engage le processus de l’hominisation. Les raisons de cette émergence ne sont pas accessibles au ‘sujet pensant’ que nous sommes aujourd’hui. Nous devons renoncer à l’ambition de répondre aux questions anthropologiques fondamentales : pourquoi, comment, un sujet vivant, pur ‘Être de la Nature’ peut-il sortir de lui-même ? Pourquoi, comment, un être vivant qui projetait son existence dans un milieu, acquiert les ressorts pour projeter son existence dans un monde ? (voir article du 30/04 : ‘L’invention du réalisme’)

Ce que l’on peut relater aujourd’hui, c’est qu’avec cette émergence s’engage une praxis sans fin afin que le socle – sur lequel l’Être dans la Nature s’installe et surplombe ainsi cette nature qui l’a façonné – s’élève et se consolide. Cette praxis est sans fin parce que la volonté de l’être humain de s’émanciper des déterminations naturelles, brutes, volonté portée par l’Être dans la Nature peut être sans cesse entravée par ces déterminations naturelles, originaires, inhérentes à l’Être de la Nature. Les forces de rappel à l’origine sont toujours présentes, tendues. L’être humain ne peut pas connaître des états d’équilibre entre l’être dans la nature et l’être de la nature, l’irréversibilité doit être entretenue. C’est ainsi que l’on doit comprendre la permanence de la praxis de la conquête de la connaissance des lois de la nature pour contrer les conséquences obscures de leur ignorance.

Cette praxis est toujours là, Descartes à son époque a rappelé la nécessité d’entretenir la flamme : « l’homme doit se rendre maître et possesseur de la nature. » Maintenant cette praxis a en grande partie changé de nature, puisque nous avons fini par comprendre que la nature est irrémédiablement partie de Nous, en conséquence l’obligation de la connaître est toujours un impératif mais pour mieux la respecter et ainsi préserver notre pérennité et celle de tous les vivants.

A ce stade de mon propos, il me semble qu’il est intéressant de revenir au livre de Bimbenet que j’ai déjà cité et qui à la page 162, cite des spécialistes de l’anthropologie philosophique dont H. Plessner (1892-1985) : « On sait que de Gelhen à Blumberg, en passant par Plessner, toute une « anthropologie philosophique » aura placé le manque et la déficience au cœur de l’exister humain. « L’indigence de l’homme à qui font défaut des dispositions spéciales pour réagir face à la réalité, le fait qu’il soit donc pauvre en instincts, est le point de départ d’une question anthropologique centrale : comment cet être est-il capable d’exister en dépit de son défaut biologique de dispositions ? »

« Ainsi chez Plessner la « positionalité excentrique » de l’homme interdit à ce dernier de s’en remettre à une nature capable de normer ses différents comportements. L’homme est un « émigrant de la nature », un être apatride et utopique, obligé de compenser par l’artifice technique et l’inventivité culturelle tout ce que la nature ne donne pas. Et parce que la déficience naturelle est encore paradoxalement, un tour de la nature en lui, le vivant humain se décline en d’étranges oxymores : il est tout à la fois centré et, par son surplomb réflexif (sic) sur cette centration, excentrique sur lui-même…enfin il est « animal qui laisse son animalité derrière lui. »

Je ne crois pas être dans une interprétation abusive en considérant que la réflexion de Plessner s’inscrit dans une réflexion nostalgique, et peut-être que celle-ci puise dans la source de ce qui a été reconnu au siècle précédent comme le romantisme allemand et/ou puise dans la source de la ‘Naturphilosophie’. Ce que Plessner identifie comme ‘déficiences naturelles’ qui font que l’homme est un ‘indigent’, sont pour moi la marque de l’œuvre de l’être dans la nature dont l’avancée depuis son surplomb réflexif, engage autant un recul progressif des déterminations, non encore maîtrisées, non encore accessibles à notre compréhension, qui sont propres à l’être de la nature confirmant ainsi notre dépendance toujours prégnante de nos racines constitutives.

De même, différemment à la réflexion de Plessner, la nôtre, celle que je préconise, doit être positionnée à partir de la conjecture : l’homme est devenu pauvre en instincts, plutôt que comme affirmé : « l’homme est pauvre en instincts. »

Je considère que oui, l’être humain doit développer l’intelligence technique, oui, l’être humain doit développer l’inventivité culturelle, mais contrairement à ce que dit Plessner ce n’est pas pour compenser ce que la nature ne donne pas, mais pour marquer le territoire propre du sujet pensant, territoire qui résulte de l’avancée du processus de l’hominisation du sujet pensant. Nous ne sommes pas dans ce que la nature ne donne pas mais dans ce que la nature ne donne plus. Alors, ceci étant considéré, nous ne sommes pas paralysés, englués, dans la nostalgie, au contraire nous devons nous inscrire dans une dynamique propre de l’être pensant, de l’être réflexif, dans une dynamique de la quête de la connaissance.

Pour revenir à l’article ci-joint, ci-dessous, je veux bien que l’on parle de l’action d’une force, mais de celle qui mène le sujet pensant dans une dynamique de la conquête de la connaissance des lois physiques de la Nature.

Cette conquête est illustrée par l’intelligence technique de l’être humain qui fait qu’aujourd’hui, par exemple, nous sommes capables d’envoyer dans l’espace des instruments qui scrutent avec de plus en plus d’acuité les fins fonds de ce qu’on appelle Notre univers. Il est évident maintenant que cette connaissance n’aura pas de fin, parce que nous repousserons toujours les frontières de la connaissance d’avant, toujours provisoire, parce que l’univers que nous identifions à chaque stade, est un univers qui correspond à ce que nous sommes en mesure de décrypter étant donné les capacités qui sont les nôtres à ce stade et il est plus en accord avec nos capacités de conception qu’avec un univers réel.

(Anecdote qui à mes yeux n’est pas banal, le 10 mai, j’ai appris dans un journal du dimanche qu’on venait de découvrir la galaxie la plus jeune dans l’univers : EGS-zs8-1, datant de 670 millions d’années. Précédemment, 2mois avant, la plus jeune était A1689-zD1, 800 millions d’années. Ce qui est significatif, c’est qu’un journal généraliste sait que son lectorat peut être intéressé par cette nouvelle. En effet les gens ressentent que ce type d’information les concerne, ils ressentent qu’il s’agit de leur monde dont il est question. Directement cela leur parle. Est-ce que chaque nouvelle ampleur du monde annoncée, est une bonne nouvelle ? Est-ce que c’est pour nous une nouvelle qualitative qui nous touche ? Est-ce que chaque nouvelle compréhension annoncée de Notre univers, est rassurante ? Est-ce que cela accroît notre liberté de penser, tout autant que de se penser ?)

L’hypothèse d’une force organisationnelle fondant le vivant (6 mai 2015)

~~Alain Cardon, professeur des Universités en Informatique

Les recherches actuelles d'Alain Cardon s'inscrivent dans un mouvement, encore peu connu, permettant de faire des synthèses entre l'évolution récente des diverses sciences physiques et biologiques, évolution dont notre site s'est fait l'écho depuis sa création. Nul n'avait jusqu'à une époque très récente, entrepris d'exprimer ces synthèses d'une façon aussi explicite que celle présentée dans cet article. NB: L'image n'a pas de rapport obligé avec le contenu de l'article. L’image représente la genèse de Notre univers depuis le Big Bang.

On peut chercher à préciser la raison de l’existence du vivant organisé formé avec des composants physiques élémentaires en adoptant une approche résolument systémique. Il faut considérer le vivant comme une organisation générale, unifiée sur la Terre comme une très vaste organisation complexe et qui suit une tendance à se déployer en étant évolutive. Cette tendance qui organise le vivant en le faisant évoluer ne peut pas venir du seul hasard, ce qui est trop improbable, mais de l’exercice d’une force tendancielle qui s’exerce systématiquement, une force informationnelle générale s’exerçant sur la matière pour la faire se conformer en organisations et en organismes, des organismes avec membranes qui se multiplient et évoluent pour déployer continuellement la complexité du vivant quand le contexte physique planétaire est favorable.

Le vivant pluricellulaire a, sur la Terre, six-cent-cinquante millions d’années et s’est développé à partir d’une organisation de monocellulaires avec membranes qui avait, elle, plus de trois milliards d’années. Ce vivant qui s’est déployé partout sur la Terre est un système global composé de multiples systèmes en interactions, système déployé sous de multiples formes très organisées que sont les espèces et leurs représentants. Il faut appréhender ce vivant comme un méta-organisme composé d’organisations d’organismes, comme un système unifié fait de multiples systèmes. Le vivant a une origine, une évolution et il doit avoir une raison à pouvoir se déployer sous cette forme extraordinairement variée et si cohérente. Il a une réalité de méta-organisme qui se déploie à une échelle de temps très supérieure à celle de tous les organismes qui le composent, à l’échelle temporelle de la planète. Ce vivant, qui doit être considéré comme une organisation globale unifiée, a donc une origine, un déploiement et une existence propre réifiée par l’organisation des multiples organismes qu’il a fabriqué et qu’il fait se multiplier.

Je pose l’hypothèse que tous ces organismes qui composent le vivant sont soumis à une communication informationnelle incitatrice, information émise sur l’étendue de ce vivant global pour faire déployer ses organismes dans l’espace et le temps de la planète qu’il occupe. Ce type d’information directionnelle, qui a fait être la vie et son évolution sur Terre, s’exerce sur les organismes vivants et se représente comme une force incitatrice, une force organisationnelle s’exerçant à certains moments dans la reproduction de ces organismes pour faire se réaliser une évolution systématique. C’est une force incitatrice qui tend à ce que des modifications organisationnelles se réalisent dans des directions opportunes et pas de manière totalement aléatoire. On peut concevoir que cette force à fait que le vivant a évolué systématiquement en s’organisant pour investir la mer, l’air et la terre, c’est-à-dire tout l’espace disponible lorsque celui-ci a été rendu viable il y a six-cent-cinquante millions d’années par la fonte de la couche de glace qui enserrait la Terre, ce qui a produit massivement de l’oxygène.

Je pose que cette force est émise à un niveau qui se situe sous l’échelle du réel physique de ces organismes, à un niveau substrat du monde matériel et qui incite à son organisation. On doit, là, être précis. Un méta-organisme qui se forme et se reconforme sans cesse en incitant le déploiement de tous les organismes dans toutes les directions viables possibles pour investir l’espace entier d’une planète, est un méta-organisme obéissant à une force organisationnelle qui conduit la matière du réel physique à s’utiliser de façon maximale et pour se déployer sur lui-même en se consommant. C’est une force incitatrice qui est dans le substrat de la matérialité du réel observable, qui incite aux développements, aux déploiements, qui part sans cesse de l’état courant pour l’amplifier dans l’organisation des possibles. Ce n’est absolument pas une force avec un but explicite, une finalité, mais c’est une force opportuniste qui s’applique continûment et qui incite systématiquement le réel au développement de déploiements organisés. Ainsi, les espèces en ont créées d’autres par opportunité, lorsque le contexte des organismes vivants locaux permettait cette extension dans les reproductions, et elles se sont aussi développées sur elles-mêmes en développant leurs organes et leurs organisations. Cela donne aujourd’hui un vivant avec des espèces très belles, très harmonieuses et équilibrées entre elles pour vivre leur petite vie.

Au niveau quantique

Je vais aller plus loin en posant l’hypothèse que cette force s’exerce au niveau substrat de la matière dans tout l’univers, au niveau quantique donc, et qu’elle donne les indications des comportements possibles selon leurs lois physiques à toutes les particules, pour qu’elles passent à l’état organisationnel du réel que nous observons, qu’elle donne l’information comportementale possible à tout ce qui peut se structurer et s’organiser. Je pose donc l’hypothèse d’un substrat informationnel sous le réel observable, hypothèse qui est aujourd’hui posée par certains grands scientifiques [Seth Lloyd, Lee Smolin]. Ce substrat pourrait être constitué de processus strictement informationnels, formant une nappe partout dense, et indiquant les lois comportementales aux particules quantiques selon leurs états, aux atomes, aux molécules, aux amas matériels, aux organismes, au vivant. Tous ces éléments matériels sont soumis aux effets de cette information conductrice qui peut être, à un certain niveau, modificatrice, ce qui sera le cas du domaine du vivant. Je pose donc l’hypothèse constructiviste et systémique que tout notre univers matériel repose sur l’activité continue et partout dense d’un certain type de flux informationnel organisateur, qui réalise son existence et son expansion. Ce flux informationnel serait produit par une nappe informationnelle, avec une topologie particulière, qui est le substrat du réel physique, qui permet à celui-ci de se comporter en l’utilisant. Ce flux serait la force organisationnelle indicatrice du comportement physique des éléments de l’univers à tous ses niveaux. Cette force est posée comme unidirectionnelle, elle s’exerce du substrat informationnel vers les éléments physiques qu’elle incite à se comporter et en aucun cas elle ne peut aller des éléments physiques vers ce substrat informationnel. C’est la tendance générale à déployer sous forme organisée le réel de l’univers dans l’espace et le temps. Mais ce n’est qu’une tendance disponible et incitatrice et les autres lois de la physique, comme la gravité, opèrent systématiquement. Je pose donc l’hypothèse que le vivant organisé sur la Terre est soumis à cette force organisationnelle indicatrice, qui est partout disponible, qui a incité à sa création et à son développement, force qui s’est exercée et qui s’exerce toujours comme la force incitatrice qui fait être ce vivant comme un système global ayant une autonomie comportementale, qui est constitué de multiples organismes qui s’organisent sans cesse entre eux. Cette force opère à une échelle informationnelle qui n’est pas directement conductrice au niveau des organismes, mais qui est bien incitatrice.

Le substrat de l’univers

L’univers est une couche déployée formant un espace spatio-temporel pour la matière sur un substrat purement informationnel partout dense constitué de processus informationnels. L’univers est donc un espace à 5 dimensions : trois d’espace, une de temps et une d’information. Ce substrat informationnel exerce son action à toutes les échelles, il conduit directement le comportement des particules isolées, il incite les éléments proches à se structurer, il incite les éléments structurés à s’organiser pour aller plus loin par l’autonomie comportementale, jusqu’au vivant organisé.

La force organisationnelle

C’est une force exercée par le substrat informationnel sur toute la matière de l’univers, sur chaque particule quantique pour qu’elle se comporte selon les lois de la physique, sur chaque atome pour qu’il se structure avec d’autres pour former les molécules et sur chaque élément matériel structuré pour qu’il s’organise avec d’autres, permettant ainsi de conduire la matière structurée à former continuellement des organisations, jusqu’à la vie et son évolution globalement organisée partout où c’est possible. Cette force s’exerce sur les organisations matérielles de trois façons : elle peut inciter à poursuivre leur organisation dans la continuité, elle peut inciter leur organisation à réaliser des bifurcations, elle peut tendre à laisser les choix d’organisation se faire par la matière organisée elle-même, en suivant les lois de la physique. L’hypothèse de l’existence de cette force fondamentale permet donc de donner une raison scientifique à l’existence de notre univers observable et tend à contrebalancer la théorie usuelle de l’évolution du vivant par un pur hasard ou une raison immanente. La force organisationnelle opère dans l’univers à deux niveaux. D’une part, elle incite la matière à s’organiser selon les états de ses éléments pour y former des organismes dans l’espace physique de toute planète viable, en créant de nouvelles organisations vivantes, en les diversifiant pour submerger tout l’espace physique disponible où ces organismes partagent la même ligne d’univers (voir en relativité générale la définition d’une ligne d’univers). D’autre part, elle s’exerce comme une force informationnelle sur les constituants élémentaires, au niveau quantique pour en préciser les lois d’actions et la cohérence ainsi que sur les atomes et molécules. C’est bien ce que précisait M. Lachièze-Ray sur l’existence d’un vide informationnel [Entre rien et quelque chose : les paradoxes du vide, article de Lachièze-Ray p. 134-144, in Le vide, univers du tout et du rien, Revue de l’Université de Bruxelles, 1997]. Nous préciserons dans un autre article les caractères de cette force qui pose l’existence d’un système générateur d’informations au-dessous du niveau des particules quantiques, qui explique l’intrication, qui fait exister toutes les particules selon leurs lois précises et qui immerge ainsi tout ce qui est réel et structuré dans l’univers. Cette force est fondée sur un calculable très particulier qui n’est pas du tout celui que l’on pratique habituellement, elle représente une cause de l’existence du modèle de Turing, en utilisant notamment une notion différente de programme, en posant une nouvelle loi de calculabilité informationnelle. L’univers pourrait alors être considéré comme un "super-méta programme entropique" incitant à constituer, partout où il le peut, des organisations d’organisations de façon opportuniste. Mais cette notion de programme n’est pas celle de programme informatique, ce qui bouscule un peu l’ordre des choses, car elle contient en elle la notion d’autonomie et pose l’information comme fondamentale, structurelle et disponible partout et tout le temps, et donc pas comme du signal envoyés d’un émetteur à un récepteur qui sont a priori présents. Cette force incitatrice à des intensités différentes selon les structures des éléments qu’elle soumet, selon leur entropie. Il n’y a pas la même information fournie à une particule qu’à un organisme vivant ni à un ensemble d’organismes. L’information donnée aux particules pour permettre de conduire leurs comportements physiques est directe, permettant simplement de suivre les lois de la physique, car il s’agit d’éléments ponctuels et l’information est alors elle-même élémentaire. L’information donnée à des organismes vivants est une incitation envoyée à l’organisation d’une structure complexe, changeante, ayant localement de l’autonomie. Ce sera une information disponible située au niveau de son organisation même, donc de sa complexité. Dans le cas des organismes vivants, cette information sera parfois incitatrice de bifurcations dans leurs reproductions, pour que se réalisent des différences évolutives selon l’état général courant, selon le contexte général, et aussi selon la possibilité des organismes à la suivre. Il y a donc, ce qui est un caractère scientifique des systèmes organisés ayant de l’autonomie, une réelle liberté des éléments organisés à appréhender ou non cette information comme une tendance globale incitatrice. Disons que plus les organismes ont acquis de l’autonomie comportementale, moins ils sont soumis à cette force incitatrice et plus leur organisation peut ne pas en tenir compte. Et précisons que cette force informationnelle ne s’exerce pas directement sur la pensée des êtres humains, leur cerveau étant un organe localisé dans leur corporéité et générant des représentations des choses du monde en étant soumis à de nombreuses pulsions.

Partager cet article
Repost0
1 mai 2015 5 01 /05 /mai /2015 11:44

~~L’esthétique de la Relativité Générale.

Tout bien pesé, on peut considérer que la civilisation grecque avait eu une intuition précoce de ce qui constitue l’essence de la Relativité Générale (R.G.), c’est-à-dire que la matière et la lumière ont partie liée. Lorsqu’on contemple les œuvres de sculpteurs de cette civilisation dont notre culture en est l’héritière, il ne nous échappe pas que l’interdépendance de la matière et de la lumière constitue le leitmotiv qui guide le ciseau de ces ancêtres. Volumes et formes qui séduisent notre regard sont sculptées par les effets d’enveloppements et de glissements de la lumière qui au paroxysme nous laisse penser que l’éclat de cette lumière jaillit directement de la matière de l’objet ou du sujet sculpté.

Par exemple, contemplons la « Victoire de Samothrace » nouvellement restaurée, et notre impression de la permanence d’un envol imminent est entretenue par la légèreté des ailes déployées soutenues par le flux de la lumière qui les éclaire.

Rodin, C. Claudel, C. Brancusi, etc…, nous rappellent que les grecs sont les initiateurs de l’esthétique qui nous parlent toujours.

Dans la ‘Critique de la raison pure’ (1781), de Kant, l'esthétique transcendantale désigne la science de l'intuition des concepts a priori de l'espace et du temps du point de vue de la connaissance. L'esthétique est la science du "sensible" par opposition à la logique, qui est la science de "l'intelligible".

N’oublions pas que notre intelligence convoque les concepts a priori de l’espace et du temps pour établir l’équation de la géodésique (trajectoire) du photon de lumière. Géodésique (trajectoire) qui se courbe, se modifie, sous l’effet de l’influence de la matière !

Selon Kant : « Est beau ce qui plaît universellement sans concept. » J’ajouterai volontiers : « ce qui nous parle… sans faire appel au besoin d’énoncer. », « ce qui évoque… parce que c’est déjà présent en nous. »

Pour Kant : « La Nature se révèle dans et par l’art », ainsi l’art « doit avoir l’apparence de la nature. »

Si l’on en croit Kant, la loi de la Relativité Générale est dans la Nature, et si on accepte mon interprétation de l’esthétique grecque, l’intuition de ce qui constitue l’essence de la R.G. fait partie de notre culture contemplative de la Nature.

Le résultat qui a surgi en 1915 sous la plume d’A. Einstein, n’était pas, me semble-t-il, préconçu par l’auteur. Les hypothèses du début de son raisonnement en 1905 ne conditionnaient pas le résultat final. Ce qui, à mes yeux, donne encore plus de valeur et de véracité au résultat final en 1915 et suscite à juste raison de l’admiration à propos de la grande disponibilité intellectuelle du découvreur.

Espace – Temps – Matière, propriété d’interdépendance mise en lumière rationnellement par la R.G. est une propriété qui appartient à notre culture, depuis l’origine de son expression, d’une façon intuitive et depuis 1915 elle est régie par la loi physique. De R. Lehoucq, article du 22/04 dans le ‘Monde’ : « Contrairement à la physique classique, la lumière devient sensible à la présence de matière car elle aussi est forcée de suivre les géodésiques. Sa trajectoire peut donc être courbée au voisinage d’un corps massif. »

Espace – Temps – Matière est sensée être une loi qui permet de décrire Notre univers. En effet c’est la loi de la R.G. qui constitue l’outil théorique essentiel pour tenter de décrire ce qu’il pourrait être en tant que contenant et surtout pour décrire son contenu. La structuration de l’univers est considérée comme étant la conséquence de la domination, à cette échelle, de l’interaction gravitationnelle, 380 000 ans après le Big-Bang. Au premier niveau : systèmes solaires et galaxies, ensuite : groupe de galaxies, puis amas de galaxies…et in fine superamas de galaxies : Laniakea magnifiquement identifié en 09/2014.

De R. Lehoucq, du même article : « Aujourd’hui, la déviations des rayons lumineux par la matière est un fait incontournable. Elle est à l’origine du phénomène de lentille gravitationnelle : l’image d’une galaxie lointaine est déformée par son passage à travers un amas de galaxies plus proche. L’amplitude de la déformation permet d’estimer la masse de l’amas déflecteur… »

Maintenant, grâce à : ‘l’effet lentille gravitationnelle’, qui se déduit de la R.G., nous avons entrepris d’ausculter avec plus d’acuité les structures et le contenu de Notre univers.

L’effet lentille gravitationnelle nous permet, a priori, de mieux déterminer les composants qui constituent les amas de galaxies et maintenant ces amas de galaxies devraient nous permettre d’observer la formation, 2 à 3 milliards d’années après le Big-Bang, des proto-amas de galaxies dans les profondeurs du temps de la genèse de l’univers. C’est dans l’œil que l’on observe la formation de l’œil qui nous permet de voir notre Notre univers…

Au début, la validité de la R.G. a été reconnue car elle englobe la loi de Newton, ainsi elle a hérité du caractère universelle de la loi de Newton.

Il se trouve que devant les difficultés que nous rencontrons pour que coïncident les prévisions théoriques et les observations de l’univers, un physicien particulièrement iconoclaste (Milgrom) a sérieusement fragilisé le caractère universel de la loi de Newton, en modifiant pragmatiquement la loi pour qu’elle corresponde au plus près des observations. Après des tâtonnements, au bout de trente ans, Milgrom a montré que dans des domaines, de plus en plus significatifs, sa démarche produit des résultats vraiment crédibles sans ajouter une hypothétique matière noire. Dans d’autres domaines les tenants de la matière noire tiennent toujours la corde. Alors… ! Le plus probable est que ces deux théories antagoniques sont approximatives et donc globalement elles sont erronées.

Faut-il pour autant rejeter la loi de la R.G ? Non, gardons le cadre, mais regardons le contenu. Premièrement, la matière que nous comprenons actuellement dans cette loi est d’une nature trop spécifique, d’autres matières de natures plus variées pourraient être concernées…

Si la loi de la R.G. a une valeur universelle alors il nous faut aussi dépasser notre conception actuelle de l’espace et du temps. Cela s’est déjà produit dans l’histoire de la physique à propos de l’espace et du temps puisque depuis 1905 l’espace et le temps de la Relativité Restreinte et partant de la R.G. n’ont rien à voir avec ceux absolus de Newton de la physique. Donc si nous considérons que le triptyque Espace – Matière – Temps continue d’avoir une validité universelle, alors le nouveau triptyque à mettre en évidence comprendrait un Espace, un Temps, et des Matières qui seraient de natures qu’il nous faut découvrir, reconnaître. En sommes-nous si éloignés ? Pas sûr !

Partager cet article
Repost0
30 avril 2015 4 30 /04 /avril /2015 10:31

~~L’invention du réalisme.

‘L’invention du réalisme’ est un livre récent (mars 2015) qui a immédiatement attiré mon attention pour des raisons évidentes. Ce livre (édit. Cerf) est écrit par un universitaire philosophe : Etienne Bimbenet. Première déception l’auteur ne s’adresse qu’à ses pairs et ne cite dans son ouvrage que des philosophes. Le ‘critique’ qui m’a permis de découvrir ce livre avertit : « Sans doute ce philosophe original n’a-t-il pas encore pris le temps de faire court, ni de faire vraiment simple. »

Le fil directeur de ce livre ne peut qu’attirer notre attention puisqu’il tente d’approfondir la réflexion sur l’énigme : l’invention humaine du réel. Celle-ci constitue un défi pour la pensée car l’énigme à interroger est celle d’un animal qui est devenu humain, au prix d’une rupture profonde avec ses formes d’existence antérieures. Cet animal en se mettant à parler, a rompu la corrélation originaire avec son milieu. Il a inventé « le monde », le réel, l’affirmation d’un tout ne dépendant pas de lui. Pour ce philosophe et les philosophes en général : l’animal se caractérise par le fait qu’il projette son existence dans un milieu, un milieu satisfaisant ses besoins terre à terre : nourriture, reproduction… et l’être vivant qui devient un être humain se caractérise par le fait qu’il projette son existence dans un monde conçu comme un tout ne dépendant pas de lui. La question anthropologique fondamentale est la suivante : comment un sujet vivant peut-il sortir de lui-même ? Et appréhender, ‘voir’, discriminer, ce qui ne serait pas une émanation de ce qu’il est.

Il n’est pas interdit de penser que ce que nous avons découvert sur les parois de la grotte Chauvet corresponde au stade le plus élaboré du processus affirmant qu’une intelligence définitivement humaine avait identifié un monde extérieur représentable. On comprend bien pourquoi les sujets de ces dessins extraordinaires, émouvants puisque tellement réalistes, sont des représentants du monde animal. Ces artistes du paléolithique nous disent que ces animaux représentés avec une telle économie de moyens sont encore dans l’immédiateté de leur existence mais irrémédiablement ils s’en distinguent.

Bien qu’E. Bimbenet ne s’intéresse nullement aux physiciens, aux cosmologistes, qui prospectent le monde que le sujet pensant conçoit, il vaut la peine de lire son livre. En même temps il faut s’inquiéter de ce discours cloisonné et cloisonnant qui ignore le discours des scientifiques, sur un tel sujet. Pourtant tout au long de son livre il se réfère à la phénoménologie et au fondateur de ce ‘système méthodologique d'accès à la vérité des choses’ : Edmund Husserl (1859-1938), qui lui, a écrit un ouvrage significatif en 1936 qui s’adressait aux scientifiques : ‘La Crise des sciences Européennes et la Phénoménologie transcendantale’.

Dommage que Bimbenet n’ait pas compris que le sujet qu’il a tenté de traiter concerne toutes les activités et les quêtes intellectuelles de l’être humain. Dans la suite du présent article je citerai les pages du livre et les fragments qui enrichiront et prolongeront notre réflexion entreprise sur le sujet car le 26/08/2014, j’ai déjà proposé un article qui évoque cette émergence d’une intelligence primordiale qui s’extirpe de son milieu aliénant et fonde un monde à sa mesure : ‘Un authentique Big-Bang’ : « Ainsi, c’est un authentique ‘big bang’ qui s’est produit quand a surgi dans la Nature une première intelligence, surgissement que l’on situe à peu près entre 10 à 8 millions d’années. Cette intelligence primordiale de notre ancêtre, qui est à l’origine de la trace de la lignée humaine, s’est différenciée des autres hominoïdes en s’installant dans l’espace et dans le temps. C’est donc une ‘Présence’ embryonnaire qui s’installe… »

Dès la page 13 et les suivantes l’auteur précise ce qui l’occupe : « … nous aimerions ouvrir ce dossier philosophique : l’invention du réalisme. Un tel dossier regroupe un ensemble de questions profuses et néanmoins convergentes : comment un vivant a-t-il pu un jour sortir du relativisme et se mettre à croire que le monde existait ? Comment un tel vivant a-t-il pu croire que ce monde était plus vieux que lui, qu’il lui survivrait, qu’il était commun à toute vie possible ? » « Comment cette ouverture fut-elle possible ? Le langage est manifestement partie prenante en cette affaire… » La contribution du langage est certainement essentielle et c’est ce que j’ai pointé dans mes articles du 11/07/2012 : ‘Faire alliance avec les linguistes pour avancer’ et du 10/10/2013 : ‘Comment nous sommes devenus avec/dans le langage.

« Ainsi nous provenons d’une vie (animale) centrée sur soi et s’entourant d’un milieu, c’est-à-dire de tout ce qui compte pour elle. Cet idéalisme pourrait être la définition même d’une vie simplement vivante, ou non encore humaine. Or au terme du parcours hominisant nous trouvons tout à fait autre chose : une vie centrée non plus sur soi, mais sur le réel. (sic) »

p.22 « le réalisme est une attitude : c’est pourquoi on ne saurait le confondre avec le réel auquel prétend cette attitude. On peut croire sans retour au réel, au fait que le monde est là, inhumain et se passant de nous pour être. » Ou bien p.23 « Telle est épurée et radicalisée, la forme liminaire de notre étonnement. Celui-ci s’impose depuis le fait, scientifiquement établi, de notre origine animale. Sauf que celle-ci est désormais passée en philosophie pour y induire, de force, un paysage conceptuel nouveau. Impossible par exemple de s’en remettre à une analyse conceptuelle atemporelle (sic). Dans un tel paysage les concepts sont inévitablement compromis avec l’élément empirique de l’évolution. » ; « Il nous faut considérer que le réalisme n’a pas toujours été, qu’il est une invention de la vie, et plus exactement de l’évolution. Dans l’histoire des vivants le réalisme n’a pas toujours été : il a fallu le long, périlleux, et contingent processus de l’anthropogenèse pour faire advenir une espèce faisant du monde son tribunal ; posant le monde au centre, dans la perception, l’agir, le vouloir ou même le sentiment. »

Comme dit précédemment : « celle-ci est désormais passée en philosophie » mais pas uniquement, en physique aussi : « Impossible par exemple de s’en remettre à une analyse conceptuelle atemporelle. » En physique nous sommes conscients que des concepts évoluent au cours du temps, au fur et à mesure des découvertes constituant autant de tremplins vers la compréhension d’un monde de plus en plus riche de possibilités. Pour le sujet pensant l’ouverture se prolonge. Pensons tout simplement aux concepts d’espace et de temps. Cela concerne notre évolution à condition que l’on accepte de considérer que le développement de notre bagage intellectuel contribue au développement de ce que nous sommes en tant que sujet pensant…le monde.

N’oublions pas qu’avant 1920, Einstein considérait que le monde était immuable et atemporel et celui-ci correspondait à ce que l’on appelle notre galaxie : la Voie Lactée. C’est Edwin Hubble qui a éclairé Einstein en lui faisant voir dans son télescope que cela bougeait, évoluait, au-delà de notre galaxie. Un siècle plus tard nous sommes habitants d’un Univers comprenant des milliards galaxies réunies en amas et de là en superamas et nous dévoilerons bientôt peut-être d’autres Univers exotiques. Le problème c’est que nous enregistrons ces évolutions de notre savoir d’une façon passive comme si elles ne nous affectaient pas, comme si elles ne nous transcendaient pas, comme si elles n’étaient que des ajustements et non pas des ouvertures. Tout dépend si on considère que l’espace et le temps sont fondés par l’être humain ou qu’ils appartiennent à la réalité physique du monde que nous prospectons comme l’affirment les réalistes.

Bref, étant donné la matière à réflexion que j’ai trouvée dans ce livre, après coup, je suis un peu injuste étant donné les reproches que j’ai formulés à l’égard d’E. Bimbenet. Mes articles que j’ai rappelés à cause des idées que j’ai rencontrées au cours de la lecture de ce livre sont dorénavant moins iconoclastes et apparaissent donc moins comme le fruit d’un exercice solitaire. Toutefois comme l’auteur a voulu que son livre soit un livre de philosophie pure, la portée de cette rencontre peut apparaître, dans le court terme, comme limitée. De ce sujet on en reparlera, c’est à peu près certain, mais avec qui ? Avec des physiciens, des philosophes, des philosophes de la connaissance ?

Partager cet article
Repost0
27 avril 2015 1 27 /04 /avril /2015 16:02

~~Après le dérapage, un rétablissement mais avec un ‘plus qualitatif’. Le dérapage concerne l’article résumé du 26 mars sur le site du NewScientist que j’ai critiqué le 31/03 et le 11/04 dans l’article : « L’objectivité scientifique exclut qu’elle soit parasitée par des problèmes de doctrine. »

Cette analyse critique m’a amené à formuler l’hypothèse que la matière noire pourrait être une matière amorphe, non sécable en constituants élémentaires, et en conséquence on ne devrait pas lui attribuer une masse d’inertie. Ceci n’exclut pas qu’elle soit quand même pourvue d’une masse grave mais de nature différente que celle identifiée par la loi de Newton et de la Relativité Générale et en conséquence ceci n’exclut pas qu’elle interagisse suivant une interaction de type gravitationnel différente non formulée jusqu’à présent.

Des observations récentes de la collision de quatre galaxies au sein de l’amas Abell 3827 ont permis d’inférer que la matière noire (particules ?) pouvait interagir avec elle-même au moyen d’autres forces. Trois articles sur différents sites ont été publiés pour annoncer ces données nouvelles. Je cite particulièrement celui de Futura-Sciences du 17/04/2015, ci-dessous, et qui a pour titre : ‘La matière noire subirait l’influence de forces inconnues’ :

« Ce raisonnement serait parfaitement valide si les particules de matière noire ne pouvaient interagir entre elles que par les forces de gravitation. Mais les théoriciens ont réalisé depuis un certain temps déjà que ces particules interagissent faiblement ou fortement au moyen d'autres forces, inconnues du modèle standard de la physique des particules. En fait, de telles interactions seraient même bien commodes pour rendre compte de certaines observations en cosmologie et en astrophysique qui cadrent mal avec le modèle cosmologique standard.

Or, justement, selon l’astronome Richard Massey de l'université de Durham, les travaux qu’il a menés avec ses collègues sur les caractéristiques de la collision de quatre galaxies dans l’amas Abell 3827, vont dans ce sens. Ils conduisent à postuler l’existence de ces nouvelles forces qui ont conduit les concentrations de matière noire à se freiner tout de même un peu. C’est un résultat très intéressant puisqu’il est complémentaire d’un autre récemment obtenu par Massey et son équipe mais concernant les amas de galaxies. Les chercheurs avaient cette fois-ci conclu que les interactions entre particules de matière noire devaient être plus faibles que celles postulées depuis quelque temps.

Bien que toujours dans l’ombre, la nature de la matière noire se révèle donc chaque année un peu plus grâce aux contraintes que l’on peut poser sur elle. Mais une détection directe en laboratoire est sans doute la seule façon de mettre fin aux doutes de certains sur son existence et la seule manière aussi de la rattacher de façon non ambiguë à un modèle de nouvelle physique. »

« Ces nouvelles forces qui ont conduit les concentrations de matière noire à se freiner tout de même un peu. » peuvent correspondre à ce que j’appelle une interaction suivant un mode gravitationnel différent non encore identifié, non encore formulé jusqu’à présent.

Comme on peut le constater le ‘plus qualitatif’ a surgi en quelques semaines. Patience il en faudra d’autres avant que le but final soit atteint.

Le raisonnement que je privilégie pour formuler l’hypothèse que l’on ne puisse pas attribuer de masse d’inertie à la matière noire pourrait valoir aussi en ce qui concerne les neutrinos, surtout si l’hypothèse d’un neutrino stérile s’avérait fondée.

La masse d’inertie n’est pas une propriété intrinsèque des objets matériels car celle-ci ne se manifeste que pour l’observateur qui est toujours d’une façon ou d’une autre l’auteur d’une intervention extérieure sur les objets. En ce qui concerne la masse grave, sa valeur se manifeste indépendamment de l’observateur, on peut donc considérer qu’elle est une propriété intrinsèque.

Partager cet article
Repost0
11 avril 2015 6 11 /04 /avril /2015 11:12

~~L’objectivité scientifique exclut qu’elle soit parasitée par des problèmes de doctrine.

J’évoque cette obligation dans le présent article après avoir analysé l’article du NewScientist du 26 Mars : ‘Galaxy smash ups show dark matter wants to be alone’ : ‘Des collisions de galaxies montrent que la matière noire reste isolée’. L’article source est publié dans ‘Science’ : le 12/03/2015. Avec l’abstract suivant, traduit par mes soins : « Les interactions non-gravitationnelles de la matière noire des amas de galaxies en collision. » Voilà pour le titre, ensuite : «Les collisions entre les amas de galaxies fournissent un test à propos des forces non-gravitationnelles agissant sur la matière noire. La matière noire ne subit pas de décélération dans la collision de ‘l’amas du boulet’, la section efficace de son auto-interaction est contrainte par σDM/m < 1.25 cm2/g (68% de limite de confiance). En utilisant les télescopes Chandra ( télescope spatial à rayon X) et Hubble, nous avons observé 72 collisions, incluant des fusions importantes et secondaires. En combinant ces mesures, statistiquement nous détectons l’existence de matière noire avec une confiance de 7.6 σ. La position de la matière noire reste étroitement alignée avec les étoiles associées dans la marge de 5.8 + ou – 8.2 kpc, impliquant une section efficace d’auto-interaction σDM/m < 0.47 cm2/g (95% de limite de confiance), ce qui défavorise des extensions du modèle standard.»

Maintenant analysons l’essentiel de l’article du NewScientist publié avec l’accord des chercheurs en question et traduit par mes soins.

Des collisions de galaxies montrent que la matière noire reste isolée.

Des nouvelles mesures de collisions entre des douzaines d’amas de galaxies montrent que cette mystérieuse substance est encore plus fantomatique que nous l’imaginions.

« Notre résultat élimine une large proportion de modèles qui prédisent que la matière noire interagirait avec elle-même. » dit David Harvey de l’Institut de Lausanne. « C’est la première fois que nous avons été capable d’analyser cette propriété sur une telle échelle. »

La matière noire est pensée constituer 83% de la matière dans l’univers, mais comme elle refuse d’interagir avec la matière ordinaire, 1) excepté gravitationnellement (sic), les scientifiques sont toujours en train d’essayer de comprendre ce qu’elle est.

Quelques chercheurs ont essayé d’éliminer la matière noire en modifiant les lois de la gravité, mais les observations de l’amas du Boulet, une collision entre deux amas de galaxies, 2) suggèrent que ce n’est pas possible.

Normalement, matière noire et matière ordinaire sont trop bien mélangées pour les séparer. Mais quand les deux amas entre en collision, leurs galaxies se croisent en glissant naturellement l’une par rapport à l’autre et laissent une trainée en arrière de gaz chaud qui interagit. La matière noire, 1) vue indirectement par ses effets gravitationnels, reste avec les galaxies. Cela suggère que les 3) particules de matière noire ne rebondissent pas l’une contre l’autre comme cela se produit entre particules ordinaires.

Mais quelques études d’autres collisions d’amas de galaxies ont laissé entendre que la matière noire pourrait interagir avec elle-même via une nouvelle : dark-matter-only, force. Pour tester cette idée, Harvey et ses collègues ont exploité des images de Hubble et de Chandra pour observer les positions du gaz, des galaxies et de la matière noire dans 30 collisions d’amas de galaxies.

« Les amas de galaxies ont la plus haute densité de matière noire de l’univers, voilà pourquoi les collisions entre eux constituent un laboratoire parfait permettant d’étudier les propriété d’auto-interaction de cette mystérieuse matière. » nous dit Harvey.

Ils ont constaté que quand les galaxies collisionnent, la matière noire se déplace toujours sur son chemin complètement, sans empêchement aucun, et non affectée par toute autre matière noire autour, suggérant qu’elle n’interagit pas, après tout, avec elle-même.

J’ai numéroté, 1) ; 2) ; 3), les points qui doivent être discutés.

Le point 1), où il est affirmé sans l’ombre d’un doute que la matière noire interagit gravitationnellement avec la matière noire, doit être discuté. Historiquement le problème de la masse manquante s’est posé lorsqu’on a constaté qu’il y avait, dans les galaxies spirales, en bordure de leur disque, un déficit de masse gravitationnelle pour rendre compte de la vitesse importante des étoiles qui s’y situaient. Généralement au-delà d’un certain rayon de la galaxie la vitesse mesurée des étoiles atteignait une vitesse de plateau supérieure à celle que la dynamique classique autorisait pour maintenir un système galactique stable. Pour combler ce déficit de masse gravitationnelle, on a donc ajouté cette fameuse matière noire. Noire parce que depuis qu’elle a été inventée, elle n’est toujours pas détectée. Il se trouve que la théorie MOND, depuis 30ans, est une théorie qui est en mesure de rendre compte de la dynamique des galaxies sans inventer de matière noire. Dorénavant, les succès scientifiques de cette théorie ne sont plus négligeables pour qu’ils soient ignorés comme le font les auteurs de l’article. Rigoureusement, on ne peut affirmer qu’il y a de la matière noire ni affirmer, si le doute est autorisé, qu’elle interagit gravitationnellement avec la matière ordinaire. On constate pourquoi ils entretiennent cet idée c’est pour pouvoir affirmer : « La matière noire, vue indirectement grâce à ses effets gravitationnelles, reste avec les galaxies. » En conséquence, douter de ses effets gravitationnelles ce serait douter de ce qu’ils auraient vu. En conséquence nous devons le faire à leur place.

Le point 2) soulève un autre questionnement et on découvre un aveuglement doctrinaire car les observations de l’amas du boulet montrent tout autant les faiblesses de la théorie de la matière noire que de la théorie MOND. Voir le cours de F. Combes (collège de France) : ‘Physique des galaxies en gravité modifiée’, p. 17-21. On peut lire : « La vitesse des collisions est obtenue à partir de la forme du choc : 4700 + ou – 500km/s, ce résultat est difficile de réconcilier avec les modèles de matière noire. CDM peut seulement v < 3500km/s et MOND >4500 km/s. »

Les auteurs nous montrent un tel a priori, que nous ne pouvons que douter de leur observation 3) les particules de matière noire n’interagissent pas entre-elles comme cela est pour des particules ordinaires.

Si on veut justifier la supériorité de la théorie CDM à l’égard de la théorie MOND, et vice versa, il faut maintenant étayer avec des vrais arguments qui ont une valeur scientifique. L’une et l’autre ont des points forts et des points faibles. Par exemple en ce qui concerne les amas de galaxies, la théorie CDM est plus conforme avec les observations que la théorie MOND. Mais la théorie CDM, ne prévoit pas correctement la densité de matière noire au centre des galaxies : problèmes des cuspides prédites dans les simulations alors que des cœurs sont observés. En ce qui concerne les galaxies naines, c’est la théorie MOND qui est au plus près des observations.

Lorsqu’on fait un bilan on constate aujourd’hui que les deux théories se valent (sauf au niveau de l’univers primordiale, mais… ?), se contredisent, sont incompatibles, et donc sont tellement approximatives qu’il faudrait penser les choses sur des bases nouvelles. Aucune des deux ne peut s’imposer.

On comprend bien pourquoi on veut croire au fait que la matière noire (inventée) interagisse gravitationnellement puisqu’ainsi elle est insérée dans le cadre de la Relativité Générale et, à ce titre, elle est sensée être directement évaluable grâce à l’effet lentille gravitationnelle, par exemple. D’ailleurs la théorie MOND, a pragmatiquement été adaptée, grâce à Jacob Bekestein en 2004, pour qu’elle soit compatible avec la R.G. On constate que la R.G. est le cadre théorique dont on ne peut se passer, ni actuellement dépasser.

Lorsqu’Einstein a eu la grande idée de considérer l’égalité mi = mg, en 1905, on peut considérer après coup que l’essentiel de la R.G. est à ce niveau postulé. En effet, il n’y a pas de masse d’inertie sans mise en mouvement ou sans modification d’un mouvement perçu comme constant et lorsqu’il y a cette mise en mouvement ou modification, les coordonnées spatiales et temporelles sont immédiatement réquisitionnées par le sujet pensant (voir les travaux originaux de Galilée) pour décrire cette situation. On ne peut concevoir de la mi, sans mise en mouvement ou modification. (Je vous suggère d’essayer de penser quelle est la signification de la masse d’inertie immobile ?) D’ailleurs le sujet pensant ne peut rien observer qui soit immobile (ceci correspond à ce que j’appelle une détermination incontournable du sujet pensant), bien que l’on puisse se rapprocher de 0° Kelvin. Donc mi, implique espace et temps. Affirmer la parfaite égalité entre mi et mg, c’est transférer à mg, la même propriété. L’interdépendance Espace – Matière – Temps constitue, le cadre, le paradigme, dont on ne saurait se passer pour concevoir le monde physique, notamment au niveau cosmologique. On voit aussi l’intérêt de vérifier le niveau de validité de cette égalité, à l’heure actuelle l’équivalence est au niveau 10-12, et des expériences sont programmées pour améliorer la précision, jusqu’à peut-être 10-16.

Rien ne dit que la matière noire puisse s’insérer dans la loi de la R.G. actuelle , car pour les tenants de cette hypothèse, celle-ci est froide : Cold Dark Matter, CDM. Jusqu’à quel degré estiment-ils qu’elle est froide ?, aucune précision sur ce sujet n’a été jusqu’à présent proposée (cela pourrait donc être une sorte de matière amorphe, non corpusculaire), parce qu’ils pensent que cela n’est pas nécessaire ni possible jusqu’à présent, ils ne sont intéressés que par son interaction gravitationnelle estimée surtout pour les premiers instants de la genèse de l’univers pour les besoins de la formation de puits de potentiel.

Penser à une matière qui aurait une masse grave sans masse d’inertie propre n’a rien d’incongru, mais cette matière n’est pas concernée par la loi de la relativité générale ni par la loi de Newton que nous connaissons (cela explique peut-être les succès partiels, notables, de la théorie MOND). Il y a donc là, selon mon point de vue, une vraie incomplétude du raisonnement scientifique, en conséquence, il ne faut pas exclure que ce qu’on appelle CDM ne puisse pas être sous-pesée par les moyens de l’effet lentille gravitationnelle. Ce qui expliquerait bien des résultats approximatifs voire contradictoires.

Selon mon hypothèse, l’espace et le temps, sont fondés par le sujet pensant (voir articles précédents, dont celui du 27/03), avec une fondation sous influence, qui implique la matière ordinaire, celle dont l’anthrôpos en est dépendant avec conscience ou sans conscience. Cela veut dire que le processus de fondation de l’espace et du temps est corrélé, déterminé par cette ‘matière ordinaire’ et rien n’indique que tout autre type de matière et/ou d’équivalent énergie devrait s’inscrire dans ce triptyque : Espace – Matière – Temps.

Il ne faudrait pas exclure a priori que nous soyons à l’aube d’une fondation d’un nouveau concept d’Espace et d’un nouveau concept de Temps qui nous permettrait de mettre en valeur un nouveau triptyque plus riche en diversité de matière et d’énergie et qu’ainsi des pans entiers d’éléments obscurs censés composer Notre univers deviennent accessibles à notre compréhension. Cela implique que cet Espace nouveau et ce Temps nouveau, annuleraient les déterminations intellectuelles actuelles du sujet pensant, celles-ci étant dépassées par des nouvelles, mais le sujet pensant, que nous sommes, serait riche de nouvelles références, de nouveaux paradigmes, de nouvelles données, qui favoriseront une respiration intellectuelle d’une ampleur nouvelle.

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens