Overblog
Suivre ce blog Administration + Créer mon blog
3 janvier 2015 6 03 /01 /janvier /2015 09:47

Pourquoi cette inertie ?

Sur le Blog : ‘Philoscience’, à la date du 13/12/2014, J.P. Baquiast produit un article, ‘L’Univers est-il unique ? Ou non ? Et notre cerveau, quel est-il ?’, visant dans un premier temps à analyser des ouvrages récents et attrayants, écrits par : Aurélien Barrau, ‘Des univers multiples. A l’aube d’une nouvelle cosmologie’ ; Carlo Rovelli, ‘Et si le temps n’existait pas.’ ; Roberto Unger et Lee Smolin, ‘The Singular Universe and the Reality of Time’.

Voilà des auteurs que nous connaissons bien et dont le travail scientifique nous est familier. Ce qui m’intéresse, en particulier, c’est l’étonnement de J. P. Baquiast qui est exprimé par la longue citation suivante :

« Or nous avions dans des articles précédents fait remarquer que ces physiciens ne semblent pas encore, tout au moins dans leur grande majorité, tenter de mieux comprendre les limites de la capacité du cerveau humain à traiter de tels problèmes, cerveau s'exprimant au niveau de l'individu comme au plan global des communautés de chercheurs. Autant ils cherchent à perfectionner, grâce à l'expérimentation, les capacités de traitement des données sensorielles par le cerveau, autant ils ne semblent pas s'intéresser aux capacités de ce que l'on appellera pour simplifier le cerveau associatif, qu'il soit individuel ou collectif.

Il s'agit pourtant du premier instrument à prendre en considération, lorsqu'il s'agit, non pas seulement d'imaginer des hypothèses, mais de tenir compte d'une façon cohérente et communicable sur le mode langagier de toutes les données fournies par les sens et utilisées dans la mise à l'épreuve de ces hypothèses. Autrement dit, le perfectionnement des capacités du cerveau, qui est l'instrument essentiel dont se servent les scientifiques, ne semble pas préoccuper les cosmologistes.

Cela tient indiscutablement à des raisons culturelles, spécialisation des connaissances et manque d'interdisciplinarité. Le Pr MacFadden, auquel nous avons donné la parole dans un précédent article, déplore que les biologistes et les neurologues n'aient pas suffisamment de compétences relatives à la physique quantique pour détecter des phénomènes biologiques ou cérébraux dans lesquels interviennent des q.bits.

Il en est de même, et sur le mode inverse, des physiciens quantiques et des cosmologistes. Ils n'ont certainement pas assez de compétences fines sur le fonctionnement en profondeur des neurones, du cortex associatif et des grands modèles cognitifs collectifs à base de traitements neuronaux, pour mesurer les limites de ces « instruments biologiques de la cosmologie » et suggérer des améliorations.

Une hypothèse pessimiste serait qu'ils ne le pourront jamais, tant du moins que le cerveau restera lié à des bases biologiques qui sont à la fois mal connues, sinon inconnaissables, et non susceptibles d'amélioration car trop liées à l'organisation génétique et aux structures sociales propres à l'animal humain. »

De mon point de vue, beaucoup d’expressions de Baquiast sont maladroites et bien évidemment il ne faut pas poser le problème de la façon dont cela est proposé. Ainsi, il n’est pas sans risque d’isoler le cerveau comme s’il était une île. Je préfère prendre en compte le ‘Sujet Pensant’ dans son intégrité en ne perdant pas de vue le fait, certes, que le siège de la cogitation donc de la pensée est entre autre le cerveau et qu’il est possible maintenant d’associer à une dynamique d’organisation et de fonctionnement du cerveau une dynamique de production de pensées. Mais pas plus ! Les propos rapportés, de MacFadden, fleurent bon le mécanisme d’antan sous couvert d’un vocabulaire des temps modernes et à coup sûr ils ne peuvent pas constituer une voie de progrès de la connaissance pour l’être humain.

Ainsi l’expression de l’auteur : « … tenter de mieux comprendre les limites de la capacité du cerveau humain à traiter de tels problèmes » laisse pointer l’idée qu’actuellement nous sommes les représentants d’une humanité aboutie, qui n’évoluera plus et qui doit présentement considérer les ‘limites’de la capacité de son cerveau comme définitivement établies. Aveuglement ! Orgueil mal placé ! Certes du point de vue du physicien on pourrait considérer que la problématique des limites, de la capacité du cerveau, s’imposent car depuis plusieurs décennies nous sommes confrontés à des apories dans le domaine de la physique théorique fondamentale qui obstruent le développement cohérent et fertile de la pensée scientifique. Oui, notre entendement collectif ne peut percevoir d’autres horizons que ceux qui nous mènent aux incompatibilités, aux impasses  actuelles. Oui, il faut qu’émergent de nouveaux paradigmes pour que notre entendement collectif reprenne une marche vers l’avant à la conquête de nouveaux domaines de compréhension des lois de la nature. Nature, plus ample (voir le livre de A. Barrau), plus diverse, que ce que nos facultés de compréhension ont pu révéler jusqu’à présent à ce stade de notre évolution. Nature qui se trouve être présentement bornée par ce que nous désignons ‘Notre univers’.

Remettons les choses à leur place, les capacités de notre cerveau ne sont pas en cause, (on perçoit, là, les risques d’une conception instrumentale du cerveau), c’est dans le cadre de l’histoire de la production de la pensée scientifique du ‘sujet pensant’ qu’il faut comprendre la stagnation actuelle. Lorsque ces nouveaux paradigmes (peut-être déjà partiellement formulés) seront acceptés et intégrés dans le patrimoine de notre entendement scientifique collectif, alors bien sûr on aura l’impression d’avoir brisé des limites. Mais avec cette considération nous serons dans l’ordre d’une subjectivité bien placée. Il se peut que corrélativement à cette nouvelle situation de nouvelles connexions se soient établies dans notre cerveau, que notre base de données mémorielle se soit enrichie, mais l’auteur de cette progression c’est l’être humain pensant dans son intégralité qui doit être considéré comme toujours en devenir. Ce seront les facultés intellectuelles de dépassement qui auront été à l’œuvre.

Parmi ces nouveaux paradigmes qui peuvent être opératoires, j’ai évoqué les suivants dans un article, le 5/11/2014, et dans le titre : ‘l’espace et le temps ne sont pas donnés dans la nature, la lumière l’est.’ En ce qui concerne plus spécifiquement le temps : Carlo Rovelli maintient qu’au plan fondamental le temps n’existe pas, par contre c’est une donnée émergente. Au contraire, Lee Smolin a la conviction que le temps est donné dans la nature, il est une réalité de notre univers. Mon point de vue est que le temps est fondé par le sujet pensant, il est le corollaire de sa ‘Présence’.

On peut à juste titre considérer qu’il y a un accord partiel entre mon point de vue et celui de C. Rovelli, car fondamentalement il n’y a pas de temps, c’est pourquoi j’évoque régulièrement : « Au sein d’une éternité, parmi tous les possibles, l’anthrôpos creuse… », et c’est la ‘Présence’ d’une intelligence émergente qui fonde le temps pour qu’un ‘Logos’ sur la Nature puisse se développer. Et je considère que cette inhérence est indestructible. Rovelli, lui, considère que l’émergence d’une ‘impression du temps résulte d’un processus physique, c’est la thermodynamique qui est en jeu et plus spécifiquement l’évolution thermodynamique irréversible du fond diffus cosmologique.

D’un autre côté Lee Smolin a concomitamment affirmé sa réalité du temps en précisant dernièrement avec force dans : ‘Pour une renaissance du temps’, qu’il est essentiel de prendre en compte ‘toujours un moment présent’, à ce sujet voir mon article du 02/05/2013 : ‘Bienvenu au ‘Moment Présent’ de Lee Smolin’. En effet, Smolin est fortement convaincu de la nécessité de prendre en compte cette nouvelle donnée, précisant en même temps que ni le langage, ni les concepts mathématiques ne peuvent saisir la substance profonde de ce ‘moment présent’. Pour autant, dans le cadre de sa nouvelle certitude, il n’a pas encore mené une analyse critique pertinente de la conception Einsteinienne de l’espace et du temps, pourtant nécessaire, s’il veut avancer.

En résumé au sujet du temps, l’hypothèse de TpS (τs) = de l’ordre 10-25s (point aveugle de l’intelligence humaine et tic-tac primordial de la temporalisation du temps), que je formule depuis une dizaine d’années, y compris de ce qui s’en déduit de sa fondation par ‘l’être pensant’, pourrait constituer le juste milieu du point de vue de C. Rovelli, (émergence, mais source distincte) et de celui de L. Smolin, (effectivité du temps incontournable, mais pour moi pas de réalité naturelle, ‘moment présent’, mais pour moi quantifiable et quantifié). Voilà donc un paradigme qui pourrait prendre corps et s’installer dans le paysage de la pensée scientifique. A propos de l’espace, corrélativement, une synthèse est aussi évidemment plausible.

A propos de cette synthèse, maintenant identifions les obstacles. Le physicien est un intellectuel qui est convaincu d’accéder à une connaissance objective c’est-à-dire qu’il est compétent pour saisir d’une façon ou d’une autre la réalité, telle qu’elle est, des objets qui lui sont extérieurs. Le physicien, conçoit la puissance de sa pensée sur la conviction que de ces objets se trouve expurgée la moindre trace de l’action du sujet pensant pour se les approprier. E. Kant a relativisé cette capacité, mais fondamentalement ne l’a pas contrariée. D. Hume a suggéré un aveuglement empirique. A. Einstein a promu quasiment à son acmé l’affirmation de l’intellectuel universel sur le monde réel. N. Bohr et W. Heisenberg ont souvent démontré avec succès qu’il fallait temporiser ce réalisme acharné (voir encore l’article du 13/12/2014). Mais cette conception est profondément ancré : l’homme est un être émancipé de toutes contraintes de la nature, c’est pourquoi, il ne peut être que doué d’un regard absolument objectif, confirmé par la démonstration d’un regard invariant. Affirmer qu’il ne peut avoir qu’un regard intelligent déterminé par des capacités actuelles qui lui seraient propres, est inconcevable, c’est faire trébucher la croyance profonde du physicien de son piédestal. Affirmer que le physicien ne peut présentement discerner que ce qui est supportable par ses facultés intellectuelles et son entendement toujours en évolution, est antinomique (toutefois il faut reconnaître que A. Barrau entrouvre une porte). Voilà pourquoi, dans les extraordinaires joutes intellectuelles qui ont opposé A. Einstein et N. Bohr, les préalables réalistes d’Einstein n’ont jamais été sérieusement rejetés par la communauté des physiciens (de l’époque et actuelle) alors que N. Bohr a toujours apporté la preuve de leurs faussetés. Voilà pourquoi, par exemple, est continument entretenue la confusion d’une conception dualiste avec celle d’une conception propre à la complémentarité car il ne faut pas laisser entrevoir que cela pourrait être une détermination du sujet pensant qui fait que nous détections un objet sous son aspect ponctuel plutôt que sous son aspect ondulatoire et vice versa. Le ‘et’ dualiste est donc préventif pour les réalistes. L’inertie intellectuelle des réalistes est toujours à l’œuvre

Partager cet article
Repost0
13 décembre 2014 6 13 /12 /décembre /2014 14:04

Les 2 sites : Techno Sciences (le 2/12) et Futura Sciences (le 13/12) relatent avec plus ou moins de bonheur les résultats effectifs d’une expérience de pensée, datant de 1927, proposée par les tenants d’une interprétation radicalement opposée des ‘lois’ premières de la mécanique quantique. Une fois de plus, d’entre A. Einstein et N. Bohr, c’est l’interprétation de Bohr (dite de Copenhague) qui est juste.

On remarquera que les 2 auteurs des articles perpétuent une mésinterprétation de la conception de Bohr. En effet chacun d’eux argumentent sur la validité explicite ou implicite de la dualité onde-corpuscule sans la réfuter. Ce que justement N. Bohr a toujours réfuté, préférant cliver et considérer la complémentarité : « Les résultats obtenus dans des conditions expérimentales différentes ne peuvent être englobés en une seule représentation, mais doivent être considérés comme complémentaires (sic) en ce sens que, seule, la totalité des phénomènes épuise l’information possible sur les objets ». En résumé il n’y a pas simultanément : onde et corpuscule, comme le considère le dualisme onde-corpuscule (dont l’auteur est De Broglie) mais il est plus juste de considérer qu’il y a : onde ou corpuscule, la différence entre l’interprétation ondulatoire ou bien l’interprétation corpusculaire est directement corrélée à l’instrument de mesure. A ce moment-là, il faut continuer le raisonnement car : qui dit instrument de mesure, dit observateur. Fondamentalement l’interprétation de Copenhague pense toute la phénoménologie de la mécanique quantique en attribuant un rôle déterminant à l’observateur, à sa ‘Présence’. Non pas à sa petite ‘présence’ comme le préconise superficiellement les ‘Qubistes’ mais à sa grande. Voir mon article du 27/05/2014.

Enfin, ces articles que vous pouvez consulter sur les deux sites respectifs aux dates indiqués avec leurs titres, m’amènent à rappeler que l’expérience que je propose et que je rappelle dans l’article du 22/11 en page 4 est vraiment d’actualité sous réserve que l’imagerie cérébrale a atteint maintenant un bon degré de maturité pour la mettre en œuvre.

 

Physique

Posté par Isabelle le Mardi 02/12/2014 à 00:00

Expérience de pensée d'Einstein Bohr réalisée à l'échelle moléculaire

Dualité onde-corpuscule  Einstein  Bohr 


 

 

 

L'expérience d'Einstein-Bohr confirme la théorie quantique

 

En 1927, Einstein avait lancé un défi à l’interprétation orthodoxe de la mécanique quantique construite par Niels Bohr et Werner Heisenberg. L’expérience de pensée qu’il avait proposée a finalement été réalisée avec des molécules soumises aux rayons X disponibles au synchrotron Soleil. Elle confirme que la réponse donnée à l’époque par Niels Bohr était correcte, fournissant une nouvelle preuve de la cohérence de la mécanique quantique.

 

Le 12/12/2014 à 15:40 - Par Laurent Sacco, Futura-Sciences

 

 

 

Partager cet article
Repost0
22 novembre 2014 6 22 /11 /novembre /2014 05:41

Intrication

Au début du mois de Novembre ce fut l’occasion de célébrer les 50 ans de la découverte théorique de John Stewart Bell adepte d’une interprétation ‘Réaliste’ de la mécanique quantique comme A. Einstein. En effet le 4 novembre 1964, le journal ‘Physics’ recevait un article qui allait faire date dans l’histoire de la physique quantique.

Les idées de Bell ont été mises en pratique par Alain Aspect et ses collègues au moyen d’une expérience conduite à l’université d’Orsay en 1982. Les résultats de cette expérience ont eu un retentissement mondial (violation des inégalités de Bell). L’interprétation des fondateurs de la mécanique quantique, c’est-à-dire de l’’Ecole de Copenhague’, en est sortie renforcée. Depuis elle continue d’être justifiée et la croyance téméraire d’A. Einstein qui s’opposa sans relâche à cette interprétation en puisant ses idées dans une conception ‘Réaliste’ radicale du monde est battue en brèche.

Depuis les résultats d’A. Aspect, l'intrication quantique s’est largement imposée dans le paysage scientifique avec ses propriétés mais aussi, il faut bien le dire, elle véhicule dans son sillage un ensemble de questions qui sont autant de sujets de controverse, et qui ne risquent pas d’être résolus de sitôt, puisqu’aucune explication au sens classique du terme ne peut être proposée et ce n’est qu’au prix de ce renoncement que le phénomène de l’intrication doit être entendu[1]. Celui-ci met en évidence un champ nouveau d'applications potentielles dans les domaines de l'information quantique, tels que la cryptographie quantique, la téléportation quantique ou l'ordinateur quantique. Dans les domaines cités des exploitations technologiques banalisées sont déjà à l’œuvre notamment en cryptographie.

Tout récemment, début septembre, plusieurs articles ont révélé un résultat que l’on peut qualifier d’’imagerie quantique’[2]. Grâce aux propriétés de l’intrication on forme des images d’objets dans une bande de longueurs d’onde donnée bien qu'il n’existe pas d’instruments permettant de prendre réellement une photo de ces objets. Les physiciens pensent que cette technique d’imagerie quantique avec intrication de photons permettra d’avoir un jour des applications en biologie et en médecine.

Plus récemment encore le 11/11 un article annonce : ‘Intrication quantique : la conjecture de Peres est fausse’[3]. Conjecture qui aurait (eu) un impact en téléportation quantique. Cela nous dit que nous sommes dans un domaine de la physique fondamentale théorique qui n’est pas encore stabilisé.

D’autant moins stabilisé que l’interprétation de Copenhague, qui n’a jamais été mise en porte à faux, est toujours contestée explicitement ou implicitement. La dernière tentative explicite apparaît dans un article du 05/11, sur le site du ‘NewScientist[4] : « Des univers fantômes tuent le chat quantique de Schrödinger », relatant les cogitations de Howard Wiseman de l’Université de Griffith en Australie. Le leitmotiv de ce théoricien c’est qu’ « il n’est pas possible de penser la fonction d’onde comme une chose réelle (sic) ». Alors il pense que des univers fantômes sont présents, là, partageant avec Notre univers le même espace, chacun d’entre eux (un très grand nombre, mais un nombre fini) étant régi par les lois physiques classiques newtoniennes. Ces différents univers se bousculent et en conséquence dans Notre univers les propriétés quantiques apparaissent. Toutefois il y a un sérieux bémol, car avec cette vue de l’esprit il n’y a pas la possibilité d’expliquer l’intrication, mais… « Cela pourrait marcher si ces univers étaient en nombre infini. (sic) »

Rappelons-nous, et c’est essentiel, que les fondateurs de la mécanique quantique n’ont jamais prétendu que la fonction d’onde était quelque chose de réel, ni qu’elle représentait une réalité du monde physique investi par le physicien. D’ailleurs, c’est ce qu’on leur reprochait comme le relate W. Heisenberg au cours d’un entretien avec A. Einstein en 1925 : « Il me semble, me mit en garde Einstein, que votre pensée s’oriente maintenant dans une direction très dangereuse. Car tout d’un coup, vous vous mettez à parler de ce que l’on sait de la nature, et non pas de ce qu’elle fait effectivement. Mais dans les sciences, il ne peut s’agir que de mettre en évidence ce que la nature fait effectivement. » Certainement, Einstein avec beaucoup d’autres n’a jamais pu accepter que la fonction d’onde ne représente que le savoir que l’on a de l’état d’un système quantique et pas plus. A Côme, en septembre 1927, lors d’une conférence très pédagogique, N. Bohr a expliqué que les expériences et les mesures sont nécessairement faites avec des appareils de dimensions macroscopiques[5], en conséquence les observations des phénomènes atomiques et subatomiques entraînent une interaction avec l’instrument d’observation qui ne peut être négligée. « On ne peut par conséquent attribuer une réalité indépendante, au sens physique ordinaire de ce mot, ni aux phénomènes ni aux instruments d’observation. » La réalité physique est ramenée à nos rapports opérationnels avec elle, au-delà de laquelle la science n’a plus rien à connaître. Dans sa formulation même, la théorie quantique ne dit pas comment le monde est, mais comment il répond aux sollicitations. Les concepts physiques tirent leur seule légitimité de leur capacité à « couvrir la situation expérimentale. » Pour les ‘Réalistes’, avec A. Einstein comme chef de file, renoncer à décrire la réalité du monde physique était inacceptable, cela le fut aussi pour J. S. Bell et cela continue de l’être pour une grande majorité de physiciens (cela me semble être le cas pour Alain Aspect) que cela soit implicite ou explicite.

L’intrication implique que deux objets quantiques, à un certain moment, sont structurellement tellement imbriqués qu’il n’est plus possible de les distinguer. Ils ne constituent qu’un seul système quantique avec des propriétés qui lui sont propres. Cela veut dire qu’à ce moment-là on ne peut pas leur attribuer des coordonnées spatiales distinctives. Ils sont spatialement indiscernables et ils le resteront après coup quelle que soit leur évolution spatio-temporelle. Des expériences abouties ont permis de constater que l’intrication demeurée pour des photons séparés, par la suite, de plus de 200km. Si le système de bi photon présente un spin 0 au départ, la mesure du spin individuel de chacun d’entre eux donnera en somme toujours 0. Si la mesure de l’un donne : -1, l’autre donnera automatiquement et instantanément comme réponse à la mesure : +1 et vice versa. Evidemment aucun signal n’a pu être échangé entre les deux photons.

Le système de bi photon reste un système de bi photon bien que l’imbrication structurelle ne soit plus, au sens courant du terme, mais la propriété d’intrication, au sens physique du terme, demeure. Cette dernière décennie, des systèmes intriqués sophistiqués ont été élaborés et l’étude expérimentale de ses systèmes a toujours été probante.

Du point de vue du formalisme de la mécanique quantique cela s’exprime par le fait que la fonction d’onde qui représente le système quantique intriqué au départ ne peut par la suite être modifiée de telle façon que deux fonctions d’onde se déduisent de la première, pas plus que formellement l’objet 1 puisse se distinguer de l’objet 2. Donc après coup quand on fait une mesure sur un objet dont on sait qu’il est à 200km de l’autre, on ne sait pas, et on n’a pas les moyens de savoir, si on fait la mesure sur 1 ou sur 2.

C’est donc une faille dans les capacités de l’observateur qui est en cause. Disons plutôt, faille dans les capacités universelles et omniscientes qu’il s’attribue, alors que l’être pensant doit être considéré comme un être déterminé, comme je l’ai maintes fois présenté dans plusieurs de mes articles.

Selon mes critères l’intrication résulte d’une imbrication instantanée de deux objets quantiques. Elle se produit sur une durée inférieure à TpS : point aveugle de l’intelligence humaine, durée pendant laquelle le sujet pensant ne peut fonder les données spatiales attachées à chacun des 2 objets en question. Le sujet pensant ne peut intérioriser que le système lui apparaissant unique, et cela est irréversible.

La différence d’interprétation est nette. Pour la très grande majorité des physiciens il est considéré que ce sont les objets de la nature qui se comportent ainsi et l’énigme est d’une grande ampleur. De mon point de vue, l’intrication résulte des capacités cognitives déterminées du sujet pensant et elles conditionnent notre représentation de la situation.

 Grâce à la maturité des sciences cognitives et de l’imagerie cérébrales, ma conviction est : qu’il est possible maintenant de mettre en évidence cette durée aveugle de l’intelligence humaine et le processus de la fondation de l’espace du sujet pensant.[1]

L’expérience que je propose consiste à mettre en évidence des sollicitations cérébrales distinctes d’un observateur formé à la science physique placé devant un interféromètre dans lequel on fait circuler des objets quantiques. Cet interféromètre permettant soit de connaître à volonté le chemin suivi par les objets soit à volonté d’être dans l’ignorance du chemin suivi. L’idée serait de constater, selon mon hypothèse, que lorsqu’il y n’a pas de connaissance de la trajectoire spatio-temporelle possible des objets en question, alors c’est une zone distincte du cerveau qui s’active pour construire une représentation du phénomène physique conduisant à une image d’interférence. Zone distincte du cerveau de celle qui est activée lorsqu’il y a connaissance des trajectoires spatio-temporelles. Cette évaluation doit être aussi réalisée avec un observateur qui n’a pas une culture physique développée, notamment sur le phénomène ondulatoire.

Ensuite, au cas où cette expérience serait éclairante et probante, il serait alors fondé de réaliser une expérience mettant en jeu le phénomène de l’intrication et observer quelle est la zone du cerveau qui est activée par l’observateur du phénomène.

On commence à sérieusement comprendre que notre cerveau a des modalités de fonctionnement, c’est-à-dire qu’il est contraint par des processus qui résultent de l’assemblage de ses constituants, de leurs articulations et de leurs facultés de communication. Il est par définition un objet naturel, dont on peut dater les grandes étapes de son évolution, il est doué d’une grande ‘plasticité’, mais in fine ce qu’il produit n’est pas de l’ordre de la nature (n’appartient pas spécifiquement à la Nature, n’est pas réductible à des automatismes) mais absolument d’un autre ordre : celui de l‘humain. L’imagerie cérébrale est actuellement suffisamment développée et suffisamment précise pour qu’en toute rigueur il soit possible d’établir des relations de correspondance entre l’objet naturel et la production humaine de la pensée.

Stanislas Dehaene[2] a déjà remarqué le rôle primordial du : « Sens de l’espace et de celui du nombre (qui) sont des prédispositions si indispensables à la survie (sic) qu’elles sont attestées chez de nombreuses espèces : une série de recherches très récentes montrent que non seulement l’homme mais aussi d’autre primates, certains mammifères, des corvidés et même certains poissons disposent de compétences spatiales et numériques. Cela peut se comprendre : toutes les espèces animales ont besoin d’interagir avec un environnement structuré spatialement et numériquement. En 2009, deux équipes, celle de John O’Keefe à l’University College de Londres et celle de May-Britt et Edward Moser à l’université de Trondheim en Norvège ont montré que, dès la naissance, les bébés rats sont munis d’un système de navigation spatiale : celui-ci comprend des neurones sensibles à la position, qui disent où l’on est. Sans que l’on comprenne bien pourquoi, ce système anatomique qui se trouve dans l’hippocampe semble réutilisé chez l’homme pour la mémoire épisodique. » Là où S.D. indique ‘que l’on ne  comprend pas bien pourquoi‘ il est possible qu’il y ait des choses pas banales qui se produisent chez l’homme. Jusqu’où, présentement, peut-on tenter d’aller voir ?


[1] Voir, entre autres, article sur le blog du 27/08/2014 ainsi que l’article du 27/08/2012.

[2] Voir article du 26/10/2014



[1] Einstein a éprouvé la nécessité de rappeler que l’on ne doit pas introduire l’idée d’’action fantôme’.

[2] Par exemple voir sur le site de ‘Futura-Science’, le 03/09/2014 : « Photographier un objet avec une lumière… qui ne l’éclaire pas’

[3] Site ‘Techno-Science’.

[4] Présenté par Michael Slezak.

[5] Il en est ainsi, par exemple, de l’appareil de Stern et Gerlach qui servait à la mesure du moment cinétique d’objet macroscopique et moyennant des adaptations servit par la suite à la mesure du spin de particules élémentaires. Ce qui conduit à une confusion très importante car le terme ‘spin’ : tourner, est un vrai ‘faux ami’. Par exemple l’électron tournerait sur lui-même quel que soit l’axe de rotation que l’on choisirait !! C’est évidemment une représentationerronée. Il vaudrait mieux se dispenser de toute représentation, ce qui n’est pas simple car le mot spin est là et nous n’avons aucun terme de substitution.

Partager cet article
Repost0
5 novembre 2014 3 05 /11 /novembre /2014 06:33

L’espace et le temps ne sont pas donnés dans la nature, la lumière l’est.

Les différents articles que j’ai postés depuis, entre autres, le 27/08/2014, ne sont pas des articles à caractère épistémologique (science dont je ne comprends pas vraiment les frontières), mais mon objectif est bien de proposer un ou des nouveaux paradigmes pour dépasser les apories de la physique d’aujourd’hui.

En résumé des articles précédents, l’espace que nous nous représentons et le temps ne sont pas donnés dans la nature, ils sont le fruit d’opérations de fondations, nécessaires et vitales, de la part de l’être pensant. Par contre la lumière est donnée dans la nature de Notre univers. Notre univers : puisque certainement il est le fruit de nos cogitations toujours en évolution, sans que nous puissions être assurés que nous le révélions suivant une réalité établie. La description rationnelle de la lumière à laquelle nous nous référons dans tous les ouvrages scientifiques est un aboutissement remarquable mais n’atteint pas sa nature réelle et complète. L’exploitation des équations relatives à sa propagation à base d’espace et de temps masque sa véritable nature et l’attribution d’une vitesse de propagation : C, dans le vide, résulte d’une opération d’extrapolation qui n’est pas appropriée en ce qui la concerne. Je considère qu’avec la valeur de C nous sommes dans la même situation qu’avec la valeur de T = 0°K, à partir de la description actuelle de notre monde nous pouvons nous en approcher mais ne jamais l’atteindre. 0°K est une valeur horizon, identiquement : C devrait être considérée comme une valeur horizon.

A partir de ce constat, il s’agit de jeter les bases d’une autre description du monde naturel. Ces bases nécessairement doivent être accessibles aux outils mathématiques existants quitte à devoir en proposer de nouveaux. Pour des raisons probablement différentes, certaines tentatives signifcatives ont déjà été projetées. Par exemple, si je comprends bien le livre de S. Hawking et R. Penrose : ‘La Nature de l’Espace et du Temps’, (livre globalement décevant puisqu’il n’atteint pas le but assigné dans le titre), édit., Gallimard, 1997, la tentative de Penrose d’opérer dans, ‘l’espace des twistors’ relève du projet de faire de la physique autrement (ailleurs) que dans l’espace-temps ordinaire.

P.30, commentaire, dans le livre, de Marc Lachièze-Rey : « On sait par ailleurs que, en relativité, on peut considérer l’espace-temps comme tissé par l’ensemble de ses géodésiques. On peut alors comprendre que Penrose propose de considérer comme objet fondamental de sa théorie, non pas l’ensemble des événements susceptibles de se produire (c’est-à-dire l’espace-temps), mais plutôt l’ensemble des trajets possibles des rayons lumineux. De cette façon, l’espace-temps apparaît comme un concept secondaire (sic) et l’espace des twistors – initialement l’espace des rayons lumineux – comme l’espace le plus fondamental (sic). Ces deux espaces sont liés par une correspondance où les rayons lumineux dans l’espace-temps sont représentés par des points dans l’espace des twistors. Il est possible d’étudier les propriétés mathématiques (dont certaines sont voisines de celles des sphères) de cet ensemble et de le considérer comme un espace géométrique. C’est « l’espace des twistors », et Penrose propose de faire de la physique dans cet espace plutôt que dans l’espace-temps ordinaire. »… « Tout cela n’a que peu de rapport avec la physique quantique (sic) jusqu’à ce que Hawking introduise une « fonction d’onde des twistors ». Les développements deviennent alors très techniques mais ils permettent à Penrose de revenir à son propos initial. Il montre qu’il devient possible de séparer les fréquences positives et négatives d’un champ, ce qui permet de faire véritablement de la physique quantique dans l’espace des twistors. L’intérêt en demeure toutefois relativement obscur (sic). Cela permet, soutient Penrose, une nouvelle approche de la théorie quantique des champs, où les problèmes d’infinis pourraient se régler plus facilement. Mais pour les détails, il laisse le lecteur sur sa faim. » … P.31 : « Pour le moment, il semble que l’on puisse considérer la théorie des twistors de deux manières. D’une part un outil géométrique puissant mais complexe (que très peu de physiciens savent maîtriser), permettant d’aborder et de comprendre certains problèmes de physique quantique ou de relativité, ou même à la frontière. D’autre part, il se pourrait que cet outil offre une piste intéressante pour la mise en place d’une théorie des twistors qui pourrait être extrêmement puissante. Cette piste se place alors en concurrence avec d’autres approches aux ambitions synthétisantes, faisant en général également intervenir une géométrie complexe. On peut citer, par exemple, les théories des cordes, la supersymétrie, la gravitation quantique, la géométrie non commutative, etc. Toutes ces théories, ou ébauches de théories, se placent sur des plans différents, avec parfois, cependant, quelques points communs. »

Comme toujours avec Penrose, les développements géométriques de ses hypothèses prennent rapidement le pas sur des considérations proprement physiques ainsi que sur des perspectives physiques[1]. Quand on lui demande : « Où apparaît explicitement le spectre des particules dans la théorie des twistors ? » Il répond : « Je ne sais pas comment le spectre des particules va pouvoir émerger… Pour ma part, je pense que tant que nous ne comprendrons pas la relativité générale en termes de twistors, nous serons incapables de résoudre ce problème, car les masses sont étroitement liées à la relativité générale. »

Dans sa théorie des twistors, il reprend à son compte la conception du photon traditionnelle avec la même formule de la quantité de mouvement, de l’hélicité, de l’énergie. Pour lui, implicitement, la vitesse C : est une grandeur physique ayant une valeur parfaitement établie.

Or si l’on en croit Wikipédia : « Historiquement, la permittivité du vide ε0a été introduite en électrostatique dans la loi de Coulomb, alors que la constante magnétique μ0a été introduite en magnétostatique dans le théorème d'Ampère. Les équations établies par Maxwell ont fait apparaître une vitesse de propagation des ondes électromagnétiques c=1/√ε0μ0

Aujourd'hui on inverse cette formule en postulant constante la vitesse c des ondes électromagnétiques (vitesse de la lumière). Dans le système international d'unités, on définit le mètre en imposant c = 299 792 458 m·s−1 et on définit l'ampère en imposant μ0 = 4 π 10-7 kg·m·A-2·s-2. La constante électrique est alors définie par ε0=1/μ0c2≈8,85418782×10−12kg−1·m−3·A2·s4. Une unité dérivée équivalente et usuelle est le F·m−1. On approche aussi souvent ε0 au millième prêt par (1/36π).10-9 F/m. »

Dans ce texte de Wikipédia, l’usage des verbes postuler et imposer au participe présent est troublant et je ne sais pas si leur usage est totalement justifié. Ce qui est certain c’est que la valeur de C est totalement dépendante de la valeur de Π

Π[2]est un nombre transcendant cela implique qu’aucune définition finie de π ne peut être donnée en termes d’opérations arithmétiques élémentaires (somme, différence, produit, quotient et extraction de racines). Pour atteindre π, il faut nécessairement combiner une infinité d’opérations, ou faire un passage à la limite, ce qui revient au même. Π n’est pas finiment définissable, il en est de même de la valeur de C.

Historiquement π émerge d’un problème purement géométrique (quadrature du cercle : il y a plus de 2000 ans). En physique ce nombre apparaît pour l’essentiel d’une prise en compte du principe de la conservation du flux de champs à travers une surface et la plus évidente est celle d’une sphère.

Einstein est passé par des équations analogues aux équations de Laplace et de Poisson pour établir finalement son équation de la Relativité Générale et immanquablement, avec le terme de densité de matière et d’énergie, il embarque dans son résultat canonique le terme π.

La géométrisation de la physique entraîne immanquablement que le nombre π soit dans un très grand nombre d’équations de la physique. Qu’en serait-il donc de la valeur de C dans un espace où le problème de la quadrature du cercle ne se poserait pas ?

Si π était une constante physique, et que l’on cherchait à en améliorer la connaissance uniquement pour faire de la physique, ces difficultés seraient fondamentales et ne pourraient pas être négligées. En fait, π est un nombre qui provient de notre univers géométrique. De là, certains  mathématiciens n’hésitent pas à franchir le pas suivant : « Explorer π, c’est comme explorer l’Univers… », propos tenus par dit David Chudnovsky et complétés par son frère Grégory : «… ou plutôt explorer le monde sous-marin, car nous sommes dans la vase et tout semble sans forme. Nous avons besoin d’une lampe, et notre ordinateur est cette lampe… » (Ces deux frères ont calculé π avec un milliard de décimales en 1989)

D’un point de vue expérimental, en physique, il n’est pas possible de constater la conversion de matière chargée en énergie de rayonnement suivant l’égalité E = mc2 car C, est inaccessible parce que la perte d’énergie radiative est telle que l’on peut se rapprocher de C mais ne jamais pouvoir l’atteindre. C’est comme si on avait à faire à un phénomène physique ‘transcendant’. Voir par exemple dans le L.H.C, (à 7 TeV, les protons se déplacent à la vitesse de 0.999999991 x C), et ce que l’on prévoit dans le futur. La désintégration des particules de matière élémentaires en photons dans les détecteurs ne peut être évaluée qu’en termes de section efficace donc en termes de probabilités. Il en est de même du processus inverse de la matérialisation du photon en couple particule-antiparticule. Il n’y aurait que l’hypothétique axion qui de particule élémentaire (matière noire) se convertirait en photon moyennant l’intervention d’un champ magnétique. Lorsqu’il s’agit de la nucléosynthèse ou de la fusion thermonucléaire les interactions élémentaires sont en cause et elles interviennent dans le bilan énergétique. Idem pour la fission.

 



[1] Ce n’est pas par défaut que R. Penrose procède ainsi mais c’est par conviction : « Il croit qu’il convient de concevoir le monde physique comme émergeant d’un monde des mathématiques, lui-même intemporel. » ; « L’un des caractères les plus remarquables du cosmos est la manière dont il semble s’enraciner dans les mathématiques, avec une précision extrême. A mesure que s’accroît notre compréhension du monde physique et que nous pénétrons les lois de la nature plus profondément, il semble que le monde physique s’évapore davantage, pour ne presque plus nous laisser que des mathématiques. », in : ‘Les deux infinis et L’esprit humain’, 1997, édit. Flammarion, P.18.

[2] A propos du transcendant nombre π, j’ai pris comme source le livre de Jean-Paul Delahaye : ‘Le fascinant nombre π’, édit. Belin, 1997.

Partager cet article
Repost0
26 octobre 2014 7 26 /10 /octobre /2014 05:44

              Est-ce que tous les chambardements sont possibles ?

Dans l’article interview de S. Dehaene dans la revue de ‘La Recherche’, de Février 2011, on peut lire :

Question : Pour quelles autres compétences existe-t-il des prédispositions de base qui se traduisent par des spécialisations cérébrales ?

S.D. : « Le sens de l’espace et celui du nombre sont des prédispositions si indispensables à la survie (sic) qu’elles sont attestées chez de nombreuses espèces : une série de recherches très récentes montrent que non seulement l’homme mais aussi d’autre primates, certains mammifères, des corvidés et même certains poissons disposent de compétences spatiales et numériques. Cela peut se comprendre : toutes les espèces animales ont besoin d’interagir avec un environnement structuré spatialement et numériquement. En 2009, deux équipes, celle de John O’Keefe à l’University College de Londres et celle de May-Britt et Edward Moser à l’université de Trondheim en Norvège ont montré que, dès la naissance, les bébés rats sont munis d’un système de navigation spatiale : celui-ci comprend des neurones sensibles à la position, qui disent où l’on est. Sans que l’on comprenne bien pourquoi, ce système anatomique qui se trouve dans l’hippocampe semble réutilisé chez l’homme pour la mémoire épisodique. »

Dans le livre : ‘Kant sans kantisme’ de Gérard Lebrun, Fayard, 2009, il y a l’étude suivante : ‘Le rôle de l’espace dans l’élaboration de la pensée kantienne’. P.54, G. Lebrun indique : « Il y a un moment où Kant, après avoir tenté dans sa jeunesse de concilier deux images du monde (celle de Leibnitz et celle Newton), ose reconnaître que toute tentative de conciliation est vaine, et qu’il s’agit moins de concilier que de comprendre pourquoi la conciliation est impossible…  Et Kant précise : « La conciliation entre le monde métaphysique de Leibnitz et les exigences des sciences exactes est impossible. » Un exemple emblématique : « Selon Leibnitz, l’espace, qui nous apparaît comme une extension divisible et mesurable, est en réalité seulement un ordre intellectuel, l’ensemble des relations instituées par Dieu entre les monades. L’espace n’est rien sans les choses, si ce n’est la possibilité de les mettre. L’espace disparaîtrait donc entièrement quand on supprime les choses et serait seulement pensable dans les réalités actuelles. » S’il en est ainsi, l’espace euclidien est un concept issu de l’expérience perceptive, et les axiomes géométriques ne sont rien de plus que des constructions inductives, de sorte qu’il faut dire : « Nous n’avons jamais découvert jusqu’à présent un espace enfermé par deux droites. », et non : « Deux droites ne peuvent contenir un espace. » Si Leibnitz a raison, la géométrie euclidienne n’est pas une science universelle et nécessaire, mais une sorte de physique intuitive. Si Leibnitz a raison, les notions géométriques ne sont pas extraites de la vraie nature de l’espace, mais forgées arbitrairement – opinion contre laquelle Kant s’insurgeait depuis 1763. Kant à cette époque admettait un espace absolu « indépendant de l’existence de toute matière ». Comme à propos du temps il était un adepte de la conception newtonienne.

 P.56 : Pour Leibnitz, l’étendue, c’est-à-dire l’espace continu des géomètres, est un « phénomène » (au sens péjoratif d’« apparence »). Toute la continuité est une chose « idéale » Et l’espace quantitatif et mesurable n’est qu’une imagination bien fondée (dès lors que la distance spatiale traduit une relation qualitative d’ordre entre les substances) mais, enfin et surtout, une imagination.

Ernst Mach (1836-1916) a relayé à son époque d’activités scientifique et philosophique le point de vue de Leibnitz donc le rejet de l’espace absolu et du temps absolu. Il est même certain que, grâce à son travail critique sur la conception newtonienne de l’espace et du temps, il a contribué à l’émergence des lois de la relativité. A. Einstein a toujours prétendu qu’il avait trouvé chez ce penseur la source de ses intuitions fondamentales qui le mèneront à la formulation de la relativité générale.

Il n’en reste pas moins que réalité ou irréalité du temps et de l’espace est toujours aujourd’hui un sujet de controverses fondamentales, perpétuelles, entre les physiciens.

Dans mon article du 27/08/2014 : ‘Un authentique Big Bang ; Fracturer le masque parfait de la R.R.’, je mets en avant la thèse que l’intelligence primordiale au tout début de la lignée du genre humain a assuré pour des raisons vitales une appropriation-réduction de la notion d’espace parmi toutes les possibilités offerte par la Nature. Il se trouve, et j’en suis fort heureux, que S. Dehaene nous révèle qu’ainsi notre cerveau fonctionne : « …notre cerveau continue de s’interroger, inconsciemment, sur toutes les possibilités et se prépare à changer d’avis à tout instant. Pourtant, consciemment, nous ne percevons qu’un seul échantillon parmi toutes les possibilités… ». Voir son livre ‘Le code de la conscience’ d’octobre 2014, O. Jacob, voir mon article du 14/10.

Selon ma thèse l’espace comme le temps d’ailleurs sont fondés par l’être pensant par une opération de sélection-réduction de toutes les possibilités offertes par la Nature. Le référentiel original, primordial, est évidemment, depuis, à jamais perdu. Dans l’article du 27/08/2014, j’ai tenté d’appréhender les conséquences que cela pouvait avoir sur la grandeur physique de premier ordre c’est-à-dire : C, en ces termes : « La vitesse C, nous est utile, elle témoigne de notre capacité actuelle d’investissement intellectuel des propriétés de la Nature et tout ce qui lui est corrélée, elle marque en fait une frontière, un horizon, de ce que nous pouvons savoir de la nature, de Notre univers. En fait peut-être que ce que nous appelons la lumière n’a pas de vitesse du tout et, finalement, c’est une façon erronée de l’identifier ! Et si mobilité de la lumière, il y a, elle devrait être appréciée qualitativement d’une façon différente. »

Avec C, ses propriétés, ainsi que toutes les contraintes qui de fait s’imposent en tant que contraintes finales, indépassables, (par exemple : nous ne sommes pas capables de penser à de la matière qui n’obéisse pas à E = mc2), peut être que nous sommes confrontés aux limites de l’exploitation du caractère spécifique du concept d’espace résultant de la sélection-réduction de l’intelligence primordiale.

La lumière est dans la Nature, elle nous détermine, elle est inscrite dans ce que je désigne notre part d’’Être de la Nature’, en conséquence à son propos les voies de l’’Idéalisme Transcendantal[1]’ ne peuvent valoir. Elle est un constituant fondamental de cette Nature de Notre univers que nous décryptons et à ce titre elle ne peut pas être pleinement décrite par des grandeurs qui auraient leurs fondements en dehors de sa propre nature. Ceci vaut tout autant que nous considérions, d’une part, que l’espace et le temps soient donnés dans la Nature (comme cela est explicitement considéré par l’hyper majorité des physiciens) ou, d’autre part, qu’ils soient fondés, comme je le propose, par le sujet pensant[2]. En ne sachant considérer la lumière qu’aux moyens de l’espace et du temps nous ne saisissons dans le filet de notre intelligence qu’un ersatz de ce que serait naturellement la lumière[3].

Dans l’article du 27/08, j’ai entrepris, à partir de la conception ‘traditionnelle’ de la lumière, un processus de déconstruction de notre façon d’interpréter les propriétés physiques de Notre univers. Immédiatement, on pourra me dire que rejeter l’idée qu’il soit attribué une vitesse à la lumière et qu’elle soit quantifiée par C est absurde. Tout le monde admet que le rayonnement émis par notre astre met de l’ordre de 8 minutes pour nous parvenir. Je peux répliquer : oui, peut-être, mais par quel moyen avons-nous déterminé la distance entre la terre et le soleil ? Quand faisons de la physique sans exploiter directement ou indirectement la lumière comme intermédiaire ? Nous sommes peut-être à ce propos dans la situation de la poule et de l’œuf. Serge Haroche, le rappelle : « L’essentiel de l’information que nous recevons du monde vient de la lumière. » En résumé, je propose de considérer que la lumière est dans la Nature de l’univers dans lequel nous sommes centrés alors que l’espace et le temps n’y sont pas car ce sont des outils fondés par nous-mêmes.

Si on prend en compte le principe de complémentarité et les expériences qui le mettent en évidence : lorsque dans l’interféromètre nous avons des informations spatio-temporelles sur la trajectoire de l’objet matériel ou immatériel qui le parcourt, l’apparaître matériel ou ponctuel de l’objet s’impose. Lorsque nous n’avons aucune information spatio-temporelle sur la trajectoire effective, l’apparaître ondulatoire s’impose. La lumière étant l’archétype de la représentation ondulatoire on constate que ce mode est autonome vis-à-vis d’un savoir spatio-temporel le concernant. Fondamentalement le mode ondulatoire de la lumière ne véhicule aucune information spatio-temporelle, c’est le physicien qui projette cette information pour les besoins de la cause qui sont ceux, entre autres, du traitement mathématique actuel et ceux de l’échange intersubjectif.

La propriété basique qui conduit à la Relativité Restreinte : c’est la non-additivité à la vitesse de la lumière (telle que nous la concevons et la formulons) de toute autre vitesse d’objet effectivement mesurable par le ‘sujet pensant’ sous la forme habituelle : Δl/Δt. Durant notre scolarité élémentaire, parfois en recevant un coup de règle sur les doigts, on a tous entendu dire : « On ne peut pas additionner des choux et des carottes. »

Je n’ai pas particulièrement envie de donner raison à S. Hawking mais si de facto c’est par une extrapolation abusive et illégitime que nous attribuons la vitesse, finie, C de déplacement à la lumière alors, effectivement, l’horizon du trou noir n’a plus de raison d’être. Mais on ne sait toujours pas clairement, pourquoi, au début de cette année, S. Hawking a changé de pied sur ce sujet.

Si ma thèse a un début de validité, on devine les potentialités de révisions profondes de la genèse de notre univers. Le rayonnement fossile, tel que nous le décrivons, n’est plus le substrat de l’histoire de cette genèse que l’on croyait aussi sûr, l’hypothèse de la matière noire pourrait ne plus devoir s’imposer et celle de l’énergie sombre non plus, etc…, etc…

 



[1]Transcendantal : hors de toute détermination empirique.

[2]La citation de l’interview de S. Dehaene, au début de l’article, est très importante pour conforter ma thèse, toutefois je me dois d’être respectueux du travail de l’auteur qui évoque des prédispositions si indispensables (sic)de compétences spatiales et numériques. Et ce sont ces prédispositions qui, selon moi, sont évidemment les préalables pour qu’émergent des dispositions à fonder chez l’homme, uniquement chez l’homme, l’espace et le temps. Cette fondation passe par une intériorisation. C’est évidemment cette aptitude qui le différencie des autres primates, mammifères, etc… Fondation, au sens de processus d’une saisie nécessaire par une conscience (probablement) embryonnaire, de l’espace et du temps, et qui est concomitante à la naissance de l’homme. On pourrait donc parler d’un processus biunivoque de fondation.

[3]C’est-à-dire qu’il faut aller plus loin que Maxwell pour atteindre plus complètement les propriétés quantitatives et qualitatives de la lumière.

Partager cet article
Repost0
14 octobre 2014 2 14 /10 /octobre /2014 08:03

 

 

 

        

                                        Stanislas Dehaene : suite.

On peut considérer que la publication du livre de S. Dehaene est pour nous un bel événement. En conséquence j’en profite pour prolonger l’exploitation de la matière de ce livre en rapport avec l’ensemble des sujets qui nous préoccupent depuis plusieurs années.

p. 133, paragraphe : Statistiques inconscientes, échantillonnage conscient 

Selon S. Dehaene, globalement comment ça fonctionne ? :

« Ma vision de la conscience suggère une répartition naturelle du travail. Dans les profondeurs de l’inconscient, une armée de travailleurs souterrains effectue un énorme travail de fond : tous traitent des monceaux de données. Pendant ce temps, au sommet, un petit groupe distingué d’administrateurs de haut niveau, sur la base d’un condensé de la situation, réfléchit aux décisions conscientes avec toute la pondération nécessaire. »

En conséquence : « Notre conscience, par contre, ne nous donne qu’un aperçu très réduit de cet univers probabiliste – ce que les statisticiens appellent un « échantillon » de la distribution des possibles (sic). La conscience n’hésite pas à simplifier les choses : elle résume le monde à sa plus simple expression, un aperçu suffisamment condensé pour être utilisable par nos systèmes de prise de décision. »

P.136 : « Une armée de processeurs inconscients évalue toutes les possibilités, mais notre conscience n’en reçoit que la synthèse. »

P.138 : « Ce que nous voyons à un instant donné est donc, le plus souvent, l’interprétation la plus probable, mais d’autres possibilités font irruption dans notre conscience, avec une durée proportionnelle à leur vraisemblance. L’inconscient calcule toutes les probabilités, tandis que la conscience les échantillonne au hasard. »

Ce que nous signifie S. Dehaene c’est comment le sujet pensant fonde ses vérités qui sont le fruit de l’interprétation la plus probable. En conséquence, il vaut la peine de s’interroger sur la problématique de la vraisemblance. Il est implicitement indiqué que les autres possibilités ont des vraisemblances relatives. Comment s’établit cette hiérarchie ? Est-ce que ce sont des vraisemblances qui sont établies par notre entendement pur inhérent au sujet pensant ? A priori la réponse ne peut être que négative. Par contre la vraisemblance a toutes les chances de s’établir sur des acquis empiriques en fonction de l’expérience, de l’éducation, de la culture, des préoccupations du ‘sujet pensant’. Ce qui serait intéressant de comprendre, c’est comment la référence au vraisemblable peut évoluer. C’est-à-dire que, ce qui n’était pas vraisemblable, ou peu, pour la conscience, avant, le devient un peu plus, voire plus, après coup[1].

Je veux illustrer mon propos avec l’exemple suivant qui me touche directement. J’ai créé mon blog il y a maintenant 3 ans avec l’idée principale que E = mc2, n’est pas la panacée et que la constante C : ‘vitesse’ de la lumière n’est universelle que dans la contrée de notre capacité de penser actuelle. Depuis, j’ai toujours eu comme retour que ces hypothèses étaient invraisemblables, gratuites, sauf que depuis quelques mois ces hypothèses deviennent formulables. Pas plus tard que ce matin (le 10/10/2014), je peux lire dans l’annonce d’un colloque (qui aura lieu 3 jours plus tard) : « Existe-t-il des interactions se propageant plus vite que la lumière ? » Qui est-ce qui fait qu’au sein de la communauté des physiciens cela devienne maintenant, pour quelques un, moins invraisemblable de penser : plus vite que C ? Toujours est-il que selon moi, ce n’est pas ainsi qu’il faut aborder ce sujet. Comme je l’ai proposé dans l’article : « Un authentique Big-Bang ; Fracturer le masque parfait de la Relativité Restreinte. », du 27/08/2014, il faut questionner les conditions de possibilités de l’anthrôpos de transcender les déterminations qui sont actuellement les nôtres à propos de l’exploitation de l’espace et du temps car comme je l’indiquai, p.1 : «Il en est de même pour les autres grandeurs qui vont suivre dans l’article. Ce qu’il faut retenir c’est que toutes les grandeurs qui sont appropriées par l’intelligence primordiale et dont la référence première est offerte par la Nature, ne le sont que par un processus de réduction vis-à-vis de toutes les possibilités (sic) qui sont offertes par cette Nature. »  Merci S. Dehaene d’apporter de l’eau à mon moulin.

Dans ‘Le code de la conscience’, il y a un sujet, dans le chapitre 4, aussi très intéressant qui est traité : ‘Chronométrer l’accès à la conscience’, et : ‘La conscience en retard sur le monde’. Selon les personnes, il faut entre 1/3 et 1/2 seconde pour prendre conscience d’un évènement. P.177 : « Une conséquence importante de ces découvertes est que notre conscience est en retard sur les événements. Non seulement nous ne percevons qu’une toute petite fraction des signaux qui bombardent nos sens, mais quand nous y parvenons, c’est avec un délai important. A ce titre, notre cerveau ressemble à un astronome qui recueille la lumière des étoiles : parce que la vitesse de la lumière n’est pas infinie, la nouvelle de l’explosion d’une supernova ne lui parvient que des millions d’années après qu’elle a eu lieu. De même, parce que notre cerveau accumule les données avec lenteur, ce que nous jugeons comme le « temps présent » de la conscience reste à la traîne de la réalité physique. La prétendue « vitesse de la pensée » n’a rien d’extraordinaire : notre cerveau est tellement plus lent qu’un ordinateur qu’il lui faut au moins un tiers de seconde pour réagir consciemment. Bien souvent, cette durée s’allonge lorsque l’entrée sensorielle est si faible que le cerveau doit accumuler de nombreuses données avant de franchir le seuil de la prise de conscience (cette situation est semblable à celle de l’astronome qui prolonge l’exposition pendant plusieurs minutes afin de photographier la lumière des étoiles les plus faibles)… « Nous sommes tous aveugles aux limites de notre attention et nous n’avons aucune conscience que notre perception subjective est en retard sur le monde extérieur… »  

Depuis de nombreuse années, j’ai formulé et développé l’hypothèse de τs (Temps propre du Sujet : TpS) apprécié avec un ordre de grandeur de 10-25seconde et je le qualifie de point aveugle de l’intelligence humaine. Est-ce que j’ai le droit d’envisager une convergence entre le point aveugle de la conscience et le point aveugle de l’intelligence ? Evidemment cela ne se peut directement, la conscience et l’intelligence sont deux instances très distinctes. A priori aucun pont de correspondance ne peut être établi entre ces deux moments aveugles du sujet pensant. Ce sont deux déterminations qui n’ont pas les mêmes conséquences. La période aveugle de la conscience n’est certainement pas un obstacle pour l’être pensant dans sa quête de connaissance et de compréhension du monde, ses conséquences sont effaçables (S. Dehaene, cite des exemples p. 178 – 180). La période aveugle de la conscience s’impose pour des raisons fonctionnelles. Le fonctionnement de notre cerveau, tel que nous le connaissons aujourd’hui met en relief ce que sont ses contraintes. Je fais l’hypothèse du point aveugle de l’intelligence humaine, TpS, pour des raisons existentielles. C’est un intervalle de temps inexpugnable (il pourrait rendre compte : du pourquoi de l’intrication), ses conséquences ne sont pas effaçables, donc il n’est pas possible de penser qu’il puisse y avoir un rapport d’homothétie entre ces deux moments aveugles. Toutefois pas de potentialité de conscience = pas d’intelligence, dans cette situation c’est l’instinctuel qui constitue la référence.

A l’origine de l’hypothèse TpS, je fais référence à une durée (insécable) de retrait, une durée de renouvellement, de réinitialisation (de son unité dans le monde), de l’être pensant. C’est pour cette même raison que S. D. a identifié une durée aveugle de la conscience, cela correspond à la nécessité d’une réinitialisation de l’activité de la conscience occupée par la situation précédente. Il y a là, une contrainte commune identifiée que j’ai expliquée pour une part, à propos de TpS, comme une condition de la mobilité de la pensée et partant du langage et d’autre part le moment aveugle de la conscience mis en évidence par S. Dehaene s’explique comme une nécessité de recouvrer une disponibilité de la conscience.

A des niveaux très distincts, ces deux atavismes ont une fonction de réinitialisation, de régénérescence, de l’être pensant dans un cas et du cerveau de l’être pensant dans l’autre cas. Je m’appesantis sur cette similitude, parce qu’il me semble que ce sera très difficile voire impossible d’accéder à l’identification directe de τs par contre il sera peut être possible, sans chercher à établir un rapport d’homothétie, de valider l’hypothèse de τs, comme une hypothèse légitime voire souhaitable, sur la base de résultats relais, de concepts relais, identifiables, permettant ainsi de concevoir une représentation cohérente des modalités et des capacités d’investissement du ‘sujet pensant’ dans la dynamique de sa quête irrépressible de la connaissance du monde. 

Si le point aveugle de la conscience est à coup sûr une détermination du sujet pensant, il ne semble pas qu’il soit un obstacle rédhibitoire dans sa quête de la connaissance du monde, par contre à l’évidence TpS est un déterminant aux conséquences rédhibitoires. A nouveau, je propose d’exploiter un résultat expérimental décrit dans le ‘Code de la Conscience’, p.136, « Si vous regardez un bâton par le trou d’une serrure, vous ne parvenez pas à déterminer comment il bouge, car une infinité de mouvements réels sont compatibles avec le mouvement observé. Chaque neurone de l’aire MT/V5 est soumis à cette ambiguïté fondamentale – et pourtant nous n’en avons pas conscience. Même dans les pires circonstances, nous ne percevons qu’un mouvement particulier, mais jamais un ensemble de probabilités. Notre cerveau prend une décision et nous donne à voir l’interprétation qu’il juge la plus probable. En l’occurrence, c’est celle qui minimise le déplacement : nous voyons le bâton se mouvoir dans une direction perpendiculaire à lui-même. Une armée de processeurs inconscients évalue toutes les possibilités, mais notre conscience n’en conçoit que la synthèse. »

Réfléchissons car ce résultat n’est pas banal. Premièrement et comme par ‘hasard’ le cerveau qui prend la décision sur l’interprétation de cette expérience opte pour le déplacement minimum. Ceci est vraiment en phase avec le principe de moindre action tel qu’il fut énoncé par Pierre Louis Moreau de Maupertuis, en 1744. S. Dehaene dit : « Notre cerveau » ; je reprends : « Le cerveau », parce qu’il me semble important de distinguer les cerveaux imprégnés intellectuellement de ce principe de moindre action de ceux qui ne le sont pas du tout. Si le résultat est le même dans ces deux cas de figure, alors S. D. a raison, on peut dire « Notre cerveau » et dans ce cas nous avons à faire à une détermination du sujet pensant dont il faut comprendre son origine, sinon il faut faire la distinction expérimentale, comprenant des observateurs ayant, d’un côté, et n’ayant pas, d’un autre côté, la connaissance du principe de Maupertuis.

Revenons sur les conditions de l’expérience ci-dessus : on regarde par le trou d’une serrure, c’est-à-dire qu’on regarde dans les limites d’une distance spatiale imposée et en conséquence on ne peut pas décrire le mouvement réel du bâton, mais simplement donner une description de ce mouvement tel qu’il nous apparaît. Nous n’avons pas accès à la réalité du mouvement mais un collectif d’observateurs homogène sur le plan intellectuel peut concevoir et partager une vérité fondée sur l’apparaître du mouvement et le penser avec force comme étant le mouvement réel.

Maintenant, je propose de reprendre l’idée de cette expérience mais les limites de l’observation sont celles d’une distance temporelle et c’est τs. Eh bien, les conséquences sont les mêmes. Il n’est pas possible de voir la chose telle qu’elle est mais on peut simplement voir qu’à travers le filtre de la contrainte temporelle.  Ce résultat illustre ma thèse que le sujet pensant ne peut accéder au monde réel.  

 



[1]Je fais référence à l’article : ‘Les intuitions en géométrie sont-elles universelles ?’ dans Techno-Science, le 25/05/2011, qui rend compte de l’analyse d’un test entre des Indiens Mundurucus, vivant en Amazonie dans un territoire isolé : 22 adultes et 8 enfants de 7 à 13 ans, n’ayant jamais reçu d’instruction en géométrie et une trentaine d’adultes et d’enfants originaires de France et des Etats-Unis qui avaient étudié la géométrie… Dans un univers sphérique, il s’avère que les Indiens d’Amazonie répondent mieux que les Français et les Nord-américains. Ces derniers auraient de par l’apprentissage de la géométrie à l’école, acquis une plus grande familiarité avec la géométrie plane qu’avec la géométrie sphérique. On constate dans cet article que les représentations induites par les critères de la géométrie sphériques restent vraisemblables chez les Mundurucus. 

 

 

Partager cet article
Repost0
1 octobre 2014 3 01 /10 /octobre /2014 13:46

 

 

 

                                         Au sein d’une éternité parmi tous les possibles…

 

Stanislas Dehaene, publie un nouvel ouvrage : ‘Le Code de la Conscience’, à paraître le 8/10/2014, édit. Odile Jacob. La revue ‘La Recherche’, d’octobre 2014, propose un article : ‘Science avec conscience’ qui commente la valeur de ce travail, avec la publication d’un extrait. J’ai déjà eu l’occasion d’exprimer mon grand intérêt pour les travaux de S. Dehaene et j’ai tenté de vous le faire partager dans plusieurs articles dont celui du 2/11/2012 : ‘Thomas Bayes dans le cerveau ?’

 

Dans la suite du présent article, je vais faire référence à deux articles du Blog datant du 27/08/2012 : ‘D’infinis précautions.’, et du 21/12/2011 : ‘L’être humain est-il nu de toute contribution lorsqu’il décrypte et met en évidence une loi de la Nature ?’ Enfin plus récemment le 27/05/2014 : ‘Persévérons car cela progresse dans le bon sens…mais lentement en zigzag’, notamment l’annexe de cet article.

 

Je suis désolé de commencer par toutes ces références mais cela met en évidence que ce n’est que par une succession d’inflexions que l’on peut traiter du sujet de la connaissance, prétendue universelle, en ce qui concerne la connaissance en physique. Affirmer que ‘La physique n’est pas une science qui nous conduit à la connaissance de la réalité. Elle conduit à établir des vérités fondées.’ (le 22/03/2014), ne va pas de soi car cela constitue un tremblement à l’égard des fondements de notre formation intellectuelle première et d’une croyance culturelle occidentale très ancrées. Donc tout ceci ne doit pas être provocant mais matière à une réflexion approfondie. Chaque nouvelle étape proposée doit légitimer ou rectifier si nécessaire la/les inflexion(s) précédente(s), bref, il faut dans la durée avoir des convictions chevillées au corps. A titre d’illustration, l’article de ‘La Recherche’, page 68, s’intitule ‘Science avec conscience’. Pour moi, l’affirmatif n’est pas encore à l’ordre du jour et j’aurais proposé ce titre à l’interrogatif. Par exemple un fervent platonicien, (ce que je ne suis pas, mais je ne peux pas ignorer leur influence dominante), affirmerait que l’émergence de la connaissance en physique n’a rien à faire avec une conscience créatrice puisque les lois mathématiques de la Nature sont déjà là, inscrites dans la Nature. Il suffit donc de savoir les reconnaître, c’est donc essentiellement un travail de ‘lecture’.

 

Dans la description introductive de mon blog, j’indique que le référentiel principal de celui-ci est anthropocentrique, c’est-à-dire que les connaissances scientifiques (en physique fondamentale) sont avant tout le fruit des capacités cérébrales intrinsèques et évolutives du sujet pensant. Je comprends que les travaux de S. Dehaene contribuent à conforter l’assise sur laquelle je développe et vous soumets ma réflexion.

 

Dans la ‘Recherche’, p.69, je cite S. Dehaene : ‘Ce que nous voyons à un instant donné est donc, le plus souvent, l’interprétation la plus probable, mais d’autres possibilités font irruption dans notre conscience, avec une durée proportionnelle à leur vraisemblance. L’inconscient calcule toutes les probabilités, tandis que la conscience les échantillonne au hasard.

 

Cette loi probabiliste démontre qu’au moment même où nous percevons l’une des interprétations d’une scène visuelle, notre cerveau continue de s’interroger, inconsciemment, sur les autres possibilités et se prépare à changer d’avis à tout instant. Comme le dit Pierce : « l’étoffe de notre savoir n’est qu’un entrelacs d’hypothèses pures confirmées et raffinées par l’induction. » Pourtant, consciemment, nous ne percevons qu’un seul échantillon parmi toutes ces possibilités (sic)… Echantillonner l’espace des possibles semble être l’apanage de la conscience. »

 

« Les processus inconscients sont donc, dans une certaine mesure, plus objectifs que la perception consciente. Notre armée de neurones inconscients évalue toute la distribution de probabilité des états du monde, tandis que la conscience la réduit impitoyablement à quelques échantillons. Les processus inconscients travaillent avec des probabilités continues, mais notre esprit conscient n’a accès qu’à des symboles discrets dont le contenu bascule soudainement, en tout-ou-rien. L’inconscient quantifie, la conscience discrétise. »

 

« Cette organisation ressemble étrangement à celle de la mécanique quantique (sic). En effet celle-ci nous dit que la réalité est faite d’une superposition de fonctions d’ondes qui gouvernent la probabilité de trouver une particule dans un certain état… Or les données que nous venons d’examiner montrent qu’un phénomène similaire survient dans le cerveau : le simple fait de prêter attention à un objet fait s’écrouler la distribution de probabilité de toutes ses interprétations possibles, et ne nous donne à voir que l’une d’entre elles. La conscience se comporte comme un instrument de mesure qui discrétise le réel et ne nous donne à voir qu’un minuscule aperçu de la vaste étendue des calculs inconscients. »

 

Dans l’article ‘D’infinis précautions’, j’ai proposé au final, la réalisation d’une expérience de physique quantique qui place au centre de celle-ci l’investissement cérébral de l’observateur et qui exploiterait les moyens des neurosciences cognitives et d’imagerie cérébrale. Les travaux de S. Dehaene me conduisent à persister de penser que celle-ci devrait être réalisée.

 

Cet article vise évidemment à vous communiquer l’envie de lire à la fois l’article de la ‘Recherche’ et lire directement le livre quand celui-ci sortira dans les librairies.

P.S. l'article du 11/01/2014 : 'L'étrangeté quantique, une illusion ?', est aussi un article référence à propos de ce sujet.

Partager cet article
Repost0
23 septembre 2014 2 23 /09 /septembre /2014 11:41

 

 

 

 

 

 

Descartes, Spinoza… merci Maurice Merleau-Ponty[1].

            Grâce à l’ouvrage cité de M. Merleau-Ponty, j’ai pu constater après coup que certaines des idées  mises en avant pour étayer le contenu de l’article un ‘Authentique Big-Bang’ ont déjà été débattues lorsqu’il s’est agi d’expliquer l’évolution du rapport d’intelligence entre le sujet pensant et la nature. Par exemple, comment l’être pensant puise dans sa relation primordiale à la nature, ce qui va forger sa compréhension, sa représentation, sa pensée, notamment de l’espace ?

Rappel de ce que j’ai proposé dans l’article en question. « Ainsi, c’est un authentique ‘big bang’ qui s’est produit quand a surgi dans la Nature une première intelligence, surgissement que l’on situe à peu près entre 10 à 8 millions d’années. Cette intelligence primordiale de notre ancêtre, qui est à l’origine de la trace de la lignée humaine, s’est différenciée des autres hominoïdes en s’installant dans l’espace et dans le temps. C’est donc une ‘Présence’ embryonnaire qui s’installe. On peut concevoir que cet ancêtre intègre premièrement l’idée d’espace parce que la nature lui offre le support concret qui permet le déplacement, le changement de lieu, ainsi que le repérage concret, physique, des lieux qui diffèrent. L’idée de l’espace s’impose sur une base proprement fonctionnelle, elle est corrélée significativement avec le support proprement tellurique et elle résulte d’un rapport premier ‘d’intelligence’ avec ce qui est offert par l’environnement naturel immédiat. C’est une appropriation, comme toute appropriation, elle se fait par un conditionnement aux fins qui lui sont attachés (pensons à la multitude d’étalons de distance qui ont été inventés par l’homme). L’Idée de l’espace au sens exprimé par Platon ne se forgerait, selon ce processus, bien après coup, à la suite d’un développement intellectuel déjà très sérieusement élaboré qui favoriserait le processus d’une abstraction idéale plus complète, exactement parfaite, (détachée de son conditionnement fonctionnel) qui conduirait à l’Idée de l’espace. »

Avant tout, je cite, ‘la Nature’, p. 335 « Par suite le rapport homme – animalité n’est pas un rapport hiérarchique, mais un rapport latéral, un dépassement qui n’abolit pas la parenté. Même l’esprit est incroyablement pénétré de sa structure corporelle : l’œil et l’esprit. C’est à partir du visible que nous pouvons comprendre l’invisible. A partir du sensible que nous pouvons comprendre l’Etre, sa latence et son dévoilement…» Cette conviction du rapport latéral a été un point d’appui important dans mon article du 27/08, et à ce titre j’ai cité un ouvrage plus récent : ‘La fin de l’exception humaine’.

Dans ‘La Nature’ de M. Merleau-Ponty, p33-34 : « Lorsque nous pensons l’espace, nous pensons une unité spirituelle ; lorsque nous le voyons, nous nous trouvons en face de parties juxtaposées. Le mode d’action, dans cette étendue réelle, ne peut être que le mouvement : d’où le mécanisme cartésien. Spinoza, au contraire, ne connaît pas cette opposition entre l’étendue réelle et l’étendue pensée. Le rapport entre les deux termes est un rapport tout autre ; c’est un rapport intrinsèque, une corrélation entre l’idée et son idéat. (Idéation : processus de la formation et de l’enchaînement des idées). L’idée de l’espace intelligible et l’idée de l’espace perçu ne sont séparées que par une différence d’idéation, plus ou moins finie. Aussi le mécanisme ne se retrouve-t-il pas chez Spinoza : le mathématisme enveloppe tout. Les actions physiques ne sont plus réduites à des transports de mouvements, mais à des relations intelligibles. Le possible et l’actuel sont équivalents

« Ce réalisme est-il une survivance ? Certes, le mécanisme cartésien, au sens étroit d’explication du monde par des machines simples, est sans avenir scientifique. Mais il est intéressant dans la mesure où il traduit une résistance à une idéalisation du monde. Nous ne sommes pas en relation avec des corrélats de pensée, mais avec des réalités. Réalités irréductibles, réalité qui ne peut être comprise par l’esprit pur. C’est déjà ce que Kant exprimera en disant qu’il y a dans les objets de l’espace quelque chose qui résiste au pur entendement… »

 

 

La question que nous pouvons nous poser est la suivante : est-ce que nous avons la capacité de concevoir une pensée de l’espace pur, sans que soit convoqué concomitamment le processus (le mode d’action) par lequel nous avons pu nous l’approprier en tant qu’être pensant ? Si nous ne pouvons pas penser l’espace purement, sans qu’il lui soit attaché le mouvement qui est à l’origine de la genèse de sa ‘globalisation-abstraction’, alors, à la pensée objective de l’accroissement de l’espace se trouve automatiquement associée la nécessité souterraine d’une action induisant le mouvement associé. Je pense concrètement à la problématique de l’énergie sombre qui serait le moyen d’expliquer la raison d’une observation de l’accélération de l’expansion de Notre univers. C’est selon la majorité de la communauté scientifique ce que nous observerions par l’intermédiaire de l’évaluation des distances ‘réelles’ des Supernova de type IA. Expansion accélérée de Notre univers, signifie que depuis peut-être plus ou moins 8 milliards d’années, celui-ci a sa dimension spatiale qui s’accroît avec le temps a une vitesse de plus en plus élevée, quittant ainsi un régime d’expansion à vitesse constante définie par la loi de Hubble.

C’est notre espace qui s’accroît et concrètement nous le visualisons indirectement par un redschift plus important, c’est de l’espace conquis, de l’espace neuf, une extension d’une quantité d’apparaître nouveau ! Devons-nous être étonnés que soit associée à cet accroissement une énergie qui en serait la cause ? Parmi les explications, il y en a une qui prend en considération l’idée que cette énergie est sous-jacente à l’espace-temps. Lorsque celui-ci s’accroît, de fait, il libère (il fait apparaître) cette énergie qui contribue à un nouveau supplément d’expansion, ainsi de suite. C’est la thèse de la quintessence. L’autre thèse qui produit le même effet est celle de l’énergie sombre, dont la densité est constante, qui est interprétée comme une propriété de l’espace-temps.

            Si, comme je le propose, on pense qu’il n’y a pas de mécanisme qui pousse à une extension effective et accélérée de Notre univers, mais plutôt qu’il y a une conquête intellectuelle, grâce à l’accroissement de nos capacités d’inférence, de l’espace existant de Notre univers, cela n’exclut pas, étant donné ce qui a été exposé précédemment, que nous y associons naturellement une énergie active. Cette énergie est virtuelle comme le sont les particules des diagrammes de Feynman. Ici donc, je privilégie une explication anthropocentrique, j’assume pleinement l’intitulé de mes cours : ‘Faire de la physique avec ou sans ‘Présence’’. Ce sont les déterminations fondamentales de l’être pensant qui expliqueraient la problématique de l’énergie sombre.

            Etant donné ce qui précède, il est normal que l’on me dise que mon raisonnement relève d’un parti pris et qu’il ne tient pas compte des observations qui ont été accumulées. En effet, on considère, depuis la fin 1990, que l’on est en mesure d’observer cette accélération de l’expansion de l’univers. Les résultats obtenus s’appuient sur la certitude que les SN IA, doivent être considérées comme des chandelles standards, c’est-à-dire que, qu’elles que soient les supernovae, si elles sont du type IA, elles émettent la même quantité de lumière et par conséquent le flux de lumière recueilli par nos télescopes est classiquement inversement proportionnel au carré de la distance parcouru jusqu’à nos détecteurs.

Il se trouve que de fait, les considérations que nous faisons valoir à propos de nos observations, sont fragiles et relèvent d’un certain parti pris. Nos chandelles standards ne le sont peut-être pas car, évidemment, nous ne pouvons pas reproduire ce phénomène en laboratoire. Tout est basé sur l’idée que nous comprenons parfaitement le mécanisme de formation et d’effondrement des étoiles, particulièrement celui qui conduit aux SN IA. Cette assurance semble forte puisqu’en 2011 il a été attribué, aux trois physiciens : Paul Perlmutter, Brian Schmidt, Adam Riess, le prix Nobel récompensant leurs travaux sur l’accélération de l’expansion de l’Univers, comme si la chose était entendue. On peut s’en étonner car il n’est pas dans l’habitude de ce jury d’être aussi prompt.

De toute façon on peut répliquer que s’il y a erreur, excès d’interprétation, nous ne quittons pas pour autant la voie de la démarche scientifique traditionnelle. Sauf que l’ampleur de l’erreur peut être bien plus significative que ce que l’on croit actuellement. En effet, je cite :

  1. En astrophysique on découvre actuellement, grâce aux moyens d’observations de plus en plus performants, que des résultats qui semblaient établis ne le sont pas effectivement. Ainsi on ne trouve pas le taux de lithium nécessaire au scénario de la genèse de l’univers. Ce résultat paru dans la revue Monthly Notices of the Royal Astronomical Society démontre que le "lithium (Le lithium est un élément chimique, de symbole Li et de numéro atomique 3.) manquant", l'un des mystères de l'astrophysique (L’astrophysique est une branche interdisciplinaire de l'astronomie qui concerne principalement la physique et l'étude des propriétés des objets de l'univers (étoiles, planètes, galaxies, milieu interstellaire par exemple), comme leur...) moderne, n'est pas seulement circonscrit à la Voie Lactée (La Voie lactée (appelée aussi « notre galaxie », ou parfois simplement « la Galaxie », avec une majuscule) est le nom de la galaxie dans laquelle se situent le Système solaire (dont la Terre,...): c'est un problème universel. Le lithium est l'un des rares éléments chimiques (avec l'hydrogène (L'hydrogène est un élément chimique de symbole H et de numéro atomique 1.) et l'hélium) à avoir été formé juste après le "Big Bang (Le Big Bang est l’époque dense et chaude qu’a connu l’univers il y a environ 13,7 milliards d’années, ainsi que l’ensemble des modèles cosmologiques qui la...)" pendant les fameuses trois premières minutes ( Forme première d'un document : Droit : une minute est l'original d'un acte. Cartographie géologique ; la minute de terrain est la carte originale, au...) de l'existence de l'Univers (L'Univers est l'ensemble de tout ce qui existe et les lois qui le régissent.).

  2. De même, grâce à des observations très récentes : On découvre, le rôle inattendu des galaxies naines dans la formation des étoiles.
    Une équipe internationale d'astronomes, dont des chercheurs de l'Institut d'astrophysique de Paris (CNRS/UPMC) et du Laboratoire d'astrophysique de Marseille (CNRS/Aix-Marseille Université), viennent de mettre en évidence que les galaxies naines dans l'
    Univers (L'Univers est l'ensemble de tout ce qui existe et les lois qui le régissent.) lointain ont été des moteurs (Un moteur est un dispositif transformant une énergie non-mécanique (éolienne, chimique, électrique, thermique par exemple) en une énergie mécanique ou...) exceptionnels de la formation stellaire. L'analyse à grande échelle (La grande échelle, aussi appelée échelle aérienne ou auto échelle, est un véhicule utilisé par les sapeurs-pompiers, et qui emporte une...) de ce type de galaxies permet de faire une avancée importante dans la compréhension de l'évolution des galaxies et, avec elles, de l'histoire (sic) de l'Univers. Ces résultats ont été réalisés à l'aide de Hubble (Le télescope spatial Hubble (en anglais, Hubble Space Telescope ou HST) est un télescope en orbite à environ 600 kilomètres d'altitude, il effectue un tour complet de la Terre toutes les 100 minutes. Il est...), le télescope spatial (Un télescope spatial est un télescope placé au delà de l'atmosphère. Le télescope spatial présente l'avantage par rapport à son homologue...) de l'ESA et de la NASA (La National Aeronautics and Space Administration (« Administration nationale de l'aéronautique et de l'espace ») plus connue sous son abréviation...). Ils sont publiés depuis le 19 juin dans The Astrophysical Journal.

  3. ALMA sonde l'origine tumultueuse des galaxies à disque. Le 17/ 09

Des décennies durant, les scientifiques ont pensé (sic) que les fusions de galaxies se soldaient généralement par la formation de galaxies elliptiques. Toutefois, des chercheurs utilisant le réseau ALMA et de nombreux autres radiotélescopes viennent pour la première fois de démontrer que la fusion (En physique et en métallurgie, la fusion est le passage d'un corps de l'état solide vers l'état liquide. Pour un corps pur, c’est-à-dire pour une substance constituée de molécules toutes identiques, la fusion...) de galaxies conduit plutôt à la formation de galaxies à disque (Le mot disque est employé, aussi bien en géométrie que dans la vie courante, pour désigner une forme ronde et régulière, à l'image d'un palet — discus...). Ce résultat pour le moins surprenant serait même très fréquent. Il pourrait expliquer la raison pour laquelle les galaxies spirales ((voir page de discussion)) telle que la Voie Lactée (La Voie lactée (appelée aussi « notre galaxie », ou parfois simplement « la Galaxie », avec une majuscule) est le nom de la galaxie dans laquelle se situent le Système...) sont si nombreuses dans l'Univers (L'Univers est l'ensemble de tout ce qui existe et les lois qui le régissent.).

Avec ces quelques exemples, très récents, on peut constater qu’à propos de Notre cosmos, dans les années à venir, de nombreuses certitudes seront appelées à être plus qu’ajustées, certainement significativement modifiées. Ces exemples cités ne remettent pas en cause directement la problématique de l’accélération de l’expansion de l’univers mais devrait, comme cela est indiqué, remettre en cause notre conception actuelle de ‘l’histoire de l’univers’. Or avec l’hypothèse de l’énergie sombre, son effet survient dans le cours d’une histoire que nous avions conçue avant la découverte des SN IA, et en conséquence cette histoire a été modifiée.  

Comme on peut le constater, l’histoire que nous prêtons à Notre univers, pourrait être tout simplement l’histoire de notre savoir à propos de celui-ci et comme j’ai déjà eu l’occasion de le projeter : la dynamique authentique qui serait à l’œuvre, serait celle relative à la conquête, par le sujet pensant, de nouveaux espaces qui sont investis grâce au développement continu de nos capacités d’inférence. Comme j’aime à le rappeler, au sein d’une éternité, parmi tous les possibles… l’être pensant continuera d’anéantir les frontières qui feront front à l’expansion de l’Univers de sa connaissance.

 




[1] Je cite M. Merleau-Ponty en puisant dans l’ouvrage :’ les Notes du Collège de France : La Nature’, établi et annoté par Dominique Séglard. Edit. Le Seuil, 1995. Disparu brutalement en 1961, M. Merleau-Ponty est l’une des grandes figures de l’existentialisme français, héritier direct de Husserl et de Heidegger.

 

 

 

 

 

Partager cet article
Repost0
3 septembre 2014 3 03 /09 /septembre /2014 12:13

Etats d’âme bénéfiques. 

Etats d’âme…, façon de dire car le mot âme a perdu la validité qui était la sienne au fur et à mesure que la métaphysique qui l’a promu a sérieusement perdu de son actualité. Mais il est un fait que j’ai connu une variété d’états d’inquiétude voire d’angoisse avant de poster l’article précédent. J’ai pu m’y résoudre au bout de quelques jours lorsque j’ai pu retrouver le livre : ‘Biologie de la conscience’ de G. M. Edelman et in fine annexer un paragraphe dans lequel le mot ‘scène’ et surtout le processus dynamique de l’être pensant embryonnaire qui le conduit à être au cœur de la scène minimale qu’il fondait, m’accordait la légitimité d’appuyer sur le bouton : ‘Publier l’article’.

Ces états je les connais fréquemment alors qu’en général, pendant tout le temps où j’écris un article, je n’éprouve pas ce besoin de rencontrer une légitimité extérieure.

Dans l’article précédent, j’ai associé l’évolution de la connaissance de l’être pensant à son évolution propre et j’ai essayé d’en fixer des conséquences en ce qui concerne les deux grandeurs essentielles de la science physique et les conséquences en ce qui concerne nos possibilités de connaissances actuelles dans ce domaine.

Il est remarquable de constater que le clivage entre matière inanimée et matière animée ne résulte pas d’une propriété chimique ni biochimique mais d’une propriété physique comme je l’ai traité dans l’article du 02/08/2014 en m’appuyant sur les travaux remarquables des chercheurs du CNRS, publiés le 21/06/2014. Ces acides aminés lévogyres constituant les briques fondamentales de la matière vivante, puisque constituants essentiels des protéines. N’oublions pas que certaines protéines sont à l’œuvre directement dès le niveau de l’embryogenèse comme cela est rendu compte dans l’article de : ‘Pour la Science’ de septembre 2014 : ‘Comment les doigts se forment’. Dans cet article il est décrit l’observation en laboratoire, que les doigts (de souris) : « pourraient résulter d’un mécanisme d’auto-organisation dit de Turing, fondé sur la régulation mutuelle de trois protéines impliquées dans l’embryogenèse, BMP, Sox9 et Wnt… Les biologistes ont imaginé un modèle de Turing à trois morphogènes : la voie Wnt inhibe l’expression du gène de Sox9 entre les futurs doigts, tandis que la BMP la stimule dans les régions qui formeront les doigts. En retour Sox9 régule les deux voies. Ce modèle fournit bien un motif périodique (sic) conforme aux observations…Reste à vérifier qu’il est robuste. »

Est-ce que cette corrélation forte établie entre une détermination physique clairement établie et l’engendrement basique du monde animé ne peut être et rester qu’un sujet de spéculation pour les philosophes ou bien les spécialistes de l’objectivité, les physiciens, ont-ils le désir et les moyens de s’en emparer ?

Rétrospectivement on peut s’interroger : d’où vient l’intuition de Descartes qui plante dans le paysage de l’humanité son arbre de la connaissance dont les racines sont la métaphysique et le tronc la physique ? Cette intuition est très probablement alimentée et justifiée par une finalité très pragmatique affirmée de cette façon par R. Descartes : La science a une double finalité : elle est utile, pour soulager l’existence de quantité de maux et favoriser le bien-être en nous rendant « comme maîtres et possesseurs de la nature » (sic) ; elle est moralement désirable car en nous donnant la connaissance des causes elle nous conduit à la sagesse.

Maîtres et possesseurs de la nature, ne peut plus être un projet pour l’humanité actuelle car la compréhension de l’écologie scientifique nous dit que biologiquement et physiologiquement nous sommes immergés dans la nature et donc notre vie en dépend et avec le XXIe siècle la problématique de la survie de l’espèce humaine, ou d’une partie, n’est plus taboue.

La prescription de Descartes est aussi nourrie du souci de l’élévation vers plus de sagesse du genre humain, suivant la conviction que les connaissances extraites de la confrontation sans fin avec l’ordre naturel, constitue une conquête bénéfique de la part du sujet pensant et une conquête d’autant de fragments de liberté. Comprendre les lois de la nature est donc partie prenante du progrès pour l’humanité. Plus ont fait reculer notre ignorance des lois de la nature, plus l’humanité s’émancipe de ses contraintes, plus l’humanité s’humanise. Jusqu’où l’humanité peut-elle s’émanciper des lois de la nature alors que la cause première, la racine première, du monde vivant est tributaire d’une propriété de polarité de la lumière qui en conséquence doit être nommée : Notre lumière.  

L’évolution animale résulte d’une confrontation-adaptation plus ou moins passive aux contraintes de la nature. Dans une continuité biologique, l’évolution humaine résulte d’une confrontation-adaptation certainement active aux contraintes physiques de la nature. Certainement active, parce que des stratégies de contournement se mettent en place pour contrer l’inhumanité des lois de la nature. Pragmatiquement, la voie ouverte consiste à décrypter les lois de la nature pour vivre avec, s’en émanciper, se les approprier. Il me semble qu’il est raisonnable de penser que – pour une grande part – l’intelligence humaine s’est développée au fur et à mesure qu’elle s’est nourrie de la quintessence de cette histoire toujours renouvelée, en devenir, de la confrontation-adaptation aux contraintes de la nature et qu’elle représente cette quintessence. L’être humain a progressivement dressé sa ‘Présence’ au sein de la nature au point de concevoir qu’il habite une étendue spatio-temporelle exclusivement faite pour lui, en tant qu’être pensant, qu’il appelle l’Univers. Mais sa curiosité n’a pas de raison, pour autant, d’être assouvie, il ne peut en rester là, c’est un des propres de l’homme. Dans ce contexte on peut apprécier à sa juste valeur les impulsions décisives de la philosophie cartésienne et ce n’est pas un hasard si elles sont formulées dans une périodique historique que l’on appelle la ‘Renaissance’.

Très probablement les dessins pariétaux découverts dans les grottes protégées nous montrent des gestes d’émancipations à l’égard de ce qui constitue le monde animal naturel. Il y a 35000 ans environ, nos ancêtres ont projeté sur des parois, ils ont ‘écrit’ sur les parois, qu’ils avaient pris conscience de leur différence avec le monde animal, qu’ils avaient pris conscience qu’ils appartenaient à des mondes distincts. L’extraordinaire lucidité et l’extraordinaire vérité des représentations, avec une économie de moyens émouvante, nous montrent que l’impact d’une empathie récente encore prégnante guide la main de l’artiste homo sapiens. Les scènes de chasse, par exemple, représentées indiquent qu’ils avaient acquis une compréhension d’un positionnement dans le temps et dans l’espace, d’eux-mêmes, et du monde immédiat qui leur était extérieur. A cause de leur confrontation avec le monde animal, ils étaient à même de décrypter et de représenter sur les parois de la grotte Chauvet, l’élan, l’énergie, qui met dans un mouvement irrépressible les lionnes en chasse visant le même objectif. Plus les homos sapiens étaient en mesure de décrypter cet élan sauvage, plus ils étaient en mesure de le ‘dire’, de le faire savoir, plus ils étaient en mesure de se préserver collectivement de ses conséquences parfois funestes pour eux-mêmes.

Après la présentation de la prise de conscience de la séparation, il semblerait qu’il fallut attendre le néolithique, il y a 12000 ans, pour que l’homo sapiens se représente lui-même (statuette, signe gravé) comme représentant d’un genre qui le distingue de tous les autres genres qu’il côtoie.

Dans la quatrième de couverture du livre : ‘La fin de l’exception humaine’[1]que j’ai déjà abordé dans l’article du 02/12/2013 : ‘La fin comme celle du Phénix’, je cite : « L’humanité s’inscrit dans la vie grâce à des visions globales du monde et à des savoirs empiriques morcelés. La thèse de l’exception humaine est une vision du monde. Son coût, au regard de son utilité supposée, est exorbitant – l’impossibilité d’articuler les savoirs empiriques assurés en une vision intégrée de l’identité humaine qui conjugue les sciences de la culture et les autres connaissances concernant l’homme. »

L’auteur voit juste en évoquant le morcellement des savoirs empiriques qui s’explique toujours selon l’auteur à cause du refus d’accepter l’origine naturelle de l’homme et qu’il n’y a pas d’exception humaine. Je ne suis pas sûr que dans son analyse il accorda beaucoup de place au savoir spécifique de la physique, et pourtant… Mais le coût qu’il suppose est certainement exorbitant. Peut-être que les physiciens sont confrontés au chiffrage de ce coût : 95% d’ignorance de ce qui compose Notre univers.

Dans son livre le plus récent, pour tenter de jeter une lumière nouvelle sur les 95% obscurs, Lee Smolin évoque l’hypothèse – en s’appuyant sur sa certitude de la réalité du temps – que les lois de la physique pourraient évoluer à la manière des lois de la biologie (sic). Effectivement, je propose de prendre le contre-pied de Smolin en considérant que l’évolution à prendre en compte est celle de nos capacités de décryptage des lois de la nature.

Ainsi comme je l’indique dans mon précédent article, ce n’est pas C : vitesse de la lumière qui évolue, mais ce qui doit évoluer c’est notre capacité à prendre en compte des vitesses naturelles autres que celles de Notre lumière. Rubicond certainement difficile à franchir.

Ce qui doit évoluer c’est notre capacité d’intégrer qu’il existe d’autres matières que la baryonique et que celles-ci ne seraient pas contraintes par exemple par E = mc2.

Ce qui doit évoluer c’est la croyance que le corpus des lois physiques est un corpus de lois finis.

Ce qui doit évoluer c’est la croyance que le sujet pensant est nu de toute contribution lorsqu’il décrypte et met en évidence une loi de la nature.

Ce qui doit évoluer c’est la compréhension historique de notre rapport d’intelligence avec les propriétés de la nature, de notre capacité à conceptualiser, en prenant en compte l’histoire profonde de l’évolution de l’être pensant.



[1] Dont je recommande toujours la lecture avec le recul approprié.

Partager cet article
Repost0
27 août 2014 3 27 /08 /août /2014 14:25

Un authentique Big Bang.

Fracturer le masque parfait de la Relativité Restreinte.

Puisque ma conviction est que l’espace et le temps sont fondés par l’être humain, il me faut assumer cette conviction et étayer les conséquences qui en résultent, même les plus iconoclastes.

Ainsi, c’est un authentique ‘big bang’ qui s’est produit quand a surgi dans la Nature une première intelligence, surgissement que l’on situe à peu près entre 10 à 8 millions d’années. Cette intelligence primordiale de notre ancêtre, qui est à l’origine de la trace de la lignée humaine, s’est différenciée des autres hominoïdes en s’installant dans l’espace et dans le temps. C’est donc une ‘Présence’ embryonnaire qui s’installe. On peut concevoir que cet ancêtre intègre premièrement l’idée d’espace parce que la nature lui offre le support concret qui permet le déplacement, le changement de lieu, ainsi que le repérage concret, physique, des lieux qui diffèrent. L’idée de l’espace s’impose sur une base proprement fonctionnelle, elle est corrélée significativement avec le support proprement tellurique et elle résulte d’un rapport premier ‘d’intelligence’ avec ce qui est offert par l’environnement naturel immédiat. C’est une appropriation, comme toute appropriation, elle se fait par un conditionnement aux fins qui lui sont attachés (pensons à la multitude d’étalons de distance qui ont été inventés par l’homme). L’Idée de l’espace au sens exprimé par Platon ne se forgerait, selon ce processus, bien après coup, à la suite d’un développement intellectuel déjà très sérieusement élaboré qui favoriserait le processus d’une abstraction idéale plus complète, exactement parfaite, (détachée de son conditionnement fonctionnel) qui conduirait à l’Idée de l’espace.

Il en est de même pour les autres grandeurs qui vont suivre dans l’article. Ce qu’il faut retenir c’est que toutes les grandeurs qui sont appropriées par l’intelligence primordiale et dont la référence première est offerte par la Nature, ne le sont que par un processus de réduction vis-à-vis de toutes les possibilités qui sont offertes par cette Nature. Disons que l’intelligence primordiale, étant donné ce qu’elle est, ne peut être que sélective. Cette sélection-réduction est irréversible. Le mythe de la caverne de Platon, évoque donc la prise de conscience de ce processus irréversible de réduction qui est considéré par Platon en personne comme une aliénation rédhibitoire. Je ne suis pas platonicien et certainement pas comme peuvent l’être d’éminents scientifiques comme M. Tegmark, R. Penrose, A. Connes, etc…, mais je considère que l’allégorie relative à la caverne proposée par ce philosophe grec représente une étape très significative de l’expression de l’évolution du rapport d’intelligence du sujet pensant à l’égard de son environnement et partant de sa compréhension.

L’idée empirique d’un flux ‘temporel’, peut être corrélé au spectacle du changement continu de la position de l’astre solaire et elle a dû se forger bien plus lentement car cela met en jeu un processus d’intériorisation, d’abstraction, qui peut même contribuer au développement des capacités cérébrales[1](in fine le temps a pu être repéré conventionnellement grâce au savoir-faire instrumental de l’homme, dans l’histoire, il fut aussi considéré comme source de pouvoir pour celui qui pouvait dire le temps). C’est la raison pour laquelle je place cette faculté de la saisie d’un flux temporel et des moyens de le repérer comme un propre de l’être humain. Ainsi, c’est donc en connaissance de cause que j’accorde un rôle déterminant au temps propre du sujet : TpS (scansion élémentaire), et que je le qualifie d’existential. (Dans l’article du 03/07/2014, j’explique comment historiquement ce serait produit l’imbrication de l’espace-temps, ainsi que l’association de l’espace avec le substrat matériel.)

Voir le document Annexe joint à la fin de l’article.

Ensuite vient la notion du déplacement, non seulement dans le cadre d’un changement de position spatiale mais aussi en la combinant avec son évolution temporelle. A partir de là, émerge l’idée de vitesse de déplacement, dans le rapport : quantité de déplacement/quantité de temps impliqué.

Le processus de fondation de l’espace et du temps est une opération propre de l’intelligence humaine qui a procédé par prélèvement(s) réducteur(s) sur ce que la nature fait voir d’une façon plus ou moins directe. La grandeur vitesse est une grandeur dérivée de ces grandeurs prélevées, en conséquence elle hérite donc du même statut.

Ceci m’amène à considérer qu’il faut distinguer, la saisie de la vitesse de systèmes qui sont le fruit de notre fabrication, de systèmes qui appartiennent à des systèmes naturels.

Pour les systèmes qui sont le fruit de notre fabrication, la mesure de la vitesse de leur déplacement est réaliste, puisqu’il y a homogénéité de conception entre ses systèmes et les grandeurs qui conduisent à l’évaluation de leur vitesse. Aucune réduction supplémentaire n’entre en ligne de compte.

Par contre pour ce qui concerne des systèmes naturels la situation est différente et je propose de procéder à une distinction concernant les systèmes naturels matériels de ceux qui sont immatériels. En effet les systèmes matériels naturels offrent les possibilités de repérages identiques à ceux qui sont le fruit de notre fabrication. Les modalités cognitives en jeu à cet égard doivent être identiques à celles de la situation précédente et produisent donc un résultat de même nature et de même valeur. Donc, il n’y a pas lieu de différencier le statut ontologique de la grandeur vitesse des systèmes matériels dont nous sommes les auteurs, de ceux dont nous ne le sommes pas. (Je formulerai un peu plus loin une exception pour les objets dits ‘matériels’ mais qui ont une vitesse naturelle voisine à C, exemple les neutrinos.)

Par contre le statut ontologique de la vitesse des systèmes naturels immatériels doit être clairement différencié des objets précédents car du fait de leur immatérialité une réduction nouvelle et supplémentaire (pas obligatoirement de même nature que pour l’espace et pour le temps, c’est-à-dire qu’elle peut être plus complexe) doit opérer pour entreprendre une saisie-identification par le sujet pensant de l’objet immatériel.

Je pense plus particulièrement à ce qui est immatériel, telle la lumière. Ainsi la vitesse dite de la lumière : C, est une grandeur que nous faisons apparaître étant données nos capacités cognitives, elle est estimée tout autant qualitativement que quantitativement par un processus de réductions qui est du fait du sujet pensant. Le statut ontologique de la lumière, de la vitesse C, de ses concepts attachés doit être interrogé. Comme je le dis : « C, est une grandeur que nous faisons apparaître… », c’est donc une représentation qui est plutôt conforme à nos capacités d’appropriation intellectuelle qu’à nos capacités d’identifier une réalité naturelle. (J’ai déjà évoqué cette distinction entre vérité et réalité dans l’article du 22/03/2014 : ‘La physique n’est pas une science qui nous conduit à la connaissance de la réalité. Elle nous conduit à établir des vérités fondées.’)

La vitesse C, est une signature extrapolée mais consensuelle qui nous permet d’identifier ce que l’on désigne physiquement par la lumière, elle nous est utile, elle témoigne de notre capacité actuelle d’investissement intellectuel des propriétés de la Nature et tout ce qui lui est corrélée, elle marque en fait une frontière, un horizon, de ce que nous pouvons savoir de la nature, de Notre univers. En fait, peut-être que ce que nous appelons la lumière n’a pas de vitesse du tout et c’est une façon erronée de l’identifier ! Et si mobilité de la lumière, il y a, elle devrait être appréciée d’une façon différente.

Maintenant, faisons un bilan d’un questionnement qui a toute sa légitimité scientifique :

(Extrait de wikipédia) : « Le nom de cette constante est souvent source de confusion. Il est important de comprendre que la vitesse de la lumière n'est pas une constante physique en soi : elle coïncide avec la constante physique cà condition que les photons aient une masse identiquement nulle et que la propagation s'effectue dans le vide absolu.

Par ailleurs, il est nécessaire de définir soigneusement la vitesse dont on parle. En effet, lorsqu'un pulse de lumière est émis, la description de sa propagation peut faire intervenir différentes notions comme la vitesse de phase (qui est la vitesse de propagation d'une composante spectrale monochromatique), la vitesse de groupe (qui est la vitesse de propagation du maximum du pulse lumineux, parfois abusivement considérée comme la vitesse de propagation de l'information), la vitesse du front d'onde (qui est la vitesse du point initial de l'onde). En réalité, elle n'a pas toujours un sens physique simple ; elle peut être supérieure à c ou même négative ; la vitesse de transport de l'énergie n'est pas directement mesurable et pose également des problèmes de sens physique simple. Au moins 8 concepts de vitessespeuvent être utilisés pour caractériser la propagation de la lumière. Dans le vide, toutes ces vitesses sont égales à la constante c, mais dans un milieu, seule la vitesse du front conserve cette valeur.

En toute rigueur, la question de la constance de la vitesse de la lumière dans le vide, telle qu’observée par quantum d’énergie transportés par les photons, ne peut être totalement tranchée puisqu'il est théoriquement possible que les photons aient une masse non nulle : les mesures ne peuvent que plafonner cette masse hypothétique et non prouver qu'elle est rigoureusement nulle. Toutefois, même s'il était avéré que les photons ont une masse, cela ne remettrait pas en cause le principe de la constante c, mais donnerait plutôt une limite de précision de son observabilité dans les modèles de référence ; on conserverait avec c une limite absolue de vitesse que les photons observés ne pourraient pas eux-mêmes atteindre dans le vide. »

Que signifie cette polychromie de la vitesse de la lumière ? Avant tout, reconnaissons que c’est avec ces données, depuis J. Maxwell, que nous avons engagé une progression fabuleuse dans la compréhension de ce que serait la lumière, et puis la relativité restreinte est advenue. Ce qu’il me semble approprié de constater, c’est que la vitesse C est plus représentative des capacités d’inférer du sujet pensant que représentative d’une vérité qui coïnciderait absolument avec une propriété effective dans la Nature.

A propos de l’hypothèse du photon, qui est à l’origine de la mécanique quantique, grâce à l’hypothèse d’Einstein en 1905 pour rendre compte de l’effet photoélectique, l’’énergie’ du photon vient à point surtout pour donner un sens physique à un paramètre h, pure artéfact mathématique comme l’a précisé M. Planck dès 1900. N’oublions pas comme l’a fortement indiqué Heisenberg, que les concepts de la physique des quanta ne peuvent s’appliquer à un objet qu’à condition que notre connaissance de cet objet soit incomplète, et ceci statutairement : d’où les notions de complémentarité, d’indétermination et de lois statistiques, qui interdisent d’après lui qu’on établisse une ontologie de l’objet en question.

 

 

On peut encore constater que le processus d’appropriation-réduction de l’espace et du temps par l’anthrôpos serévèle d’une façon significative lorsqu’on exploite le concept d’espace-temps et qu’on tente de rendre compte des propriétés relatives à la lumière qui sont des propriétés limites (extrapolées) de nos capacités actuelles d’interprétation. Lisons les commentaires de J.M. Lachièze-Rey qui reconnaît des difficultés logiques d’interprétation avec les données contradictoires que l’on obtient avec un photon. In ‘Pour la Science’, novembre 2010, p.45 : « Il existe une durée en un sens « plus valable » que les autres. Les équations de la relativité indiquent que dans notre exemple, plus le trajet d’un observateur est proche de celui du photon émis par l’étoile, plus la durée qu’il va mesurer est petite. D’une façon générale, l’observateur qui est lié à un processus et l’accompagne du début à la fin mesurera la durée la plus petite possible. Nommée « durée propre », on peut considérer que c’est la vraie durée du processus. Dans notre exemple, la durée propre du phénomène est celle que mesurerait le photon. Or la relativité indique que la durée propre d’un photon est…nulle. Cela n’est qu’une manifestation du fait qu’il voyage à la vitesse limite, celle de la lumière ; de façon générale c’est vrai pour toute particule de masse nulle. Ainsi la durée propre du trajet du photon, de son émission dans une galaxie lointaine à sa réception, est nulle. On aurait pourtant envie de dire que le trajet dure des milliards d’années. »

Le même auteur nous indique le caractère inapproprié de l’usage de l’espace et du temps dans le traitement du ‘grain’ de lumière dans : ‘Initiation à la Cosmologie’, p.41 : « La relativité restreinte énonce que le rayonnement se propage toujours à la vitesse c, ce qui s’écrit simplement selon la relation ds = 0. Cette relation est conservée en relativité générale : les trajectoires du rayonnement correspondent aux courbes d’équation ds = 0, que l’on nomme géodésiques de longueur nulle. En effet, l’intégrale de la métrique le long de ces courbes est nulle par définition puisque ds = 0 tout le long. Il vaudrait mieux sans doute dire géodésique « de métrique nulle » puisque le concept de longueur évoque la partie purement spatiale de la métrique, mais l’expression est consacrée par l’usage. Insistons dès à présent sur le caractère mi-spatial mi-temporel de ces trajectoires : le long de la trajectoire d’un photon, ni l’intervalle de temps dt, ni celui d’espace R(t)dσ ne s’annulent. L’intervalle est donc bien mixte et l’on peut pressentir qu’il ne sera opportun de le caractériser ni par une distance ni par une durée. Le décalage vers le rouge z, de nature mixte, est la quantité la mieux adaptée. »

A juste raison certains physiciens ne sont pas dupes quant à la représentation du grain de lumière fruit d’une opération réductrice de la part du sujet pensant : « La vision du photon comme un petit grain de lumière est bien commode – cela évite de se poser des questions métaphysiques lorsqu’on allume la lumière – mais c’est une description imparfaite. » de J. M. Raimond (E.N.S, Paris)  de même « un photon est une excitation quantique élémentaire d’une onde classique. » in ‘Sciences et Avenir, Avril-Mai 2010, p.27.

Les contraintes que nous rencontrons avec l’étude de la lumière et conséquemment en relation avec C doivent être considérées comme des contraintes qui résultent des limites de nos capacités actuelles d’inférer et ne doivent pas être confondues avec des limites qui nous révèleraient une finitude des lois dans la nature. Il en est ainsi pour E = mc2. Il en est ainsi de la théorie quantique des champs qui marie mécanique quantique et relativité restreinte.

En résumé et dit autrement, en ce qui concerne le rayonnement de lumière, l’opération intellectuelle qui conduit à la déclaration de la certitude, par le sujet pensant, de l’objectivité, n’a plus de raison d’être. Cela n’efface pas pour autant que s’impose une vérité fondée, avec toutes les valeurs significatives qu’elle véhicule. Ici, la vérité fondée est l’invariance de la vitesse C. C, est peut-être correctement représentée par la vitesse de propagation de la lumière dans certaines circonstances, de toute façon, cette vérité fondée émerge de l’évaluation de ce que nous sommes en mesure de saisir à propos du rayonnement.

Comme indiqué précédemment, c’est à cause de la spécificité du processus de l’appropriation-réduction, et partant de la fondation de la dimension spatiale et de la dimension temporelle par l’anthrôpos, que nous sommes acculés à additionner les apories qui sont autant de sérieux obstacles dans notre actuelle progression vers une plus grande compréhension des propriétés de la Nature. (A ce propos, voir par exemple le dernier ouvrage de Lee Smolin : ‘La Renaissance du temps’, Pour en finir avec la crise de la physique. Dunod, 2014.)

A partir de ce constat, il est possible de laisser de côté ces apories et de reprendre une marche vers l’avant. Comme je l’ai indiqué, en ce qui concerne les objets qu’ils soient de notre facture ainsi que les objets naturellement matériels, ils sont traités d’une façon équivalente par notre conception de l’espace et du temps. Lorsque ces objets avoisinent C, il y a un autre processus d’appropriation-réduction qui entre en ligne de compte. Quelque part, il y a de ce fait une hétérogénéité significative de représentation et donc une incompatibilité entre ce qui est de l’ordre de la matière et de l’ordre de la lumière. Ainsi dans l’univers cogité par l’anthrôpos la matière doit se volatiliser. Dans le voisinage de C, la matière se brûle les ailes, elle ne peut pas être représentée en tant que telle, elle rejoint ainsi l’apparence identique à celle du rayonnement.

Je devine évidemment la réplique qui immanquablement surgira après la lecture de ce paragraphe et on me rappellera que E = mc2 n’est pas un fantasme que c’est une loi moult fois vérifiée. Je ne réfuterais pas ce propos mais je rappellerai que cette loi est vrai pour ce qui représente 4% de la matière qui compose Notre univers, pour le reste nous ne pouvons rien dire et encore moins dans d’autres univers que le Nôtre. Par exemple cette matière que nous qualifions de noire, composante de Notre univers en proportion significative, n’est peut-être pas astreinte à obéir à E = mc2 parce qu’elle n’émet pas une lumière de même nature, et peut-être qu’elle n’en n’émet point du tout, et donc n’est pas concernée par la vitesse limite C. Le sujet pensant que nous sommes ne peut donc pas saisir cette fameuse matière noire en suivant la même voie.

L’autre problème est celui de l’invariance de C, qui nous a conduits à la qualifier de constante universelle. Elle appartient à la catégorie des vérités fondées (en ce qui concerne Notre univers, uniquement) mais elle ne doit pas être considérée comme une vérité finale, indépassable, qui délimite absolument notre possibilité de connaissance. Il est considéré que la vitesse de la lumière n’obéit pas à la loi d’additivité des vitesses. Mais comme elle est considérée comme une vitesse limite, non atteignable dans l’état qui est le nôtre, il n’est pas exclu qu’elle se comporte comme toute grandeur asymptotique et qu’elle varie très petitement au point qu’elle nous apparaît comme invariante. Je fais cette remarque pour indiquer que l’essentiel n’est pas de remettre en cause ce résultat mais d’indiquer que le véritable enjeu est que le sujet pensant investisse au-delà. Ainsi dans un certain contexte cognitif (qui est encore essentiellement le nôtre actuellement) C invariant est une vérité fondée ; dans un contexte cognitif en devenir (dont les prémisses sont peut-être à l’œuvre) C invariant ne serait plus une vérité impliquée pour mettre en évidence des nouvelles propriétés dans la Nature et pour révéler un ou d’autres univers plus multiple sur le plan conceptuel.

Pour illustrer mon propos, je propose que l’on réfléchisse aux raisons pour lesquelles V.A. Kostelecky n’arrive pas à mettre en défaut la loi de la Relativité Restreinte et les conséquences qui en résultent. Le travail de Kostelecky consiste à rechercher par la voie expérimentale ou observationnelle des résultats qui contrediraient ou dévieraient de ceux prédits par la théorie de la R.R. Or, jusqu’alors, depuis au moins une décennie d’un travail très méticuleux dans de multiples directions, il a fait chou blanc. Selon ma thèse, la R.R. contribue directement à définir cet horizon cognitif indépassable actuellement. Donc V.A. Kostelecky analyse et interprète les résultats qu’il collecte avec la grille de lecture qui est la même que celle qui a prévalue à l’avènement de la R.R., en conséquence aucune discordance ne peut apparaître. Avec cet exemple je souhaite indiquer la puissance des nouveaux paradigmes qu’il faut planter dans le décor de la physique théorique pour dépasser les apories qui obstruent notre perspicacité intellectuelle.

La R.R. nous apparaît comme un masque parfait, à la fois elle nous masque un monde plus vaste et plus riche de propriétés physiques et en même temps elle nous fait ‘voir’ Notre monde (Notre univers) actuel comme étant sans faille.

Je souhaite maintenant évoquer le cas des neutrinos. A plusieurs occasions, lors de la production simultanée de photons et de neutrinos à l’occasion d’événements célestes comme par exemple l’explosion d’une supernova, il a été constaté que les neutrinos arrivent sur nos détecteurs avant les photons. Cela ne nous autorise pas de conjecturer que les neutrinos se déplacent à une vitesse supérieure à celle des photons. En effet il est communément pensé que les neutrinos interagissent si peu qu’ils ne sont pas englués dans la matière environnante à l’origine de leur production et donc leur libre parcours moyen est très important, alors que ce n’est pas le cas pour les photons qui interagissent avec la matière environnante par la voie de l’interaction E.M. d’où un engluement plus marqué et donc à ce niveau leur libre parcours moyen est moins important. Voilà comment la chose s’explique, et au niveau de la fusion thermonucléaire au cœur de notre astre, cela semble vérifiable. Toutefois il est certain que les neutrinos se déplace à des vitesses très voisinent à celle de la lumière. Il est certain que les propriétés qui caractérisent les neutrinos ne se laissent pas aisément saisir. Par exemple leurs masses sont toujours inconnues, toutes ces difficultés proviennent du fait qu’ils interagissent très, très… peu. Plusieurs de leurs propriétés sont déduites mais pas observées directement ou d’autres leurs sont conventionnellement attribuées. On leur prête le statut de particule (fermion) mais elles n’ont pas d’identité propre puisqu’on ne les désigne proprement qu’avec leur saveur, soit électronique, soit muonique, soit tauique, qui les attache au fermion parent, soit l’électron, soit le muon, soit le tau.

Les difficultés qui expliqueraient les raisons pour lesquelles les neutrinos ont toujours des propriétés physiques mal connues (depuis leur invention par Pauli en 1933) seraient leur très, très… faible interactivité. Je propose de laisser de côté cette propriété et mettre l’accent sur la propriété qu’ils se déplacent à des vitesses voisinent (qui peuvent être inférieures mais pourraient être aussi supérieures) à celle de la lumière. Propriété qui pourrait s’avérer avoir une valeur heuristique plus intéressante pour décrypter les propriétés physiques des neutrinos, notamment, entre autres, celle qui est attaché à la problématique de l’oscillation entre les saveurs. Enfin, je rappelle que depuis un certain temps, je propose d’annuler pour les neutrinos la contrainte E = mneutrinoC2 pour les caractériser car en tant que particule élémentaire sans charge, ils n’ont pas de masse d’inertie et donc cela représente une contrainte extrapolée qui n’a pas lieu de l’être.

Evidemment cet article en appelle d’autres !

                                     

                                                  Document Annexe

Lu, après écriture de l’article : de Gerald M. Edelman in ‘Biologie de la conscience’ (1992).

p.182 : « En termes d’évolution, il est apparu plus tard que le système tronc cérébral-système limbique, afin de permettre des comportements moteurs de plus en plus élaborés et la catégorisation des événements extérieurs. Les appendices corticaux – le cervelet, les ganglions de la base et l’hippocampe – sont apparus en même temps que le cortex pour traiter des aspects temporels et spatiaux, gérant la succession à la fois dans les mouvements réels et dans la mémoire. Les deux systèmes – tronc cérébral-système limbique et thalamo-cortical – furent reliés l’un à l’autre durant l’évolution…

p.183 : Il est certain que même des animaux qui ne font preuve d’aucun comportement conscient sont capables d’apprendre. Cependant, chez certaines espèces animales possédant un cortex cérébral, les catégorisations portant sur différentes parties du monde qui n’entretiennent pas de relations causales entre elles peuvent être corrélées et jointes pour entretenir une scène. Par le mot scène, j’entends un ensemble, ordonné dans l’espace et dans le temps (sic)...

C’est le développement, au cours de l’évolution, de la capacité de créer des scènes qui a entraîné l’apparition de la conscience primaire. Mais bien évidemment, si cette conscience a pu survivre, c’est certainement parce qu’elle a permis une meilleure adaptation."

 

 

 

 



[1]Bergson, qui en tant que philosophe, a beaucoup réfléchi à la problématique du temps et de l’espace a subitement considéré à la fin de sa réflexion que l’espace est du domaine de la science et que le temps est du domaine de la philosophie. Cette distinction n’est pas approuvée par Maurice Merleau-Ponty « Bergson a tort de parler d’une expérience interne du temps sans admettre que l’espace puisse être l’objet de considérations identiques. »

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens