Overblog
Suivre ce blog Administration + Créer mon blog
29 juillet 2016 5 29 /07 /juillet /2016 10:50

Abandonner l’hypothèse de la matière noire ?

L’hypothèse de l’abandon, de l’hypothèse de la matière noire, devient de moins en moins prématurée. En effet le détecteur le plus sensible conçu spécifiquement pour enregistrer d’éventuelles interactions avec des composants de la matière noire sous forme de WIMPs a rendu une nouvelle fois un verdict négatif. Cette annonce négative a été communiquée à la conférence : ‘Identification de la Matière Noire’ à Sheffield ces derniers jours. Le détecteur : ‘LUX’, (Large Underground Xénon) avait déjà inhibé l’enthousiasme des chercheurs en Novembre 2013, malgré des préannonces tonitruantes. Depuis la sensibilité avait été notablement améliorée mais après 20 mois de fonctionnement optimal, rien de positif n’a été identifié.

LUX désigne un détecteur enterré dans une mine du Dakota du Sud à 1500 mètres de profondeur, comprenant une cuve contenant 350 kg de Xénon liquide à -108°C. Il est prévu qu’il y ait des flashes de lumière quand les particules de matière noire interagissent ou rebondissent (avec) sur le Xénon.

Le présent article a été précédé par celui du 29/01/2015 : ‘Bilan de la recherche de la matière noire’ qui prévoit la déconvenue éprouvée à Sheffield la semaine passée. Je conseille de le relire.

La matière noire a été nommée ainsi parce que n’émettant aucune lumière à laquelle nous sommes sensibles soit directement soit indirectement, elle fut supposée comme étant composée de constituants élémentaires qui devaient interagir très faiblement entre eux et heurter la matière ordinaire. A part son côté obscur, rien de tout cela ne peut être vérifié expérimentalement. Parmi les partisans de ces hypothèses le doute s’insinue : « Peut-être que la matière noire n’est pas sous forme de WIMPs », « Ces résultats suggèrent que les jours sont comptés pour le modèle dominant de la matière noire. » L’autre voie envisagée de détection des WIMPs, serait de les produire au LHC, mais là encore aucune indication tangible n’a été observée au cours du premier run, et il ne faut pas espérer une communication plus favorable durant les prochaines conférences à venir pendant la première quinzaine d’Août, alors qu’aux dernières nouvelles le rendement du run 2 est très performant.

« Donc si la matière noire n’est pas constituée de WIMP’s, qu’est-ce que c’est ? Il n’y a pas de pénurie d’alternatives (sic). Les particules légères appelées ‘axions’ sont une option, tandis que des très petits trous noirs primordiaux résultant du Big Bang représentent une autre. » Cette affirmation est très étonnante car ces options ne sont pas moins fragiles que les WIMP’s puisque jamais observées malgré les recherches.

Est-ce que ces absences de découverte renforcent l’hypothèse formulée depuis 30 ans par M. Milgrom en ce qui concerne sa théorie ‘MOND’ ? Si on pose la question à Milgrom voici ce qu’il répond : « Je ne suis pas du tout surpris des annonces négatives à propos des recherches de matière noire. » Mais il souhaite que les recherches continuent. Car : « Ne pas trouver de matière noire à des sensibilités de plus en plus élevées, renforcera la théorie ‘MOND’. » Il considère clairement que sa théorie est la contrepartie qui s’imposera face aux échecs de résultat de la théorie de la matière noire : « Abandonner la recherche de matière noire n’aidera pas et conduira à une impasse. »

Il est programmé de restructurer LUX qui se dénommera LZ (Z de ZEPPELIN) qui aura une sensibilité 70 fois supérieure et sera opérationnel en 2020. Les physiciens qui s’expriment ne peuvent changer leur fusil d’épaule : « Ne pas trouver de WIMPS pourrait conduire les physiciens à penser à de nouveaux candidats pour la matière noire, toutefois l’option WIMPS est la meilleure option. »

Le point de vue de ce qui constitue celui majoritaire est respectable mais démontre une réelle inertie pour ne pas dire conservatisme qui nuit aux avancées de la connaissance scientifique comme je le précise à la fin de l’article du 29/01/2015. A l’extrême cela peut mener à un aveuglement inacceptable, voir article du 31/03/2015 : ‘L’objectivité scientifique exclut qu’elle soit parasitée par des problèmes de doctrine.’

Dans les siècles passés, il fallut beaucoup de temps pour mettre au rancart la physique mécaniste de Descartes qui faisait intervenir des rouages et des tourbillons pour rendre compte de ce qui apparaissait, à l’époque, comme étant plausible. Nous sommes probablement dans une période où nous devons nous émanciper d’une conception purement ‘matiériste’ qui obstrue actuellement nos capacités de concevoir des composants de l’Univers qui, pour nous, sont de fait totalement exotiques. J’ai déjà eu l’occasion d’exprimer un doute positif semblable à propos des neutrinos depuis plusieurs années mais les choses évoluent très lentement et il faut être patient. Ainsi j’ai pu lire, pour la première fois, dans un récent article (dans le CERN COURIER de juillet-août 2016) : « Puisque les neutrinos sont électriquement neutres, il est possible que les neutrinos acquièrent de la masse via un mécanisme différent. » C’est le début de l’idée que j’ai exprimée dès l’origine du Blog : article du 8/10/2011 : « L’hypothèse que les neutrinos comme les constituants de la matière noire pourraient ne pas être contraints par la loi de la R.R. : E = mc2, puisque non chargés électriquement doit être pris en compte. »

Partager cet article
Repost0
13 juillet 2016 3 13 /07 /juillet /2016 08:49

Penser l’émergence d’une nouvelle intelligence.

En écho à l’article du 21/06/2016 : ‘Evolutions des connaissances ; évolution de l’humanité.’, la revue ‘Pour la Science’ vient de publier un N° spécial juillet-septembre : « Intelligence. Notre cerveau a-t-il atteint ses limites ? » Il y aussi un avant-propos de Pascal Picq (paléoanthropologue au collège de France), ‘Le roman des intelligences’ que je joins in extenso à la fin du présent article.

Ce numéro comprend plusieurs articles inédits que vous pouvez lire avec profit. Quant à moi, je propose de souligner ici les thèmes qui retiennent plus particulièrement mon attention étant donné notre sujet principal.

p.50, l’article de J. Fagot : « L’être humain, un primate comme les autres ? » nous rappelle l’article du 02/12/2013 : « La fin comme celle du phénix ». Lorsque l’on questionne J. Fagot : « Des premiers singes aux humains, l’évolution cognitive serait donc linéaire ? », il répond : « Après trente ans de recherches, c’est mon impression dans bien des domaines. Certaines de nos expériences le confirme bien.» … Comment alors expliquer le grand écart entre le chimpanzé et l’humain ? « Les humains ont la particularité d’avoir une culture cumulative (sic), c’est-à-dire qu’ils apprennent (de leurs parents, de leurs enseignants…) et surtout qu’ils manipulent ces nouvelles informations pour les utiliser de façon différente et éventuellement plus efficace. Ainsi, petit à petit, nous avons amélioré nos savoirs et notre technologie avant de les retransmettre à la génération suivante (voir article du 26/09/2015 : ‘Non, on ne pense pas quantique. Pas encore !). Or il y a peu de démonstrations de cultures cumulatives chez les animaux… Il manque probablement chez l’animal un processus de structuration tel que l’on observe dans le langage humain. »

p52 : « La différence entre les primates et les humains tient également en quelques particularités. Ces derniers ont par exemple une pensée tournée vers l’avenir et peuvent prévoir ce qu’ils feront demain, après-demain… dans quelques années. Chez les primates chimpanzés, ils prévoient leur comportement mais sur des échelles de temps relativement courtes, de l’ordre de la demi-journée. On peut penser que cette anticipation à long terme s’est mise en place de façon très progressive au cours de l’évolution. » Est-ce que ce constat affirmé par J. Fargot : « une pensée tournée vers l’avenir » peut être en partie cause de l’incontournable observation en physique de l’irréversibilité ? Pour l’avenir, gardons présente à l’esprit cette interrogation.

L’autre article inédit (p.69), de Dietrich Stout, que je vous recommande, a pour titre « Un cerveau taillé pour l’intelligence ». En introduction il est écrit : « Le cerveau humain est aujourd’hui l’organe le plus complexe de la Terre. Pourquoi ? Peut-être grâce à la taille des pierres en outils (sic)… Cette activité aurait favorisé le développement des capacités mentales particulières. Pour le montrer, rien de mieux que de fabriquer aujourd’hui des haches en silex ! » C’est exactement l’activité qui est menée dans le laboratoire de D. Stout par une vingtaine de personnes et cela lui permet de nous confirmer un premier résultat : « On peut reconstituer le fonctionnement mental de nos ancêtres en observant (grâce à l’IRM) le cerveau d’individus taillant des silex de la même façon. On constate alors que la taille d’outils de pierre développe précisément les zones du cerveau qui se sont renforcées au fil des millions d’années. Les meilleurs tailleurs de silex survivaient mieux que les autres : l’accroissement de leur cerveau a été sélectionné par l’évolution. »

P.72, « Nos propres recherches ont accumulé des indices qui relient la capacité à construire des outils à des systèmes cérébraux sous-tendant le contrôle de soi et la planification – en lien direct avec cette donnée sur la taille des cerveaux de plusieurs espèces. Mais ce n’est pas tout : nos ancêtres tailleurs de pierre devaient aussi communiquer. Par gestes, mais aussi verbalement. »

J’avais déjà exprimé tout mon intérêt pour ce type de découverte, à l’époque bien plus embryonnaire, dans l’article du 10/10/2013 : ‘Comment nous sommes devenus avec/dans le langage ?’ Puisque ce résultat devient de plus en plus tangible, il faut s’interroger si nous ne sommes pas toujours sous l’influence d’un tropisme qui conditionne encore notre perception et notre compréhension des choses de la Nature. Sommes-nous émancipés de ce rapport exclusif avec la matière locale ? Sommes-nous à même d’avoir une intelligibilité inconditionnelle avec tous les autres composants qui seraient dans la Nature ? L’avenir du développement de nos connaissances en physique dépend de l’acceptation par les physiciens de ce questionnement.

P. Picq : Le roman des intelligences :

« Pour appréhender toute la diversité et la richesse des intelligences dans leur dynamique (évolutive ou individuelle), nous devons nous défaire d'une conception dualiste qui oppose humain et animal. C'est aussi essentiel pour que demain nous puissions cohabiter au mieux avec les nouvelles formes d'intelligence.

Du même auteur : La ronde des bipédies ; Une évolution buissonnante ; A l’Ouest d’Homo sapiens.

Sur la fin de sa vie, Charles Darwin se lia d'amitié avec un jeune chercheur du nom de George John Romanes. Leur relation commence par une longue lettre écrite par Romanes en 1874 alors qu'il développe ses recherches sur le système nerveux et locomoteur des méduses et des échinodermes. Darwin perçoit les potentialités de son jeune ami et l'encourage à développer ses recherches sur l'extension de sa théorie de la sélection naturelle à l'évolution mentale, autrement dit, de l'intelligence.

Après une première conférence sur le sujet en 1881, Romanes publie Animal intelligence en 1882, vite traduit et édité en français en 1887. C'est l'année de la mort de Darwin et dix ans après L'Expression des émotions chez l'homme et les animaux, le livre fondateur de l'éthologie qui, initialement, devait faire corps avec La Filiation de l'Homme en relation avec la sélection sexuelle en 1871. Romanes suit à la lettre, si on peut dire, la méthode et l'épistémologie de son maître : recueillir le plus grand nombre d'observations connues parmi les espèces, dont l'homme, faire ses propres recherches et les intégrer dans une approche scientifique évolutionniste. Deux ouvrages récapitulent ses recherches : Mental Evolution in Animals dans lequel il présente le manuscrit inédit de Darwin Essay on Instincts en 1883 et Mental Evolution in Man. Origins of Human Faculty en 1888. C'est dans ce dernier qu'il affirme : « On comprend comment, partie de si haut, la psychologie du singe peut engendrer celle de l'homme ».

Romanes ne part pas de rien, comme le supposent encore trop de théories de la psychologie qui maintiennent le dogme dualiste d'une intelligence humaine dénuée de tout héritage phylogénétique. Il a à sa disposition les notes et réflexions que Darwin lui avait données. De fait, elles étaient nombreuses, car – c'est méconnu – Darwin avait beaucoup étudié ces sujets, notamment le développement de l'intelligence chez l'enfant. D'ailleurs, ses travaux annoncent ceux de Jean Piaget ; ils seront publiés tardivement dans la revue Mind en 1877. Pourquoi avoir autant attendu ?

Parce qu'il considérait que l'état des connaissances et de ses connaissances ne permettait pas d'intégrer cette question dans L'Origine des espèces au moyen de la sélection naturelle, paru en 1859. Il s'en confie à son jeune ami alors qu'il travaille à son dernier livre La Formation de la terre végétale par l'action des vers de terre, publié en 1881. Cet ouvrage porte sur un des aspects les plus fascinants de l'« intelligence écologique » de la nature : le rôle des vers de terre dans la constitution des sols sur lesquels se fondent nos agricultures et nos civilisations. Ce livre prémonitoire sur une catastrophe écologique annoncée resta longtemps ignoré par nos civilisations aveuglées de progrès qui, au fil de l'histoire, ont édifié des représentations du monde considérées d'autant plus avancées qu'elles se distanciaient de la nature.

Vers le monde indéfini des instincts...

Alors, tous les êtres considérés comme proches de la nature se sont vu rejetés dans le monde indéfini des instincts : les femmes ont subi le sexisme, les sauvages le racisme, les animaux l'espécisme… Dans le même temps, la science a forgé des outils « objectifs » pour valider cette mise à l'écart, comme le célèbre qi (quotient intellectuel), inventé par Francis Galton, cousin de Charles Darwin. Le qi est calibré de telle sorte que, par exemple, trop de personnes croient encore que les hommes de Néandertal (voir Dans la tête de Néandertal, par K. Wong, page 54) ou nos ancêtres Cro-Magnon – qui avaient tous un cerveau plus gros que le nôtre – étaient moins intelligents que nous.

Les avancées de Romanes ont été contrées par le psychologue Lloyd Morgan et son canon : « Nous ne devons en aucun cas interpréter une action comme relevant de l'exercice de faculté de haut niveau, si celle-ci peut être interprétée comme relevant de l'exercice de facultés de niveau inférieur ». Cet aphorisme est resté marqué au fer rouge sur la porte d'entrée des laboratoires de psychologie comparée pour un siècle jusqu'à l'affirmation des sciences cognitives modernes.

Ce principe épistémologique est forgé au coin du bon sens scientifique, mais il a une conséquence perverse. Sous prétexte d'éviter les dérives dites anthropomorphiques, il réhabilite de fait le dualisme cartésien pour nos qualités mentales dites supérieures, telles l'empathie, la conscience, la morale... En simplifiant, toutes les grandes écoles de psychologies qui émergent du temps de Romanes et de Morgan, comme celles d'Ivan Pavlov, John Watson, Burrhus Skinner... se basent sur le canon de Morgan.

Il faut attendre les travaux des grands pionniers de l'éthologie tels que Karl von Frisch, Konrad Lorenz et Niko Tinbergen (nobélisés en 1973) pour que les observations sur les comportements s'inscrivent dans une véritable perspective évolutionniste. On doit à Tinbergen une avancée épistémologique majeure avec ses quatre questions fondamentales de l'éthologie. Dans les deux premières, il décrit les causes proximales : comment l'individu acquiert ses caractères (ontogenèse) et comment il interagit avec l'environnement (fonction). Les deux dernières questions, ultimes ou fondamentales, s'intéressent à l'évolution (la phylogenèse) et à l'adaptation de la population. Cette grille d'analyse devrait être au cœur des réflexions à mener dans notre monde actuel envahi par les machines intelligentes au risque de sombrer dans le syndrome de la Planète des singes.

Le syndrome de la Planète des singes

C'est en effet dans la nouvelle de Pierre Boule qu'on trouve une des meilleures explications du canon de Morgan. On y apprend que les grands singes ont pris le pouvoir parce que les humains avaient inventé une civilisation dans laquelle des machines produisaient leurs besoins avec des grands singes domestiqués pour les servir. Alors, au fil du temps, les humains se dissocièrent de la nature et cessèrent d'êtres actifs physiquement et intellectuellement.

Or depuis Romanes et Morgan, les sciences psychologiques mènent une guerre de tranchée neuronale pour sauver le statut ontologique de l'homme, c'est-à-dire son statut à part du propre de l'homme. Il en va ainsi de la conscience et de la morale. D'ailleurs, c'est lors de la première John Romanes Lecture que l'immense Thomas Huxley donne une conférence séminale intitulée Evolution and Ethics en 1893. Il défend la thèse que seuls les humains sont capables de comportements moraux envers leurs congénères. Son petit-fils Julian, premier secrétaire général de l'Unesco, reprend la thèse de son illustre aïeul dans une autre Romanes Lecture exactement cinquante ans plus tard. Cette question de la morale – avec la conscience et l'empathie – se retrouve chez des auteurs actuels notamment Patrick Tort, avec son principe d'effet réversif de l'évolution, qui explique que les humains peuvent agir contre les effets néfastes de la sélection naturelle.

Ce fardeau dualiste marque profondément les recherches sur les origines et l'évolution non pas de l'intelligence, mais des intelligences. Charles Darwin était consterné par la dérive spiritualiste de son époque, notamment chez son collège Russel Wallace, le codécouvreur de la sélection naturelle. Wallace fonde le darwinisme en considérant que tous les phénomènes de la vie ne peuvent et doivent s'expliquer que par la sélection naturelle. Mais il n'arrive pas à comprendre l'émergence de la conscience et des capacités « mentales supérieures », alors il plonge dans le spiritualisme.

Si on admet l'importance du canon de Morgan et sa vertu parcimonieuse, c'est-à-dire sa propension à ne prendre en compte que le minimum de causes, il finit tout de même par heurter un autre principe parcimonieux : celui de la phylogénie. En effet, si deux espèces issues d'un même ancêtre commun manifestent les mêmes caractères, c'est qu'ils proviennent d'un ancêtre commun exclusif ou du dernier ancêtre commun. Et pour reconstituer l'arbre phylogénétique des intelligences, il faut connaître leurs formes d'expressions chez les autres espèces.

À partir de là, une tout autre perspective scientifique s'ouvre à notre entendement trop longtemps borné par les postulats dualistes et cartésiens. Certes, de Descartes à Morgan, on se félicite d'une méthode qui engage les recherches sur des éléments constitutifs de l'intelligence, qui, plus pertinemment, s'orientent vers les intelligences et, in fine, autorise le travail minutieux de la reconstitution phylogénétique, comme l'illustrent certains articles de ce Dossier. Néanmoins, le spectre dualiste à la peau dure, même si les grands auteurs comme Darwin et Romanes évitent de parler de l'homme et de l'animal en précisant de l'homme et des animaux !

Malgré l'excellence de nombreux chercheurs et laboratoires français, notre grand pays scientifique reste globalement en retard sur les études en éthologie et en psychologie comparée. Pourquoi ? À cause de notre ontologie dualiste. Pourquoi le Japon a-t-il la meilleure école d'éthologie du monde ? Parce que les Japonais sont animistes. Et l'on découvre que nos grands programmes scientifiques reposent sur nos ontologies fondamentales... De fait, en France on doit « prouver » que les chimpanzés ont de l'empathie alors qu'au Japon il faudrait « prouver » qu'ils en sont dépourvus. Et ça, c'est tout à fait humain. Mais prenons garde, ce n'est pas que des avancées des connaissances dont il est question. Notre avenir en dépend dans le monde qui se met en place, car la façon dont on perçoit les animaux est la même qui prévaut envers les robots.

Les articles réunis dans ce Dossier décrivent la diversité des intelligences dans le règne animal, leur dynamique dans les espèces humaines depuis l'aube de l'humanité ainsi que la dynamique, la complexité et le potentiel de celle que l'on veut bien nous prêter aujourd'hui.

Le « second âge des machines »

Comment situer l'intelligence humaine – qui n'est pas la seule à être munie de différents types de consciences – entre les intelligences naturelles et l'émergence des intelligences artificielles dont les algorithmes ont déjà pénétré tous les aspects de nos vies ? Le « second âge des machines » est déjà là et toutes nos formes d'intelligences associées aux capacités cognitives de notre cerveau gauche (logique, analytique, algorithmique, objectif, rationnel...) se trouvent en concurrence avec des robots et des algorithmes devenant toujours plus performants. Or, nos programmes scolaires et notre éducation privilégient ces capacités cognitives en négligeant celles de notre cerveau droit qui, pour l'instant, échappent aux machines (synthèse, holistique, émotions, artistique, intuitif...). Nous entrons dans la troisième coévolution.

La première coévolution concerne tous les organismes vivants et leurs interactions. La deuxième se met en place avec les premiers hommes (Homo erectus) avec des innovations techniques et culturelles, comme la cuisson et la taille des outils (voir Un cerveau taillé pour l'intelligence, par D. Stout, page 68), qui modifient et sélectionnent nos organismes, des gènes aux capacités cognitives. La troisième se manifeste depuis le début du xxie siècle avec l'impact des nbic (nanotechnologies, biologie naturelle et de synthèse, sciences informatiques et cognitives).

Mais contrairement aux sirènes du transhumanisme qui postulent que l'évolution est arrivée à son terme et que nos technologies doivent prendre le relais, il faut penser notre avenir en fonction des interactions de ces trois coévolutions ; l'émergence, en quelque sorte, d'une nouvelle intelligence. Car, fondamentalement, c'est quoi l'intelligence ? Essentiellement des interactions. Des vers de terre aux neurones en passant par les individus et les puces électroniques, toute intelligence est une propriété émergente des interactions.

Le syndrome de la Planète des singes est un signal. Notre humanité doit se remettre en marche. Notre cervelet possède 70 milliards de neurones connectés à l'ensemble de notre corps et de notre cerveau et des études récentes montrent que la marche, et tout particulièrement dans un bout de nature, augmente notre créativité de 60 % ; et c'est encore mieux avec les autres. Dépêchons-nous tant que les robots marchent comme des pantins et tant qu'ils n'ont pas de cerveau gauche. L'avenir déjà engagé de l'humanité se dicte ainsi : soit l'intelligence artificielle nous dépasse, soit nous devenons des humains doués d'intelligences augmentées. Il est temps que j'aille me promener dans la campagne comme ce cher Darwin... pour l'avenir de l'humanité ! »

Partager cet article
Repost0
7 juillet 2016 4 07 /07 /juillet /2016 07:39

Déterminations et limites de la mesure du temps ?

Cet article doit être considéré comme un essai puisque c’est un article d’anticipation, dans le sens où j’anticipe en proposant des corrélations nouvelles entre des phénomènes observés et connus, pour interroger jusqu’à quelle limite précise nous pouvons mesurer un intervalle de temps. Et si ces limites existent et deviennent définissables, qu’est-ce que cela implique à propos de nos capacités humaines de connaître les lois de la physique dans la Nature ?

C’est en écoutant un des exposés, réalisé à l’académie des sciences le 24 mai 2016, sur le thème : ‘Cent ans de révolutions quantiques’ et particulièrement celui de Christophe Salomon du laboratoire Kastler Brossel qui a pour intitulé : ‘La mesure du Temps, passé, présent et avenir’, que j’ai pensé me lancer dans cette proposition d’essai. La vidéoconférence est toujours accessible sur le site de l’académie des sciences.

L’auteur de l’exposé, d’emblée, rappelle à juste raison que ce que l’on mesure ce sont des intervalles de temps et non pas le temps. Et rappelle aussi, à juste raison, que la précision de la mesure de ceux-ci dépend de l’environnement gravitationnel dans lequel fonctionne les horloges. Cette dépendante étant parfaitement comprise dans la loi de la Relativité Générale et qui est schématiquement illustrée par les traits d’union de l’équivalence : R.G. = Matière-Espace-Temps

A la fin de son exposé Ch. Salomon, dans le paragraphe 4, nous dit « Les fluctuations du potentiel gravitationnel de notre planète Terre vont limiter la précision de la mesure du temps au sol à 10-18 – 10-19s : Solution pour diminuer cet inconvénient : mettre les horloges de références en orbite haute où ces fluctuations sont fortement réduites. »

« Autre possibilité, dans le futur, utiliser l’intrication pour améliorer la précision des mesures. »

Donc ce qui est dit dans cet exposé c’est que notre environnement physique actuel nous contraint à ne pouvoir réaliser, d’un point de vue instrumental, des intervalles de temps qui ne peuvent être infiniment précis. Le projet d’échapper à notre environnement physique immédiat et de placer les horloges en orbite haute n’offre pas pour autant la précision infinie hypothétique puisque les fluctuations sont réduites mais pas annulées. Ici, de fait, notre capacité de mesure d’intervalle de temps, au moyen d’un instrument, est in-fine déterminée par un environnement physique auquel on ne peut échapper et un champ gravitationnel parfaitement stationnaire est objectivement inenvisageable.

Je rappelle que mon hypothèse anthropologique essentielle considère que l’être humain ne peut être, d’un point de vue existentiel, sensible à des intervalles de temps plus petit que 10-25 – 10-26s, en-deçà il est intellectuellement et rédhibitoirement aveugle et ne peut donc plus rien concevoir. Cette détermination-ci n’est pas instrumentale mais pourrait être corroborée par ce qui est rapportée par Ch. Salomon.

Il est possible de considérer que cette détermination est intrinsèque à l’être humain et qu’elle est le fruit de son évolution au sens de Darwin. Acceptons, en premier lieu, de faire un détour suggéré par les articles tout récents qui nous disent : « Evidence possible de la découverte d’une capacité humaine de détecter le champ magnétique terrestre ». Cette évidence nous est proposée par Joe Kirschvink qui a consacré beaucoup de sa vie de chercheur à prouver ou à réfuter que l’être humain aurait une habilité à détecter et à répondre au champ magnétique terrestre. Il a montré expérimentalement des variations des ondes cérébrales de personnes volontaires installées dans des pièces avec des champs magnétiques contrôlés. Ceci est déjà longuement étudié chez les animaux et c’est ainsi que l’on explique couramment la détermination des parcours des migrations des oiseaux par exemple. Il y a le Modèle Magnétique qui est basé sur l’idée que la magnétite (oxyde naturel de fer Fe3O4, doué de magnétisme) présente dans le corps des organismes vivants serait tirée par le champ magnétique terrestre, contrôlant le circuit neuronal. Il y a aussi le Modèle du Cryptochrome qui est basé sur l’idée que les cryptochromes dans la rétine de l’œil atteignant, naturellement ou artificiellement, certains états quantiques interagissent avec le champ magnétique. C’est le premier modèle que Kirschvink privilégie chez les humains et qui s’interprète correctement selon ses expériences. Les personnes volontaires enfermées dans les pièces où est simulé le champ magnétique terrestre sont installées sur une machine EEG (électroencéphalogramme) pour mesurer les ondes cérébrales alpha. Les résultats de cette expérience réalisée à la fois en Californie et au Japon, méritent d’être consolidées mais l‘auteur est optimiste car il a prouvé que les humains sont dotés de détecteurs magnétiques.

Au-delà de cette observation, il faut en tirer une conclusion, qui est bien plus significative à mes yeux, que celle que nous serions dotés d’une capacité de détecter le champ magnétique terrestre, en fait la conclusion importante c’est que nous sommes dépendant de ce champ magnétique terrestre qui est permanent, donc l’interaction serait continue. Cela veut dire que par rapport à notre planète Terre nous ne sommes pas une île mais sur le plan de cette interaction physique nous serions au moins une presqu’île.

Il y a une interaction avec notre planète Terre qui épaissit significativement l’isthme qui nous relie à celle-ci, c’est l’interaction gravitationnelle. Celle-ci nous a physiquement, corporellement, formatés. Dans le corporel, il y aussi la matière cérébrale et sans être un spécialiste on peut dire que l’agencement des neurones a, d’une certaine façon, dépendu de cet interaction au cours de l’évolution qui a fait ce que nous sommes présentement. En 2 millions d’années, le cerveau des hominines : 600 gr, s’est développé jusqu’à 1300 gr pour l’homme moderne. Cette interaction est toujours là et nous devons y être toujours continument sensibles. C’est au point de cette constatation qu’il faut prendre en compte l’affirmation de Ch. Salomon : « Les fluctuations du potentiel gravitationnel de notre planète Terre vont limiter la précision de la mesure du temps au sol à 10-18 – 10-19s »

Dans l’ordre des choses on peut envisager que sur le plan cérébral nous devons subir d’une façon ou d’une autre ces fluctuations du potentiel gravitationnel dont nous dépendons. Ceci devrait induire une difficulté intrinsèque en tant que lecteur d’un instrument de mesure d’intervalles de temps de plus en plus petits. L’être humain étant ce qu’il est, on peut considérer qu’il est capable de sublimer, voire transcender, au moins en partie cette détermination physique mais il devrait y avoir une conséquence résiduelle. Si elle existe on devrait buter sur celle-ci d’une façon ou d’une autre.

Mon hypothèse : TpS, n’est pas de même nature puisque je la qualifie d’existentielle. Quelle est la détermination qui s’impose l’une par rapport à l’autre ? Convergent-elles ? Si oui, il y aurait alors matière à réflexions.

Si ce que je viens de proposer est crédible il faut s’interroger sur le sens qu’aurait ce que l’on appelle le temps de Planck ainsi que la longueur de même nom, etc… Il m’est arrivé plusieurs fois de qualifier ces grandeurs comme des grandeurs hors-sol. Ici ce qualificatif est approprié au premier degré. Sans minimiser les facultés intellectuelles du sujet pensant, il n’est pas possible de le penser comme un intellectuel pur, ni comme un intellectuel borné (dans le sens où il aurait atteint les bornes de sa progression). A suivre...

Partager cet article
Repost0
30 juin 2016 4 30 /06 /juin /2016 09:49

Le modèle standard de la cosmologie en questions.

Il a suffi de quelques mois depuis le début de 2016 pour que soit sérieusement considéré un questionnement important et multiple qui remette en cause la conception dominante du modèle standard de la cosmologie.

Lorsqu’il fut publié, le 11/02/2016, la première détection d’ondes gravitationnelles sur les interféromètres Virgo, il fut en conséquence, en même temps, publié l’existence dans l’univers de trous noirs de tailles intermédiaires (quelques dizaines de masse solaire). C’était aussi une première ! Alors, il fut rapidement conjecturé que ces trous noirs pouvaient être des trous noirs primordiaux et qu’il y aurait une densité non négligeable de ces objets par unité de volume de l’univers tel que nous pensons le connaître. Si cette hypothèse est avérée cela signifie qu’un taux de détection de ces trous noirs peut être projeté. Cela signifie peut-être aussi que nous avons découvert une des composantes de la partie noire dans l’univers que nous avons dénommé jusqu’à présent matière noire et qui n’a jamais été détectée en tant que telle malgré plus de 30 années de recherche. Cette hypothèse s’est imposée rapidement en mars et des publications allant dans ce sens ont été soumises à la communauté scientifique.

Toutefois ces premiers articles sont peu précis car ils évoquent l’hypothèse que ces trous noirs primordiaux pourraient être cette matière noire jamais détectée mais ils maintiennent toujours l’idée de celle-ci dans sa constitution en particules élémentaires car elle est un pilier de la genèse du cosmos post big-bang avec l’hypothèse de la formation des puits de potentiel qui assurent la formation des grumeaux de la matière baryonique. Ainsi on peut lire : « Le spectre de ces masses, et donc les abondances de trous noirs primordiaux reliques dans l’univers, dépendent des conditions de la naissance du cosmos observable. Ce spectre reste inconnu mais des contraintes peuvent être posées, par exemple en étudiant les fluctuations du rayonnement fossile, les grandes structures formées par les amas de galaxies… et la matière noire. En effet, ces trous noirs primordiaux sont des candidats naturels pour expliquer l’existence d’au moins une partie (sic) de celle-ci puisqu’ils ne rayonnent pas. » Cette hypothèse des trous noirs est viable si leurs masses sont comprises entre environ dix et cent masses solaires, ce qui semble le cas. Au-delà de cent masses solaires on estime que l’on pourrait, et que l’on aurait déjà dû les détecter grâce à leurs effets lentilles gravitationnelles. Ce qui n’a jamais été le cas jusqu’à présent.

Le 15 juin il y eut une belle coïncidence, à la fois l’annonce d’une 2e détection de la coalescence de 2 trous noirs de l’ordre de dix masses solaires, ce qui va dans le sens de ce qui est écrit ci-dessus. Mais il y eut aussi la publication d’un article « Est-ce que le détecteur d’onde gravitationnelle a trouvé la matière noire ? », dans le ‘Physical Review letters’, présentée par 8 physiciens de l’université Johns Hopkins. Dans ce papier, d’après les calculs entrepris depuis février, ces chercheurs confirment que les objets détectés par Ligo cadrent par leurs masses à ce qui est attribué à celles des trous noirs primordiaux. « Il a été considéré que les trous noirs primordiaux se seraient formés, non pas à partir d’étoiles, mais par la fusion de larges nuages étendus de gaz pendant la naissance de l’univers. Cette idée avait été laissée de côté car aucune détection de ces objets n’avait confirmé cette hypothèse. La découverte de Ligo, replace dans l’actualité cette hypothèse. Spécialement puisque les objets détectés sont conformes à la masse prédite pour la matière noire. Prédictions faites dans le passé en accord avec les conditions à la naissance de l’univers et qui auraient prévues une grande quantité de ces trous noirs primordiaux régulièrement distribués dans l’univers, se regroupant en halos autour des galaxies. Tout ceci rend crédible l’hypothèse que nous tenons de bons candidats de la matière noire. » Ici, il est proposé que cette grande quantité de trous noirs se substitue à la totalité de cette fameuse hypothétique matière noire granulaire représentant 25,9% de ce qui compose l’univers. Cela est plus net que ce qui est suggéré dans l’article précédent que j’ai cité mais les physiciens prennent une précaution : « Nous ne proposons pas que ceci est la matière noire, nous n’allons pas parier notre maison sur ce sujet, ceci est avant tout un argument plausible. »

Comme on le constate les choses évoluent à tâtons, mais une fissure importante est ouverte dans le scénario prédominant, depuis quelques décennies, du Big-Bang et de la genèse de l’univers. Une autre fissure pas du tout négligeable est nouvellement constatée et auscultée, fissure provoquée par le constat que la vitesse d’expansion de l’univers ne serait pas celle établie par l’équipe du satellite Planck et publiée en janvier 2015, soit 68 km/s/Mpc. Précisons tout de suite que cette évaluation (Planck et précédemment par WMAP) correspond à une expansion après le Big-Bang. Au début juin, une publication très fiable rend compte que l’univers a une vitesse d’expansion de l’ordre de 5 à 9% plus grande que celle évaluée précédemment. Précisons tout de suite que cette nouvelle évaluation correspond à une mesure bien au-delà du Big-Bang. Etant donné que cette nouvelle évaluation est fiable, cette découverte constitue une indication sérieuse qu’il faut proposer un scénario par lequel un raccordement de ces deux vitesses d’expansion est plausible et vérifiable. Il est extrêmement probable qu’il faut réévaluer voire remettre en cause ces énigmatiques 95% de composants sombre de l’univers, soit la matière noire et l’énergie sombre.

La première possibilité pour expliquer cette nouvelle valeur de la vitesse d’expansion, est de considérer que l’énergie sombre, présentement considérée responsable de l’accélération de l’expansion, pousserez les galaxies les unes des autres avec une force plus grande ou croissante.

La deuxième possibilité est de considérer que le cosmos contient de fait une nouvelle particule subatomique dans sa genèse primordiale et qui se déplace à une vitesse voisine de celle de la lumière. De telles particules sont désignées comme des éléments de ‘radiation noire’ et incluraient par exemple les neutrinos (sic). Plus d’énergie provenant d’un supplément de radiation noire serait a priori le plus évident pour expliquer la moindre vitesse d’expansion au tout début de l’univers.

L’accroissement de l’accélération peut aussi signifier que la matière noire possède une étrange propriété totalement inattendue.

Finalement, la vitesse plus grande d’expansion de l’univers peut aussi nous dire que la théorie de la gravité d’Einstein est incomplète.

Revenons sur cette hypothèse de radiation noire et de sa source qui pourrait être un ou des neutrino(s) différent(s) de ceux déjà identifiés. Quelle est la phénoménologie que cela induirait ? La proposition provisoire consiste à considérer que de la masse piégée à la vitesse voisine de la lumière, véhiculée par exemple par le neutrino stérile, ce serait refroidie rapidement au début de l’expansion, perdant de l’énergie et donc perdant de l’influence attractive (n’oublions pas que dans la loi de la R.G. le tenseur qui représente l’intensité de la force de gravitation est le tenseur matière-énergie). Donc en prenant en compte ce supplément d’énergie variant (diminuant) au cours de l’univers primordial on prend en compte que l’attraction gravitationnelle perd de son intensité au cours de l’expansion primordiale. Le frein à cette expansion faibli. Avec ce scénario on peut valider les deux valeurs distinctes de la vitesse d’expansion, celles-ci se raccordant progressivement au cours de l’évolution du cosmos.

De plus le neutrino stérile pourrait avoir une utilité supplémentaire concernant une autre énigme à propos du déficit de la quantité du lithium observée dans le gaz primordial. Ce déficit n’est pas négligeable (de l’ordre d’un tiers manquant par rapport à la quantité normale prévue) et pour l’expliquer on formule l’hypothèse que l’action de ce neutrino stérile serait la cause de ce déficit. Je ne développe pas plus car ce n’est pas essentiel aujourd’hui.

Que penser de cette inclusion d’un ou des neutrinos pour expliquer cette différence de la vitesse d’expansion entre des périodes de l’évolution du cosmos ? On pourrait penser que c’est une explication opportuniste car les propriétés des neutrinos sont tellement mal connues que l’on peut les caser dans de nombreux scénarios qui comblent nos ignorances provisoires. Cela me conduit à rappeler que de tout temps je prétends qu’il faut penser en terme de la physique des neutrinos et non pas de propriétés physiques des neutrinos. Selon moi, les neutrinos sont les vecteurs d’une physique à découvrir, à comprendre, et non pas vecteurs de la physique du modèle standard. Cette conception alternative est exposée dès la présentation de mon blog le 8/10/2011.

Dans les explications récentes, il est supposé qu’un neutrino serait la source de la radiation noire, cela laisse entendre que celui-ci se déplacerait à une vitesse voisine de celle de la lumière sans pour autant la dépasser. Mon hypothèse est que les neutrinos ne sont pas contraints par la relativité restreinte, ils n’ont pas de masse d’inertie et le fait qu’ils sont des particules avec une masse mais sans charge les différencient des autres particules du modèle standard. Voir article du 14/10/2015 : ‘Nouveau prix Nobel pour les neutrinos.’

En résumé, le modèle standard de la cosmologie connaît depuis peu des fissures significatives et prometteuses qui vont nous conduire vers une révision profonde de celui-ci. Ce fameux big-bang va devenir de moins en moins justifié jusqu’à ce que l’on conçoive un univers bien plus vaste, plus multiple, et la physique à comprendre des neutrinos nous fournira des clés favorables à ce déploiement. Nous allons changer de cosmogonie, celle relative au modèle standard actuel s’est appuyée sur une origine. Nous allons la dissoudre et la projeter au-delà car l’être humain a toujours besoin d’une origine pour poser sa pensée afin qu’elle se déploie et fertilise de nouvelles hypothèses et de nouvelles conclusions jusqu’à ce qu’elles deviennent contradictoires et superflues.

Partager cet article
Repost0
21 juin 2016 2 21 /06 /juin /2016 12:19

Evolutions des connaissances ; évolution de l’humanité.

Dans l’article précédent, à propos de N. Gisin, il est intéressant de retenir qu’il y a de sa part une recommandation qui mérite toute notre attention : « Finalement, la physique – et la science en générale – est l’activité humaine qui a comme but de décrire et de comprendre comment la Nature fonctionne. Pour cette raison on a besoin de décrire comment les humains interagissent avec la nature, comment on questionne la nature. » Gisin renvoie à un ouvrage de Schrödinger de 1958 : ‘Esprit et Matière’ Cambridge Univ. Press. Cette référence nous indique que cette question est posée depuis longtemps (surtout depuis l’avènement de la mécanique quantique) mais sans aucun progrès utile, significatif. Je confirme que Gisin nous fait une recommandation sans toutefois s’atteler lui-même au problème. C’est en général le type de recommandation que l’on rencontre en fin d’article, ce qui ressemble à une ponctuation intellectuelle qui a vocation à interpeller le lecteur sans que cela engage l’auteur à entreprendre la tâche. Effectivement c’est un travail ardu et qui va à contre-courant du métier entendu habituellement du physicien considérant que muni de l’équipement mathématique le plus développé, il n’a pas besoin de se mettre en jeux en tant que sujet pensant. Tout au contraire, la croyance amplement partagée est celle d’une science physique, science objective, excluant qu’une moindre composante de subjectivité imprègne le contenu de ses lois.

Dans l’article du 18/03/2015 : ‘Décrypter la physique comme une science de l’interface de l’être humain et de la Nature’, j’ai voulu signifier qu’il était maintenant possible de concevoir que la dynamique de la connaissance en physique se nourrissait d’une confrontation évolutive causée par le besoin et le désir de savoir de l’être humain. C’est donc une distanciation que je propose. L’être humain est la cause, l’acteur, et la Nature est la source. Bien évidemment l’intelligibilité de cette interface ne peut pas nous apparaitre en temps réel. En l’occurrence cette intelligibilité ne peut nous apparaitre qu’à travers une analyse historique profonde qui intègre le processus de l’évolution de l’humanité au sein de la Nature pour survivre face à sa dureté, jusqu’à forger le projet de la dominer.

La paléoanthropologie est une science qui a atteint, maintenant, un tel niveau de développement et partant de maturité que l’on peut se référer à celle-ci, pour identifier des jalons solides contribuant à valider cette hypothèse d’interface. Majoritairement les paléoanthropologues sont d’accord pour constater que les ancêtres de Homo sapiens (hominines) sont ceux qui ont survécu aux changements climatiques, qui ont su s’adapter, ont su contrecarrer, contourner, les duretés de ces changements. Les premiers Homo surgissent quand les Australopithèques disparaissent et cela remonte autour d’il y a 2 millions d’années.

Dans l’article du 21/07/2015 : ‘La seconde naissance de l’homme’, nourri de l’ouvrage du même titre, publié en 2015, j’ai puisé des références qui me permettent d’étayer mon propos, notamment pour ce qui constitue, selon l’auteur, l’assimilation intellectuelle (sic) du temps et de l’espace à travers une évaluation de l’amplitude chronologique et spatiale nécessaire à l’accès aux proies ou aux cueillettes. C’est il y a de l’ordre de 2 millions d’années que ce processus d’assimilation intellectuelle a été identifié. Quel est donc le statut que l’on pourrait attribuer à ce qui ressemble à une conception première d’un marquage par les moyens d’une composante spatiale et d’une composante temporelle pour se situer et se projeter. Le caractère extrêmement utilitaire de ce processus, nous oblige à constater la prégnance de la subjectivité. Subjectivité difficile à spécifier car elle concerne les premiers Homos dont il est difficile d’évaluer comment et avec quelle intensité il se distingue de la nature en tant que sujet pensant embryonnaire. Je cite : « « Les temps paléolithiques, dont la très longue durée (quelques 2 500 000 ans) n’avait connu, en dépit de remarquables exemples d’adaptation aux contextes environnementaux, aucun affranchissement fondamental à l’égard de ceux-ci. L’homme ne pouvait jusque-là que négocier avec la nature et gérer au mieux les ressources que celle-ci lui proposait. Elle était dominante, lui dominé. »

La composante spatiale et la composante temporelle ainsi que la synthèse spatio-temporelle sont toujours pour nous des ingrédients fondamentaux qui contribuent à notre structuration intellectuelle et contribuent à mettre en ordre notre pensée scientifique. Toutefois, l’objectivation de l’espace et du temps est toujours insaisissable. Le sera-t-elle un jour ? Après tout, étant donné ce que nous disent les paléoanthropologues, est-ce une quête impossible voire erronée ? L’espace et le temps, l’espace-temps, sont tellement constitutifs de ce que nous sommes qu’il est vain voire absurde de vouloir les penser et a fortiori de les concevoir hors-de-soi. Privilégier la fondation du temps et de l’espace par le sujet pensant comme je le propose me semble l’hypothèse la mieux appropriée. Ceci n’a jamais été un principe, c’est de moins en moins un postulat et ce serait donc de plus en plus un fait.

Maintenant, je me réfère à un livre nouveau, mai 2016, « Origines de l’humanité : les nouveaux scénarios », édit : la ville brûle. Je ne peux que recommander de le lire, je vais surtout proposer d’attirer votre attention sur les questions qui concernent le rapport avec les objets de la nature, leur appropriation pour les façonner et tenter de décrypter l’évolution intellectuelle que cela suppose afin de s’émanciper de cette Nature.

Le chapitre : « Quels sont les liens entre évolution biologique et culturelle entre -2 et -0,2 millions d’années ? » :

p.105 : « les populations d’Homo erectus ont manifestement été capables de s’adapter à des environnements très différents dans toute l’Eurasie. Que nous apprennent ces traces archéologiques de leur mode de vie ? Elles nous apprennent que leur adaptation s’est probablement faite au départ sans aucune maîtrise du feu : aucune trace de maîtrise – voire même d’utilisation du feu – n’a été trouvée dans les gisements des sites les plus anciens. L’adaptation se fait avec des systèmes de production d’éclats de pierre très simples. Et il va se passer quelques centaines de milliers d’années avant d’arriver à un système plus complexe : la fabrication d’outils et de supports d’outils bifaciaux, qui marque l’entrée dans l’Acheuléen en Europe. (Les premiers bifaces sont vieux de près de 500 000 ans en Europe alors qu’ils sont vieux de près de 1,7 millions d’années en Afrique.) » Sur ce sujet de la taille volontaire de la pierre pour instrumentaliser celle-ci, je renvoie à la lecture de l’article du 10/10/ 2013 : ‘Comment nous sommes devenus avec/dans le langage’, qui cite un article précisant qu’il y aurait une concomitance sérieuse entre le début du développement du langage et la capacité à travailler le silex pour fabriquer des outils. Ceci a été confirmé dans une publication plus récente. Ce serait donc, grâce à l’intercession du besoin de façonner des objets de la nature immédiate que Homo Ergaster ce serait engagé dans la voie extraordinaire de l’être de langage. De là, tenter d’imaginer un parallélisme entre donner forme et volume à du silex et donner sens et volume aux sons qui sortent de la bouche, il y a, à coup sûr, bien des étapes à franchir au cas où cette thèse aurait du sens.

« Le feu serait réellement domestiqué et clairement imbriqué de manière récurrente dans le mode de vie des hommes à partir de -400 000 ans en Europe… Le feu et ses conséquences sur l’alimentation (cuisson potentielle des aliments, de la viande mais aussi d’un lot de tubercules par exemple) ont sans doute eu des répercussions sur l’évolution de l’Homme en ce sens que la viande cuite fournit davantage d’énergie et présente donc des avantages métaboliques… Il semble que la cuisson assure une plus grande diversité alimentaire, offre de nouvelles solutions pour conserver les aliments et épargne à l’organisme un coûteux travail digestif, ce qui pourrait constituer une coévolution entre les pratiques alimentaires et des traits biologiques comme le développement de l’encéphale. » Ainsi, comme il est précisé, p.114 : « L’encéphalisation, l’ontogenèse et la durée de l’immaturité des spécimens sont liées. Ainsi, en considérant que les fossiles d’Homo Dmanisi avaient une capacité crânienne de 650 cm3, les Homo erectus les plus récents étant plus jeunes d’un million d’années devaient avoir une capacité crânienne d’environ 1200 cm3. »

Parallèlement : « En ce qui concerne les traditions techniques, les outillages, il y a sur le temps long une tendance vers des formes moins aléatoires, plus standardisées ou stéréotypées, ou en tous cas pensées à l’avance (sic). De manière caricaturale, on va passer des traditions d’éclats et galets aménagés du monde Oldowayen (-2,6 et -1,8 millions d’années), où l’on recherche un tranchant et où chaque éclat est de forme relativement variable, au monde Acheuléen avec le biface, qui a une structure symétrique (déjà cette symétrie naturelle qui concentre et éveille la pensée) beaucoup plus complexe, qui est beaucoup plus difficile à confectionner et d’utilisation plus élaborée puisque certains bifaces sont pareils au principe des couteaux suisses et incluent plusieurs outils en un, certaines zones de l’objet pouvant servir à couper, d’autres à racler… »

« Du point de vue cérébrale, deux modifications se produisent, la partie gauche du cerveau n’est pas le reflet exacte de la partie droite… Les humains de cette période ont un cerveau qui devient disproportionné par rapport à la taille de leur corps. Il y a de plus en plus de matière cérébrale produite pour une taille corporelle qui reste à peu près équivalente à celle des prédécesseurs. »

Notre cerveau continue à évoluer, peut-être plus en ce qui concerne son volume sauf s’il y a encore des possibilités d’accroissement et d’approfondissement des plis au sein du cortex. L’évolution que l’on peut véritablement évoquer est celle qui correspond à la multiplication des connexions entre les neurones dont 1/3 des 60 milliards sont disponibles. Par exemple, grâce au développement de nos capacités techniques illustrées par notre capacité à réaliser des instruments de plus en plus ingénieux pour sonder notre Univers, il s’ensuit, grâce à cette conquête d’un au-delà toujours plus vaste, que notre potentiel intellectuel pour concevoir de prochains savoirs s’enrichit d’une façon que l’on peut qualifier d’exponentiel. On peut faire l’hypothèse que l’extension de notre filet intellectuel permet le développement de nos capacités d’inférer et cela prépare le terrain à de nouvelles conquêtes. Peut-être que dans 100 000 ans, ou avant, les paléoanthropologues de cette époque pourront mesurer cette (r)évolution.

Bien que j’utilise ce type de référence, qui sont les nôtres actuellement, je n’ai pas du tout la volonté de minimiser le processus bien plus terre à terre par lequel nos ancêtres se sont dégagés de l’emprise de la Nature et j’ai la conviction que ce serait une erreur cruciale car nous sommes dans cette lignée. Ainsi on peut lire p.142 : « Effectivement, les Hommes modernes du Paléolithique supérieur eurasiatique témoignent d’un tout autre rapport aux animaux et à la nature en général que leur prédécesseurs néanderthaliens. L’animal voit ses propres armes naturelles, les bois des cervidés en l’occurrence, se retourner contre lui. C’est en effet principalement aux dépens de bois de rennes que les aurignaciens et leurs successeurs du Paléolithique supérieur vont confectionner de redoutables pointes de sagaie, qu’ils pouvaient aussi armer de petits morceaux de silex standardisés pour augmenter le pouvoir pénétrant de ces armes. On saisit ici combien l’Homme se défait alors des griffes de la nature, s’en émancipe en la « dominant » de manière symbolique. »

Quand on sait que nous avons pu envoyer des satellites ou des sondes dans l’espace en sachant à la fois vaincre la gravitation naturelle de la terre et utiliser celle des autres objets célestes pour les projeter bien plus loin, ou les satelliser, on peut s’interroger si au bout du compte nous ne sommes pas toujours en cours d’exploiter le même paradigme ?

Il y a toujours des griffes de la nature qui nous enserrent. Nous nous libérons de leur étreinte quand nous levons le voile sur des nouvelles propriétés et lois physiques. Cette dynamique s’est engagée il y a 2 millions d’années. Ainsi, l’Être dans la Nature continue de consolider le socle qui favorise son surplomb et concomitamment l’Être de la Nature continue de perdre de son épaisseur et de sa prépondérance.

Partager cet article
Repost0
3 juin 2016 5 03 /06 /juin /2016 08:27

Bienvenu au ‘Temps créatif’ de Nicolas Gisin.

Le 02/05/2013, j’ai déjà exprimé une bienvenue à l’adresse de Lee Smolin, avec l’article : ‘Bienvenu au ‘Moment Présent’ de Lee Smolin’ faisant référence à l’époque à un article de l’auteur sur le site du NewScientist qui sera suivi en 2014 par un livre en français : ‘La Renaissance du temps : pour en finir avec la crise de la physique’, édit. Dunod. Mon enthousiasme était dû au fait que je rencontrais pour la première fois un travail très élaboré d’une conception du temps et d’une habilitation de celui-ci qui rejoignait la mienne. La convergence principale s’effectue entre mon hypothèse de ‘l’Instant Présent’, avec celle de Smolin : le ‘Moment Présent’. Au-delà nos points de vue se séparent puisque Smolin conjecture que le temps est un donné réel alors que pour moi le temps est fondé grâce à la ‘Présence’ du sujet pensant qui doit être réellement inclue dans le décryptage des lois de la nature auxquelles nous accédons au fur et à mesure de nos investigations et de nos conquêtes de celles-ci.

Nicolas Gisin, avec son concept de ‘Temps Créatif’, apporte de l’eau à notre moulin d’une façon significative. Nous devenons un trio de précurseurs, comme les 3 mousquetaires (qui étaient 4), espérons que nous allons emporter la victoire. Selon Gisin ce temps créatif qui à la valeur d’un instant, d’un moment, s’impose grâce, primordialement, au ‘libre arbitre’ de l’être humain qui est une ressource fondamentale de l’être humain quand il pense quel que soit le domaine de sa pensée. En conséquence le flux du temps est de notre monde et il faut rétablir cette compréhension pour retrouver les voies des bons raisonnements en science physique. Au-delà, comme avec Smolin, je diverge beaucoup avec sa conception des choses mais je considère, étant donné l’état de l’art, que c’est secondaire car ce qui est fondamental, et c’est là que tout se joue, c’est d’introduire comme inexpugnable l’‘Instant Présent’, quelle que soit la signification première qu’on lui attribue, et reconnaître qu’il a un rôle pivot autorisant une nouvelle conception du temps. Clairement, il y a matière à un nouveau paradigme permettant de sortir de l’ornière la physique théorique et fondamentale.

Enfin, avec Gisin, je rencontre une convergence explicite à propos de la cause réelle de la mésinterprétation du temps : ce sont les lois de la relativité d’Einstein et donc de sa conception de la perception de la nature du monde. Chez Smolin, j’étais resté interrogatif à la lecture de son livre car comme on dit : il a tourné autour du pot, mais n’a pas franchi le Rubicond, ce que fait Gisin bien qu’il ajoute dans son article (arxiv : 1602.01497v1) en incise : « désolé Einstein ». Moi aussi, en incise, j’éprouve le besoin de commenter ces excuses qui en disent beaucoup sur la difficulté d’oser s’opposer à la conception réaliste einsteinienne de la connaissance de la nature. Comme je l’ai déjà indiqué cette Totémisation a des conséquences redoutables et cause de sclérose de la pensée en physique. Espérons que Gisin a entrouvert une fenêtre, bien qu’il soit dans la ligne de la pensée de Bell, c’est-à-dire celle des réalistes.

Dans l’article du NewScientist du 18 Mai de N. Gisin au titre radical « La physique a tué le libre arbitre et le flux du temps. Nous devons revenir en arrière (sic).» Je cite, partant de Newton et de « Sa loi de la gravitation universelle qui de fait implique une théorie déterministe, donc ce qui arrive aujourd’hui était fixé hier et donc était déterminé par les conditions initiales du Big-Bang ; rien de véritablement nouveau ne se produit. » « Cela devient encore plus impénétrable avec la relativité d’Einstein, qui montre qu’il n’y a pas de définition unique d’évènements simultanés. Pour cadrer ceci avec un univers déterminé, une figure connue comme ‘l’univers bloc’ émerge (voir livre de L. Smolin : la renaissance du temps, pages 62-69). Ici nous nous passons non seulement de libre arbitre mais aussi de l’écoulement du temps. Passé, présent et futur sont gelés dans un énorme bloc de glace. Le présent dans lequel nous sommes libres de penser et d’être – dans lequel nous exerçons notre libre arbitre – est juste aussi illusoire que le ‘libre arbitre’ lui-même. »

Dans le livre de Smolin et dans les pages citées, on lit : « Si vous ôtez de la description de la nature donnée par la relativité restreinte tout ce qui correspond à des observations faites par des observateurs particuliers, ce qui reste est la structure causale. Puisque c’est tout ce qui est indépendant de l’observateur, cela doit correspondre – si la théorie est correcte – à la réalité physique (sic). » ; « L’image de l’histoire de l’univers, prise en une fois, comme un système d’événements reliés par des relations causales, est appelée univers bloc. » ; « Avec l’univers bloc culmine le mouvement entamé par Galilée et Descartes pour traiter le temps comme s’il s’agissait d’une autre dimension d’espace. Il donne une description de l’histoire entière de l’univers sous la forme d’un objet mathématique, qui comme nous l’avons noté dans le chapitre 1, est intemporel. Si vous croyez qu’il correspond à ce qui est objectivement réel dans la nature, vous supposez que l’univers est fondamentalement intemporel. Cette image de l’univers bloc est la seconde étape dans l’éradication du temps découlant de la théorie d’Einstein de la relativité restreinte. » ; « De l’histoire de l’univers entier représenté en relativité générale, le résultat est encore l’image de l’univers bloc. »

Ce qui est pointé par Smolin ci-dessus : «Puisque c’est tout ce qui est indépendant de l’observateur, … – à la réalité physique (sic). », est exactement ce qui m’avait intellectuellement secoué, il y a 10 ans en rencontrant cette réflexion d’Einstein : « Seules les coïncidences spatio-temporelles sont réelles. Et rien d’autre ! » Ce réalisme appuyé exprime une condition essentielle : l’évacuation de l’observateur. Et c’est le refus de cette incongruité qui m’a amené à introduire le paradigme de la ‘Présence’ du sujet pensant, (de l’être réflexif), ce qui implique τs ou TpS (temps propre du sujet pensant) estimé de l’ordre de 10-25s. Entre autres, voir article du 02/11/2012 : ‘Un Monde en ‘Présence’’ et celui du 01/01/2013 ‘Un Monde en ‘Présence’ II’. Les 3 mousquetaires : Smolin, Gisin, et moi-même, faisons le même diagnostique, et formulons une hypothèse a priori suffisamment semblable pour produire une sortie d’impasse dans laquelle se trouve la physique aujourd’hui.

La conception de N. Gisin est centrée sur la propriété fondamentale qu’il attribue à l’être humain qui est celle du ‘libre arbitre’. Je ne pense pas que cela soit un bon choix parce qu’en premier lieu le libre arbitre est une qualité certes spécifique à l’être humain mais évolutive, donc pas si fondamentale comme l’est la ‘Présence’ qui est immuable comme un phare qui est dressé et éclaire l’océan. A mon sens le libre arbitre évolue avec les acquis de la connaissance, plus on dispose de connaissances plus nos capacités d’arbitrage sont affûtées et plus la liberté va grandissante. Ainsi avec l’argument du libre arbitre on prend le risque de donner du grain à moudre à ceux qui l’interprèteront comme une introduction néfaste de la subjectivité dans le corpus de la physique et s’en serviront pour rejeter cette idée nouvelle. Avec le concept de la ‘Présence’, on introduit un concept qui est un invariant, quelle que soit l’évolution du sujet pensant. Comme on le sait, les physiciens ont besoin d’ancrer le produit de leur pensée sur des éléments invariants et c’est légitime. Cette façon de concevoir les choses permet aussi d’accepter l’idée, à mon sens importante, de l’évolution (au sens de la phénoménologie Darwinienne) de la pensée en physique. Par exemple, il y a quelques jours une découverte originale a été faite d’une grotte aménagée, comprenant des outils travaillés, des aménagements géométriques, dans le Tarn et Garonne, il y a 170.000 ans, par l’homme de Neandertal. Une paléoanthropologue n’hésite pas à nous dire que dans cette grotte nous avons des preuves de ce que le développement cérébral de Neandertal permettait déjà de concevoir et de faire. Cette dynamique du développement cérébrale doit être prise en compte pour mieux situer l’émergence des concepts de la physique qui visent à mieux rendre compte des propriétés de la nature que l’on contribue ainsi à situer hors-de-soi.

En adhérant à cette dynamique on évite l’erreur que nous propose N. Gisin de revenir en arrière car c’est en analysant ce qui est erroné et, même plus, ce qui est cause de régression de la pensée que l’on peut faire des progrès remarquables. Voir article : ‘Une seconde naissance de l’homme’ du 21/07/2015 ; article ‘Là, où, pense Homo Sapiens’ du 03/02/2016.

Les concepts franchement novateurs de Smolin et de Gisin ont l’inconvénient de n’être que qualitatifs ce qui limite la possibilité dans le cadre du corpus de la physique de les exploiter pour les soumettre à la question. A mon concept de la ‘Présence’ se trouve étroitement associé le ‘TpS’ avec la valeur de l’ordre 10-25s, ce qui impliquerait que sur des durées plus petites, l’intelligence du sujet pensant soit rédhibitoirement aveugle. Ceci peut être testé, pas encore d’une façon définitive mais nous pouvons déjà apprécier des bornes dépassables ou indépassables sachant que nous avons techniquement la capacité de mesurer des intervalles de temps de 10-18s. 10-21s à 10-22s est déjà de l’ordre de l’acquis indirect, peut être que 10-26s va s’imposer. Cette dernière évaluation est obtenue par l’intermédiaire de la limite de l’intervalle de distance = 10-18m, la plus petite mesurable dans l’interféromètre Ligo. En prenant en compte C, cela nous conduit à une aptitude potentielle d’apprécier jusqu’au mieux 10-26s.

A la fin de l’article publié dans arXiv, N. Gisin dit : « Finalement, parce que la physique – et la science en général – est l’activité humaine ayant pour but de décrire et de comprendre comment la Nature fonctionne. Pour cette raison nous devons décrire aussi comment l’être humain interagit avec la nature, comment on la questionne. » Evidemment, je suis en total accord avec cette proposition fondamentale. On peut aller plus loin encore en intégrant dans cette proposition, le versant de la question : comment l’être humain évolue en se frottant et en conquérant une compréhension de la Nature ? Dans le but de mettre en œuvre ce questionnement, j’ai proposé le 18/03/2015 : ‘Décrypter la physique comme une interface de l’être humain et de la Nature.’ et le 10/11/2015 : ‘Principe de causalité : construction de l’esprit ou loi dans la nature ?

Partager cet article
Repost0
27 mai 2016 5 27 /05 /mai /2016 09:36

L’évolution de la silhouette de l’humain

Ces derniers temps, j’ai eu l’occasion de citer des réflexions et des recommandations de physiciens qui rappelaient que les avancées des connaissances en physique dépendraient des facultés propres de l’être humain et non pas préalablement d’équation plus aboutie. J’en rappel quelques-unes :

Article de la revue : NewScientists du 27 avril, dans la série des étrangetés physiques étaient pointées : ‘L’intrication quantique qui mutile (malmène) l’espace et le temps’ : « Depuis l’an passé, nous avons la certitude que l’action fantôme à distance est crédible sans aucune échappatoire. Cette spécificité doit être considérée comme une caractéristique fondamentale de la nature. Ainsi le problème repose sur notre perception de l’espace et du temps. »

Ici, ce qui est préconisé par M. Brooks, c’est d’approfondir encore et encore notre perception de l’espace et du temps, avec l’espoir que dans ce processus la nature de ces deux concepts finira par être mieux comprise. Pour lui évidemment, ce n’est pas uniquement une affaire d’équation juste, c’est l’affaire d’une meilleure perception conduisant à une idée plus juste permettant ainsi, au moins, de rendre compte de ce phénomène de l’intrication qualifié de bizarre. Présenter ainsi la résolution de l’énigme de l’intrication c’est supposer que l’être humain est perfectible dans sa façon de percevoir l’espace et le temps c’est-à-dire que le sujet pensant dispose toujours au moins d’une marge d’évolution intellectuelle significative.

Il n’y a pas longtemps, j’ai cité des idées intéressantes d’A. Barrau (voir article du 12/04/2016 :

« … Nos manières d’appréhender cet « autre part » n’en demeure pas moins humaines et créées. Il faut rester conscient que cette tentative d’exploration du loin n’est entreprise qu’avec nos modalités purement et inéluctablement humaines et donc locales. Nous choisissons les rapports au(x) monde(s) que nous jugeons pertinents. Ils ne sont pas donnés, ils sont construits… La science est une louable tentative d’accéder au non-humain-du-réel. Elle devrait être toujours consciente de ses limites. » Bref : « La science est construite et pratiquée par des hommes et oublier cela n’est pas nécessairement lui rendre service. »

Là encore, avec A. Barrau, il est mis en évidence d’une façon très explicite la primauté des facultés d’inférence de l’être humain. Il est donc important de prendre sérieusement en considération le fait que si on progresse dans la compréhension fondamentale des modalités de ces facultés on peut parallèlement espérer être en mesure de mieux séparer le bon grain de l’ivraie, et en conséquence on distinguera avec plus d’intelligence ce qui est de l’ordre du réel hors de l’humain de ce qui est plus spécifiquement de l’ordre de l’humain.

Vient de sortir un livre avec le titre : ‘La Silhouette de l’Humain. Quelle place pour le naturalisme dans le monde d’aujourd’hui ?’, livre de Daniel Andler, édit. Nrf essais. L’auteur est reconnu en tant que philosophe des sciences et mathématicien. L’objectif de l’auteur est, de révéler une silhouette plus précise de l’humain, de définir des nouvelles frontières entre ce qui de l’ordre de l’humain et de l’ordre du non-humain. Ce non-humain ne pouvant être que de l’ordre de la nature.

Dans mon enseignement depuis 10 ans sur le thème : ‘Faire de la physique avec ou sans ‘Présence’’, je développe l’idée que l’Être humain résulte de la cohabitation de l’Être de la nature et l’Être dans la nature : Voir article du 02/11/2012 et celui du 01/01/2013. L’être dans la nature est en surplomb de la nature, on pourrait supposer que c’est par excellence le physicien dont la compétence et la mission est de conquérir un savoir sur le non-humain-du-réel, conquête toujours limité du fait qu’il est un être de la nature, nature qui le détermine et réduit l’élan de son émancipation. Aucune étape d’une conquête d’un savoir significatif sur le non-humain-du-réel ne peut constituer une réduction de l’humain, au contraire cette conquête implique une réduction de ce qui le détermine et elle est à coup sûr un enrichissement existentiel de l’être dans la nature.

Je reviens au livre de D. Andler. Avant tout, il faut déblayer le terrain pour atteindre un périmètre correcte de que signifie naturalisme. Il ne faut pas non plus l’isoler de son opposé car comme l’indique l’auteur : « l’opposition entre nature et non-nature dépend d’un contexte ontologique, théologique, scientifique qui varie d’une époque à l’autre. » On peut dire que depuis les années 1950, un flux abondant d’ouvrages de scientifiques, neurobiologistes pour la plupart, mais aussi linguistes, psychologues et anthropologues nous a tenus informés de l’émergence et des développements des sciences cognitives. Ceci contribue à la constitution de programmes de naturalisation. L’idée que l’esprit humain est un objet du même type que ceux dont s’occupent les sciences de la nature se renforce. Balayant ainsi les résistances de la phénoménologie ou la de la psychologie traditionnelle, pour qui l’esprit procède d’une essence différente de celles des choses. Les progrès spectaculaires des neurosciences du cerveau et leur application aux sciences cognitives, celles qui traitent de l’esprit, sont tels qu’on pourrait déjà considérer par extrapolation que la nature embrasse tout ce qui existe (sic). Il peut être légitime de considérer que plus on arrive à dévoiler des fonctionnements cérébraux qui relèvent d’une organisation spécifique observable, reproductible, plus on puisse considérer que ce sont des mécanismes naturelles qui sont responsables de cette organisation. Contrairement à ce que l’on pouvait croire auparavant, le poids de l’inné n’est plus aussi imposant, et l’identification de processus naturel autorise de mettre en avant le poids de l’éducation.

Prenons l’exemple de l’article cité le 23/04 : ‘Comment fonctionne le cerveau des grands mathématiciens’ in ‘Pour la Science’ : Pour réfléchir aux concepts mathématiques complexes, les experts utilisent des régions de leur cerveau impliquées dans les calculs « simples », contrairement aux non-mathématiciens chez qui ces aires restent inactives.

Auteurs de l’article : M. Amalric et S. Dehaene, Origins of the brain networks for advanced mathematics in expert mathematicians, PNAS, en ligne le 11 avril 2016.

« Cédric Villani, mathématicien lauréat de la médaille Fields, et autres brillants chercheurs en mathématiques ont-ils un cerveau distinct du nôtre ? En d’autres termes, les mathématiques de haut niveau mettent-elles en jeu des régions cérébrales particulières ? Oui, ou du moins, les mathématiciens n’utilisent pas leur cerveau de la même façon que le « novice », selon Marie Amalric et Stanislas Dehaene, du Centre NeuroSpin à Paris-Saclay.

Tous deux ont cherché à déterminer l’origine des aptitudes en mathématiques en enregistrant l’activité cérébrale par IRM fonctionnelle de 15 mathématiciens professionnels (hommes et femmes, âgés en moyenne de 29 ans), comparées à celle de 15 personnes ayant des niveaux d’études semblables mais non expertes en mathématiques. Stanislas Dehaene et ses collègues avaient déjà montré que nous sommes tous aptes à faire des mathématiques – quoi que l’on puisse croire… –, comme nous sommes tous capables de parler, car nous avons tous une « bosse » des maths qui nous permet de manipuler les nombres et de calculer. Elle correspond à différentes régions cérébrales : le cortex préfrontal, les sillons intra-pariétaux, ainsi que les aires temporales inférieures des deux hémisphères, découvertes très récemment.

Selon Marie Amalric et Stanislas Dehaene, trois étapes interviennent dans toutes activités mathématiques. D’abord, le fait de se représenter de façon intuitive des nombres et des quantités, une aptitude présente chez l’homme dès sa naissance ainsi que chez certains animaux. Ensuite, le fait que nous y attachions des symboles, ce qui nous permet de progresser. Enfin, l’automatisation de la réflexion. L’éducation et l’apprentissage des mathématiques modifient les zones d’activation cérébrales. Quand une tâche nécessite des efforts, par exemple quand un enfant âgé de 5 ou 6 ans doit additionner 2 et 6, l’ensemble du réseau s’active (cortex préfrontal, sillon intra-pariétal et cortex temporal inférieur). Après automatisation, l’addition mobilise uniquement les sillons intra-pariétaux, les cortex préfrontal et temporaux devenant « libres » pour d’autres réflexions supposant un effort mental. Et ce réseau cérébral des maths ne correspond pas à celui du langage, une autre aptitude caractéristique de notre espèce.

Alors pourquoi certaines personnes sont-elles plus douées en maths ? Les chercheurs ont proposé aux mathématiciens et aux sujets témoins d’écouter des propositions mathématiques compliquées correspondant à différents domaines (algèbre, analyse, géométrie et topologie), comme « tout compact convexe d’un espace euclidien est l’intersection d’une famille de boules fermées » ou « la projection stéréographique admet pour caractéristique d’Euler la racine carrée de 2 », ainsi que des phrases complexes dans d’autres thématiques, par exemple « dans l’Antiquité, en Grèce, un citoyen ne payant pas ses dettes devenait un esclave » ou « Léonard de Vinci a rencontré Machiavel ». Les participants devaient dire si la proposition était juste, fausse ou dénuée de sens.

Ainsi, dans le cerveau de tous les participants, les aires associées au langage et à sa compréhension s’activent quand ils réfléchissent aux phrases de culture générale. Et tous répondent correctement à environ deux tiers des propositions. En revanche, quand les sujets entendent puis analysent les propositions mathématiques, les régions correspondant aux nombres, aux calculs et aux représentations dans l’espace ne « s’allument » que chez les mathématiciens experts, qui donnent des réponses correctes dans 65 % des cas (comparés aux 37 % des non mathématiciens).

La « bosse » des maths des experts serait donc dédiée à la réflexion (après automatisation des tâches mathématiques plus simples), celle des novices restant cantonnée à la manipulation des nombres et aux calculs. Et les mathématiques de haut niveau « recyclent » des fonctions cérébrales anciennes du point de vue de l’évolution.

Dès lors, ces résultats confirment l’existence de régions cérébrales associées aux mathématiques, et indépendantes de celles traitant le langage. Mais nous ne serions pas tous égaux : Stanislas Dehaene et ses collègues avaient déjà constaté que plus des enfants manipulent bien les nombres, de façon intuitive, plus ils ont de chances d’arriver à comprendre des concepts mathématiques compliqués en grandissant. Toutefois, correctement entraînées, par l’éducation et l’apprentissage, la « bosse » des maths permettrait à tout à chacun de comprendre les mathématiques, au-delà des simples calculs algébriques (et aucune étude n’a montré que les femmes ont moins de facultés que les hommes dans ce domaine)… »

Avec cet exemple, peut-on considérer que cette objectivation du fonctionnement cérébral des grands mathématiciens à la différence des non-mathématiciens nous autorise à inférer qu’il y a une ligne de partage entre ce qui est de l’ordre naturel et ce qui ne l’est pas ? Pour moi c’est oui car cette expérience permet de réduire ce qui est de l’ordre de l’inné (propre à chaque individu) et elle montre ce qui est de l’ordre de l’apprentissage, de l’automatisation, avec des zones de mémorisation. Le fait que l’on puisse mettre en évidence ce qui est caractérisable comme du ‘fonctionnement’ du cerveau dans ce type d’expérience nous permet de penser qu’il y a des sous-bassement naturels à la pensée mathématiques. Il y a de fait une réduction de ce qui pouvait être considérée comme de la pure prouesse intellectuelle attachée à de l’étoffe humaine, à des qualités humaines personnalisées mais cette banalisation a une contrepartie car ce nouveau savoir devrait permettre à un plus grand nombre d’acquérir plus d’agilité intellectuelle en mathématique.

A plusieurs occasions nous avons été intéressés par des résultats d’expériences proposés par S. Dehaene, chercheur dont les travaux me semblent probants. Il ne faut pas pour autant sous-estimer que ce domaine de recherche est traversé par des courants divergents. Comme le rappel D. Andler : « La naturalisation de l’esprit achoppe sur le comportement de l’agent en situation en contexte. Le monde est trop compliqué pour qu’on puisse établir un catalogue des situations possibles et des règles à appliquer dans chacune. S’imaginer un univers où tout serait objet de science, reste une utopie. »

Ces résultats obtenus grâce aux techniques de l’IRMf (f de fonctionnel) seraient contestables. P206-207 : « Selon beaucoup de critiques, les résultats de la neuro-imagerie sont généralement peu robustes. Pourquoi dès lors ne pas renoncer à cet instrument, qui a l’inconvénient d’être, à l’échelle des sciences cognitives, extraordinairement lourd et couteux ? De fait, elle est une source irremplaçable de savoir (sic) quand bien même ce savoir, à lui seul, demeure beaucoup trop incomplet et fragile pour être utile. L’IRMf est un excellent outil pour formuler des hypothèses intelligentes, fondées sur des données, mais ce n’est que dans certains cas particuliers qu’elle est vraiment utile pour choisir, parmi ces hypothèses, la meilleure… »

En se référant aux résultats de Dehaene, on peut avancer qu’avec cette compréhension des spécificités du fonctionnement cérébrale dans le cas du traitement des mathématiques, il y a moins de mystère à propos des aptitudes en math, il y a moins de fatalité puisqu’une amélioration des apprentissages peut être organisée. Nous avons un exemple qui nous indique que le sujet pensant peut agir sur lui-même pour améliorer ses facultés intrinsèques de sujet pensant. Quand on subit moins on acquiert une plus grande liberté d’action. On pourrait citer aussi les résultats des travaux de l’imagerie cérébrale à propos de la dyslexie, la dyscalculie, travaux qui permettent dans certains cas de réduire significativement les effets négatifs de ces dys. car en exploitant la plasticité cérébrale reconnue surtout chez les jeunes sujets on a la possibilité de réduire l’ampleur de ces handicapes peut-être même les annuler. Dans les articles publiés dans ‘Le Monde’ daté du 25/05 est mis en évidence un nouveau concept qui commence à être mis en œuvre : ‘La neuroéducation’.

Je cite quelques lignes d’un de ces 3 articles qui fait référence à l’histoire d’un prof de maths. Au bord du désespoir : « Il y a une dizaine d’années, il participe à un énième projet éducatif pour des lycéens en difficulté. Ceux-ci sont réunis dans une classe à petit effectif, sous la houlette de professeurs motivés et appréciés. Mais malgré la créativité de ces derniers, les élèves stagnent, et Eric Gaspard est prêt à jeter l’éponge. La même semaine, il lit dans un article que 50% des gens sont persuadés que les capacités intellectuelles sont figées. C’est un déclic. Un tel fatalisme, réalise-t-il, peut suffire à réduire à néant tous les efforts des enseignants. Le prof de maths se plonge alors dans des ouvrages de neurosciences, et retrousse ses manches… dix ans après son bilan est très significatif.» A lire dans son intégralité.

Ce qui est certain c’est que la réflexion du sens commun qui dit : « Il y en a qui sont plus doués que d’autres, c’est humain ! », se trouve être prise à contre-pied, car la différence, ici pointée, n’est pas à cause d’un facteur proprement humain mais à cause d’un fonctionnement cérébral sur lequel il est possible d’agir (sans prothèse). A partir de là, on peut considérer qu’il est, qu’il sera, permis à un plus grand nombre de personnes d’accéder à des connaissances par les voies du langage mathématique. Et en se référant à l’article du monde on peut généraliser : qu’il sera permis à un plus grand nombre de personnes d’accéder à des connaissances par toutes les voies de la réflexion. Avec ces exemples on fait un bilan intéressant de la conception d’une interaction dynamique à l’œuvre entre l’être de la nature et l’être dans la nature. On peut faire aussi une évaluation intéressante de comment on peut lever des déterminations d’origine naturelle (qui ne peuvent être qu’ainsi) et qui interfèrent négativement au développement de l’étoffe proprement humaine.

Partager cet article
Repost0
10 mai 2016 2 10 /05 /mai /2016 11:47

Questionnement circulaire à propos de l’espace-temps.

L’article que je propose aujourd’hui peut apparaître comme étant particulièrement circulaire. En effet, son contenu boucle sur une analyse, que j’espère appropriée, de ceux qui sont convaincus que la loi de la Relativité Générale véhicule des propriétés et des concepts exacts sans failles. Je me concentre plus particulièrement sur le fait qu’il est considéré que l’espace-temps est subordonné au champ gravitationnel qui est du domaine de la ‘réalité’ pour ceux-là. Etant donné que la crise de la physique fondamentale depuis plusieurs décennies est très corrélée à une incompréhension effective de la nature de l’espace et du temps, il vaut la peine de tenter de creuser ce sujet quand des opportunités nouvelles se présentent.

Le 5 Avril dernier, l’Académie des Sciences a organisé une conférence qui rendait compte de la détection des ondes gravitationnelles annoncée le 11/02/2016. Les différentes interventions sont accessibles en vidéo et celle de Fabien Cavalier : ‘La première détection directe des ondes gravitationnelles’ a retenu toute mon attention surtout à partir de la minute 38. En effet, un des auditeurs lui pose la question suivante : « Est-ce qu’à travers ces travaux on peut dire que l’espace-temps Einsteinien qui est plat quand il n’y a rien (sic), a une réalité, une existence, intrinsèque, indépendante, et que les ondes gravitationnelles plissent cet espace-temps, indépendant et intrinsèque ? »

Réponse de F. Cavalier : « L’onde EM, n’a pas besoin d’éther pour se propager, donc l’onde gravitationnelle, onde de l’espace-temps non plus n’a pas besoin de support matériel (sic). »

Quelques instants plus tard au cours d’un commentaire spontané à propos de l’effet gravitationnel, il dit : « les ondes gravitationnelles se propagent dans l’espace-temps et suivent les mêmes géodésiques...que celles de la lumière. »

De l’espace-temps, est une affirmation qui est en accord avec l’hypothèse Einsteinienne que l’espace-temps n’a pas de réalité physique et ce qui doit pris en compte c’est le champ gravitationnel comme nous l’a rappelé récemment C. Rovelli : « Ainsi donc, pour répondre à votre question: ce qu'on appelle l'espace-temps et le champ gravitationnel sont ultimement la même chose. » Ceci est fortement confirmé quand il écrit, en mars 2015, dans : ‘Temps universel et métabolisme de l’espace-temps’ : « Les avancées d’Einstein peuvent être lues comme une invitation à renoncer à des idées préconçues sur l’espace et le temps jusqu’à abandonner ces notions entièrement. »

L’invitation à ce renoncement intellectuel n’est toujours pas évident à intégrer de nos jours car comme indiqué ci-dessus quelques instants plus tard F. Cavalier nous dit : les ondes gravitationnelles se propagent dans l’espace-temps… Ici, il serait dit que l’espace-temps préexiste aux ondes gravitationnelles. Ainsi, l’espace-temps aurait une nature propre et ce n’est pas la même chose que le champ gravitationnel. Mais encore, il y a une autre interprétation possible : concomitance absolue entre espace-temps et gravitation et on peut évoquer alternativement l’un ou l’autre sans précaution. A mon avis, il ne faut pas considérer qu’il y aurait de la part de Cavalier un manque de rigueur dans son exposé, il faut plutôt considérer que nous avons à faire, ici encore, en temps réel, au témoignage d’une conception perpétuellement vacillante de la nature de l’espace-temps. Arrêter une conception stable et largement partagée s’avère être un processus délicat car comment s’opposer à ce qui constitue l’essence même de la Relativité Générale, in fine : réalité du champ gravitationnel au détriment d’une quelconque réalité de l’espace-temps. Peut-être que C. Rovelli nous propose une stratégie de contournement quand il écrit juste après la phrase citée ci-dessus : « Mais elles (les avancées d’Einstein) peuvent être aussi lues comme la découverte de propriétés particulières de l’espace et du temps, que nous n’avons peut-être pas entièrement éclaircies. » Voilà qui est dit : admettons qu’après un siècle nous n’ayons toujours pas compris toute la teneur des idées géniales d’Einstein, mêmes celles qu’il n’a pas explicitement proposées, et ainsi nous nous octroyons la liberté intellectuelle de lire entre les lignes de ses hypothèses, donc d’interpréter celles-ci à l’aune de notre questionnement actuel. On verra quelle suite sera donnée à cette proposition astucieuse. Peut-être qu’elle est déjà à l’œuvre avec les interprétations proposées par A. Barrau : « La relativité générale nous apprend précisément que le monde est relationnel. Il n’y a plus de cadre fixe et absolu. Les choses ne peuvent plus être « ici et là », elles sont les unes par rapport aux autres. Nous sommes des vaguelettes sur un raz de marée qui tient lieu d’espace et de temps. » (Mars 2016). Ou encore : « Le cœur de la théorie d’Einstein, c’est l’invariance de fond : le fait qu’il n’existe plus aucune structure « figée » dans l’Univers, le fait que tout est dynamique et en interaction, le fait que l’espace-temps est un champ comme un autre (sic) régi par des lois d’évolution…Il devient alors possible d’étudier des théories qui respectent cette invariance fondamentale, disons donc l’esprit de la relativité générale, mais sont régies par des équations d’évolution un peu différentes. » (Janvier 2016)

Je reviens sur la réponse première de F. Cavalier « L’onde EM, n’a pas besoin d’éther pour se propager, donc l’onde gravitationnelle, onde de l’espace-temps non plus n’a pas besoin de support matériel (sic). » Il propose donc de mettre en parallèle le processus de propagation que l’on conçoit pour l’onde EM avec celui de l’onde gravitationnelle. A mon avis ce n’est pas juste de penser ainsi. En effet l’onde électromagnétique est clairement identifiée par un champ électrique et un champ électromagnétique qui oscillent en se propageant. Ce champ EM, n’est pas toujours là, dans ce cas l’hypothèse de l’auditeur qui interroge Cavalier et dit : quand il n’y a rien, a du sens. En effet ce champ est causé par une source (un électron qui oscille, qui peut être soustrait, donc créer la situation : il n’y a rien, par ex.) qui est identifiable jusqu’à l’échelle quantique puisque ce champ est quantifiable.

Pour un observateur, pour spécifier cette propagation il est normal qu’il repère celle-ci à l’aide des variables spatio-temporelles qui lui sont propres, qu’il projette et qui n’ont a priori aucune influence sur la représentation physique des objets. A ce stade il est évident d’admettre que c’est une opération propre à l’observateur qui ne fait référence à aucune contrainte naturelle. A ce stade nous sommes dans une situation identique à celle du suivi du mouvement classique d’un mobile. La spécificité apparaît parce que le champ EM se déplace à la vitesse limite C, constante, qui ne peut s’additionner à aucune autre vitesse quel que soit le point de vue de tout autre observateur. Ceci amène à ce que des contraintes soient posées aux équations mathématiques qui rendent compte du mouvement du champ EM, et ce sont les équations de la relativité restreinte qui sont ainsi obtenues. Nous ne devons pas oublier le geste premier de l’observateur qui associe des moyens de repérage qui lui sont propres aux objets en mouvement. A ce stade, il est possible de considérer abstraitement l’irréalité de l’espace et du temps et considérer que l’espace et le temps n’auraient, comme toutes autres variables, qu’une fonction purement relationnelle, selon l’idée de Leibniz ou encore de Mach. Cette conception implique l’idée que la connaissance en physique pourrait s’énoncer par elle-même, sans la ‘Présence’ d’un observateur intelligent qui engendre un discours relatif à cette connaissance.

Est-ce que la réponse de Cavalier qui considère que ce qui vaut pour l’onde EM, vaut pour l’onde gravitationnelle est appropriée ?

Lorsqu’un physicien dit que les ondes gravitationnelles sont des ondes de l’espace-temps, est-ce qu’il peut dire par la suite qu’elles sont des ondes dans l’espace-temps. Rappelons-nous la confirmation de C. Rovelli : « Ainsi donc, pour répondre à votre question: ce qu'on appelle l'espace-temps et le champ gravitationnel sont ultimement la même chose. Puisque que c’est un objet dynamique, ce n'est pas très étonnant qu'il contienne des oscillations qui se propagent dans sa structure. » Il y aurait donc de fait, selon ces propos, une parfaite concomitance entre espace-temps et champ gravitationnel et en conséquence de l’espace-temps et dans l’espace-temps seraient compatibles.

Si j’interprète correctement Th. Damour, on pourrait dire aussi : sur. En effet dans le livre : ‘Einstein aujourd’hui’, l’auteur écrit page 297 : « Nous avons décrit ici la propagation d’une onde gravitationnelle dans un espace-temps de fond décrit par la métrique de Minskovski. On peut aussi considérer la propagation d’une onde dans un espace-temps de fond courbe, c’est-à-dire étudier les équations d’Einstein avec une perturbation (gravitationnelle) supplémentaire non seulement petite mais qui varie sur des échelles de temps et d’espace beaucoup plus courtes que la métrique de fond. » Ici, il y a deux niveaux d’espace-temps, celui de fond et celui de l’onde qui se propage. Celui de fond apparaît comme un espace-temps de fait permanent, atemporel, qui aurait donc la valeur d’un support matériel !

Le fait que le champ gravitationnel et l’espace-temps seraient la même chose impliquerait que c’est le champ gravitationnel qui détermine l’espace-temps et l’observateur n’y est pour rien. Il en résulte que, dans cette situation, le processus de projection de moyens de repérages par l’observateur que j’ai proposé pour le champ EM n’est pas reproductible. En conséquence, il n’est pas correct de faire un parallèle entre propagation d’une onde EM et une onde gravitationnelle, bien qu’elles aient en commun une même vitesse de propagation.

Espace, Temps, Espace-Temps, sont des sujets travaillés sous toutes les coutures. Pendant que j’écrivais cet article, trois nouveaux articles ou livres en anglais ont surgi dans l’actualité : ‘Images du temps : Esprit, Science, Réalité.’ ; ‘C’est étrange : l’intrication quantique mutile (malmène) l’espace et le temps.’ ; ‘Pourquoi l’espace est à 3 dimensions ?

Du premier ouvrage, il s’agit d’un livre de George Jaroszkiewicz, (édit. Oxford University Press) et Massimo Giovannini, en a fait une présentation dans le ‘CernCourier’ du 4 Mai, dont j’en propose quelques extraits traduits par mes soins :

«… Il y en a qui soutiennent que tandis que le temps est mesuré avec plus de précision, sa nature est discutable étant donné qu’il apparaît omniprésent en physique mais souvent avec des significations légèrement différentes. Il y en a qui clament que le temps est un mystère dont les fondations sont sociologiques, biologiques et psychologiques. Le travail de l’auteur du livre suggère que les différentes disciplines (et même les différents domaines de la physique) conçoivent des images diverses du temps à travers les années. Les propos érudits et ambitieux du livre conduisent à une collection la plus complète des images conceptuelles du temps et en particulier en ce qui concerne la science physique... L’impression générale est que les différentes branches de la physique traitent avec des images multiples du temps. Parce que ces conceptualisations ne sont pas toujours consistantes, le temps est perçu par le lecteur (et partiellement présenté par l’auteur) comme un énigmatique sujet de spéculation. Un lecteur malicieux peut même inférer qu’après presque 5 siècles depuis la méthode galiléenne, les physiciens travaillent quotidiennement avec quelque chose qu’ils ne comprennent pas bien (sic).

Cette revue des différentes images du temps est certainement valable, mais elle échoue à expliquer pourquoi les mesures de plus en plus précises du temps sont corrélées aux constants développements de la science moderne en général et de la physique en particulier. La vérité est que la physique prospère d’un mélange d’expériences, de théories et d’énigmes : sans des mystères qui conduisent notre curiosité, nous ne serions pas pourquoi nous devrions mesurer avec plus de précision, par exemple, le moment magnétique anomale du muon (sic). Cependant, en ne faisant que contempler le temps comme une énigme, nous serions probablement encore cantonnés à l’usage du cadran solaire. »

Le deuxième article provient de la revue : NewScientists du 27 avril, dans la série des étrangetés physiques étaient pointées : ‘L’intrication quantique qui mutile (malmène) l’espace et le temps’.

« Depuis l’an passé, nous avons la certitude que l’action fantôme à distance est crédible sans aucune échappatoire. Cette spécificité doit être considérée comme une caractéristique fondamentale de la nature. Ainsi le problème repose sur notre perception de l’espace et du temps. »

Le troisième article du 3 mai, publié sur le site de physics.aps.org, présente les travaux d’une équipe de recherche qui prétend avoir mis au point un modèle thermodynamique (2e loi de la thermodynamique) qui répond à la question : ‘Pourquoi l’espace a trois dimension ?

L’auteur nous dit : "De nombreux chercheurs dans le domaine des sciences et de la philosophie ont considéré que les 4 dimensions naturelles de l’espace-temps sont justifiées et nécessaires pour qu’il y ait de la vie, de la stabilité, de la complexité. La grande signification de notre travail est que nous proposons, à partir d’un modèle physique, une dimensionnalité de l’univers avec un scénario raisonnable de l’espace-temps. C’est la première fois que le nombre ‘trois’ des dimensions d’espace survient grâce à l’optimisation d’une quantité physique qui est la densité d’énergie libre de Helmhotz. Cette ontologie de l’espace est conçue durant la toute première fraction de seconde après le Big Bang dès que l’univers commence à se refroidir. Les autres dimensions éventuelles sont figées à des échelles extrêmement petites à cause de ce refroidissement quasi immédiat dû à l’expansion. »

On retiendra, à propos de cette publication, que les chercheurs considèrent comme valables aux premiers instants de l’univers les lois physiques connus aujourd’hui, telle l’énergie libre de Helmhotz : F (T, V) = U – TS. Ceci est à mon sens une gageure qui est très difficile voire impossible à authentifier. Ce qui est certain, c’est que Lee Smolin dans son livre : ‘La Renaissance du Temps’, ‘Pour en finir avec la crise de la physique’, proclame, page 133, que : « La physique doit abandonner l’idée que les lois sont intemporelles et éternelles et adopter à la place l’idée qu’elles évoluent dans un temps qui est réel. » Pour lui c’est une condition sine qua non d’une réalité qui témoigne de l’existence naturelle du temps.

Partager cet article
Repost0
23 avril 2016 6 23 /04 /avril /2016 10:54

‘De la Vérité dans les Sciences’, et après !

Effectivement, il faudrait qu’il y ait un après ce qui fut analysé et exprimé par Aurélien Barrau dans son livre dont j’ai rapporté, dans l’article du 12/04/, ce qui m’a potentiellement semblé être à la source d’une compréhension différente donc nouvelle de la science physique. J’ai la conviction que c’est une étape importante et nécessaire. Toutefois cela peut être illusoire, au regard de velléités parfois significatives qui ont pu surgir dans le cours de l’histoire du développement du corpus de cette science. Simplement, je cite N. Bohr : « La physique est seulement concernée par ce que l’on peut dire sur la nature. », W. Heisenberg : « Le postulat d’une réalité physique existant indépendamment de l’homme n’a pas de signification. »

Avant tout, il faut se demander si les équations actuelles de la physique sont hermétiques à une quelconque possibilité d’intégration d’éléments complémentaires qui incluraient de la signification relative à la réflexion de Barrau, je cite notamment : « Mais il ne faut pas oublier, … que nos manières d’appréhender cet « autre part » n’en demeurent pas moins humaines et créées. » Il y a fort à parier qu’une très grande majorité de physiciens réalistes répondraient oui, parce que, selon eux, les bonnes lois de la physique sont celles qui ont justement évacué toute trace de subjectivité (voir la loi de la Relativité Générale). D’autres répondront qu’il y a herméticité parce que de fait cela est déjà inclus dans le processus de la formulation des lois : elles sont humaines, cela ne peut pas être dépassé. Cette situation de fait s’imposerait donc à l’insu des réalistes proclamés alors que les tenants de l’impossibilité du réalisme en physique ont la conviction qu’aucune pensée, pas même une pensée scientifique aussi élaborée soit-elle, ne peut totalement s’émanciper de l’essence de la chrysalide de la pensée humaine. C’est, à mon sens, ce que nous dit A. Barrau, p37 : «La science est une louable tentative d’accéder au non-humain-du-réel. » Louable tentative certes, toujours renouvelée, mais qui ne peut pas être plus que cela. En tant que physicien, il ne resterait donc qu’à prendre du recul à l’égard du travail scientifique et avec distance tenter d’analyser et d’expliquer que ce qu’il n’est… et surtout ce qu’il ne peut pas être. On peut considérer que le livre de Barrau est un bel exemple de cet exercice. Mais il ne faudrait pas qu’il se cantonne à n’être qu’un bel exercice de plus… d’épistémologue, de philosophe des sciences, etc…

Prenons appui sur ce qui est dit page 36 : « Mais il ne faut pas oublier,… que nos manières d’appréhender cet « autre part » n’en demeurent pas moins humaines et créées » et sur : « Nous choisissons et inventons les rapports au(x) monde(s) que nous jugeons pertinents. Ils ne sont pas donnés, ils sont construits. » L’auteur nous dit que le physicien ne découvre pas (jamais !), il construit sa connaissance au(x) monde(s). En adoptant ce point de vue, on ne doit pas pour autant se condamner à la passivité car l’exercice suivant à mener, que l’on pourrait qualifier d’herméneutique, vise à tenter de distinguer ce qui serait, au sein de la construction et de l’expression scientifique humaine, des ponctuations plus spécifiquement révélatrices de la contribution du sujet pensant, bref de la réalité de sa ‘Présence’. Cela concerne tout autant ce qui se pense bien, se conçoit bien, a priori, que ce qui se pense difficilement, sans qu’une conception satisfaisante ne s’impose. Sans que cela soit exhaustif je pense plus particulièrement à l’effet Zénon, à l’effet tunnel, à l’impossibilité à identifier clairement dans le corpus de la physique le rôle respectif attribué au champ gravitationnel et au champ d’espace-temps, au concept de ‘moment présent’, à l’intrication.

En ce qui concerne l’effet Zénon, effet qui s’observe lorsque des processus quantiques laissent constater des durées naturelles qui s’accroissent lorsqu’ils sont effectivement scrutés avec une plus grande fréquence par un observateur. Ici, si on installe dans le discours scientifique, l’effet conséquent de la réalité de la ‘Présence’ du sujet pensant, on explique l’essence du phénomène. (Voir article de Phys.org, le 23/10/2015 : l’Effet Zénon vérifié : les atomes ne bougeront pas tandis que vous les observez.)

En ce qui concerne l’évolution du formalisme qui traite de l’effet tunnel, dès que l’observateur peut exploiter des horloges qui scandent l’attoseconde, le temps dans les équations de cet effet n’a plus de raison d’être représenté par un nombre complexe. Grâce à la prouesse technique récente qui permet maintenant à l’observateur de produire, donc mesurer l’attoseconde, c’est-à-dire marquer, installer, sa présence devenue réelle durant cet intervalle de temps, l’effet tunnel est rendu compte sous un nouvel éclairage. (Voir article du 17/06/2015)

En ce qui concerne le statut variable de l’espace-temps à l’égard du champ gravitationnel, il est clair que pour le fondateur de la relativité général et ses disciples l’espace-temps ne serait qu’un ersatz du champ gravitationnel. Mais comme on l’a encore constaté à l’occasion de la première détection d’une onde gravitationnelle, c’est l’ébranlement de l’espace-temps qui est observé. L’espace-temps ne peut pas être radié lorsqu’il y a la présence d’un observateur humain, d’un penseur humain qui décrypte les propriétés dans la nature. A partir de ce constat, il ne faut pas exclure que l’espace et le temps soient fondés par l’être réflexif, ils en sont un attribut.

Quand il y a quelques années, L. Smolin, découvre que l’idée d’un ‘moment présent’ doit avoir du sens pour un physicien, à mon avis, subrepticement il est entrain de découvrir que la ‘Présence’ du sujet pensant dans sa louable tentative d’accéder au non-humain-du-réel est inexpugnable. Ceci est mon interprétation pas celle de Smolin qui jusqu’à présent est resté au milieu du gué sur ce sujet.

En ce qui concerne l’intrication, mon hypothèse consiste à faire appel au ‘TpS’ point aveugle de l’intelligence humaine de l’ordre 10-25s (voir nombreux articles). Le processus de l’intrication étant un processus instantané (ou quasiment), le sujet pensant ne peut pas fonder des espace-temps différenciés pour chacun des composants de l’intrication et inévitablement cette situation perdure. Pas d’espace, pas de temps, la notion de vitesse n’est plus valide, d’où l’impression d’’action fantôme’.

Les ponctuations que je propose pourraient recevoir des justifications grâce aux nouveaux moyens d’imagerie cérébrale de plus en plus perfectionnés qui sont maintenant à l’œuvre. J’ai déjà cité le travail de S. Dehaene (voir article du 26/05/2015 : ‘Académie des sciences : A la recherche du temps.’) Celui-ci vient d’être confirmé, avec des nuances, par une équipe de l’école polytechnique de Lausanne, le 12/04/2016 in la revue : ‘Plos Biology’.

Tout récemment, sur le site de ‘Pour la Science’ on peut lire un article du 14/04/2016 : ‘Comment fonctionne le cerveau des grands mathématiciens’, relatant le résultat des travaux de M. Almaric et S. Dehaene. Ils ont mis en évidence un fonctionnement nettement différencié entre le cerveau du mathématicien de haut vol qui réfléchit sur des mathématiques abstraites et le cerveau du mathématicien basique qui pratique simplement le calcul. Ce résultat m’encourage à proposer à nouveau l’expérience qui consiste à placer devant un interféromètre de laboratoire des physiciens éduqués et des non physiciens qui seraient appelés à réagir quand ils disposent d’information spatio-temporelle d’un objet quantique qui transite dans l’interféromètre et alternativement appelés à réagir lorsqu’ils ne disposent pas d’information spatio-temporelle. Selon mon point de vue, très probablement, selon la catégorie des personnes en position d’observateur, les images cérébrales seraient distinctes. Cela permettrait probablement de lever ou comprendre la nature du voile sur la problématique quantique aspect ondulatoire ou aspect ponctuel.

Effectivement, la majorité des sujets physiques que j’ai pointée révèle des problèmes d’interprétation concernant l’espace et le temps. Ce n’est pas par hasard si la très grande majorité des physiciens reconnait que la crise de la physique fondamentale est corrélée à l’incompréhension que nous avons à propos de la nature de l’espace et du temps. L’attribution d’une origine naturelle à l’espace et au temps ne conduit pas à une levée de l’incompréhension, idem si on leur refuse une quelconque origine.

Partager cet article
Repost0
12 avril 2016 2 12 /04 /avril /2016 11:50

Selon A. Barrau, ‘De la vérité dans les Sciences’

A l’occasion de la sortie du livre d’Aurélien Barrau, édit. Dunod, je souhaite mettre en exergue quelques-unes des idées exprimées par l’auteur qui, à ma connaissance, le sont pour la première fois, en tous les cas publiées dans le cadre d’un ouvrage qui vise à offrir aux lecteurs sa conception de la recherche fondamentale en science (physique), son but, et son apport à la quête de vérité dans les sciences en général. Je privilégierai surtout les idées avec lesquelles je me trouve en résonnance et qui pour moi font immédiatement sens parce que sous une forme ou sous une autre je les ai déjà fait miennes et exprimées ces dernières années. Ceci suppose évidemment que j’interprète correctement ce qu’il a voulu nous dire. A cet égard, il faut toujours être vigilant par respect à l’auteur et pour que les conditions d’un échange utile puisse s’établir à terme. Donc en première recommandation : il faut lire le livre dans son intégrité.

(Parmi les articles au sein desquels j’ai exprimé des idées qui convergent avec celles d’A Barrau, je cite les plus anciens : ‘L’être humain est-il nu de toute contribution lorsqu’il décrypte et met en évidence une loi de la Nature ?’, le 21/12/2011 ; ‘Les nouveaux paysages : physiques ? intellectuels ? bref scientifiques de l’anthrôpos.’ Le 24/04/ 2012 ; ‘Synthèse : un Monde en Présence’, le 02/11/2012 ; ‘Un Monde en Présence II’, 01/01/2013 ; ‘Bienvenu au ‘Moment Présent’ de Lee Smolin’, le 02/05/2013 ; plusieurs autres, au-delà de ces dates jusqu’à maintenant, reprennent et tentent de préciser mes hypothèses.)

Page 36 et 37 : « Mon ami le génial physicien Carlo Rovelli – inventeur de l’une des meilleures théories de gravitation quantique – considère que la science c’est « un peu d’air frais qui entre dans la maison ». Il n’est plus seulement question de s’émerveiller devant nos propres créations mais aussi devant ce qui semble exister et se déployer indépendamment de nous. Je pense qu’il a raison. Il est sain, voire salutaire, de souligner cela. Mais il ne faut pas oublier, en parallèle de cette mise en rapport avec l’autre, avec l’ailleurs, avec l’hors, que nos manières d’appréhender cet « autre part » n’en demeurent pas moins humaines et créées. Il faut rester conscient que cette tentative d’exploration du loin n’est entreprise qu’avec nos modalités purement et inéluctablement humaines et donc locales. Nous choisissons et inventons les rapports au(x) monde(s) que nous jugeons pertinents. Ils ne sont pas donnés, ils sont construits. Tout se joue dans cette tension entre l’ « air frais » qui vient du dehors et notre ressenti ou notre explication de cet air frais qui n’est jamais une mise en lumière de la nature intrinsèque et absolue de l’essence de cet air frais

La science est souvent arrogante dans ses enjeux et parfois même dans ses conclusions mais elle est fondamentalement modeste dans ses moyens. Elle est une louable tentative d’accéder au non-humain-du-réel. Elle est toujours consciente – elle devrait en tout cas l’être – de ses limites. Limites omniprésentes ! Elle intègre sa finitude et c’est ce qui lui permet de jouer avec l’illimité.

La situation est parfois complexe et plurivoque. Il ne faut pas chercher à enfermer la science dans une vision linéaire et parfaitement sans équivoque… »

Ci-après mon commentaire de cette première tranche de citation du livre.

Je constate que l’auteur attribue à C. Rovelli le rôle d’inventeur de la gravité quantique et non pas de découvreur de ce qui serait dans la Nature. C’est une prise de distance judicieuse car Rovelli a récemment publié un livre (2015, O. Jacob) pour expliquer sa découverte (sic) : ‘Par-delà le visible, la réalité du monde physique et la gravité quantique’. Après avoir indiqué le respect qu’il a pour son travail depuis 20 ans, A. Barrau rappelle à juste raison : nos manières d’appréhender cet « autre part » n’en demeurent pas moins humaines et créées. Ainsi est-il précisé, pour ne pas faire fausse route quant au statut du travail scientifique et de ses résultats, que c’est l’intelligence humaine qui produit des résultats. Ce n’est pas faire preuve de pessimisme, ni de réduction des capacités et des méthodes de recherche en physique que de préciser que l’activité du physicien conduit à de la création et non pas à de la découverte. Effectivement nos modalités déterminées et inéluctablement humaines ne peuvent pas être néantisés pour que le spectacle du réel se présente à nous. Barrau, évoque nos modalités ; dans mes articles j’évoque : nos déterminations, et ce terme me paraît plus évocateur de ce qui caractérise les contraintes qui expliquent que penser, voir le monde réel, est certes une perspective motivante, mais jamais absolument accessible. Acceptons l’idée que nos savoirs sont construits, et sont souvent de belles constructions qui, en retour, nous construisent en tant que ‘sujet pensant’ et nous propulsent vers de nouvelles constructions. C’est cette dynamique-là qui a du sens et nourrit nos facultés proprement humaines. Je me permets d’ajouter (comme déjà exprimé dans quelques articles) que la connaissance en physique a un rôle fondamental d’avant-garde à propos de cette dynamique.

Ensuite A. Barrau nous dit que la science est souvent arrogante. Cela correspond a du véridique mais analyser la cause de celle-ci vaut la peine. Depuis Galileo Galilei, qui a ouvert au 17e siècle l’ère de la science positive, est véhiculée la croyance que La science moderne se distingue avant tout par le caractère mathématique universel de ses théories. Elle correspond au remplissage d’un cadre prédéterminé, où chaque phénomène doit être rapporté à une construction mathématique. Ainsi le physicien n’invente pas son monde, son rôle est beaucoup plus modeste et il doit se contenter de découvrir ce qui est (sic). C’est cette croyance qui imprègne notre culture (occidentale), pas uniquement scientifique, et peut conduire à l’arrogance du : « Moi je sais, parce que mon savoir me met en rapport avec ce qui est de l’ordre de l’universel. » D’accord pour l’arrogance mais ce qui est le plus dommageable c’est la croyance en ce dogme (chez les physiciens) qui n’est pas du tout minoritaire, bien au contraire.

Page 56 : « Depuis près d’un siècle nous tentons de construire une théorie cohérente de gravitation quantique et c’est un effort qu’il est indispensable de poursuivre ! Pour autant, il n’est pas exclu que dans certaines de ses modalités le réel se dérobe aux sciences mathématiques, même lorsqu’il est sondé par ce prisme. Rien n’assure que cette manière spécifique d’appréhender l’Univers soit de portée tout à fait illimitée. Il faut continuer à chercher à comprendre le Big Bang avec des équations et des télescopes, et je m’y emploie, avec beaucoup d’autres ! Mais il ne me semble pas absolument exclu que dans certains cas les mathématiques, par exemple, ne fonctionnent tout simplement plus. Demeurons, ici aussi, modestes. »

Cette citation d’A. Barrau : page 56, il faut la commenter parce que, à ma connaissance, cela est tout à fait nouveau d’évoquer les limites des mathématiques par des physiciens. La première fois que j’ai rencontré ce doute à l’égard des mathématiques, c’est dans le livre de L. Smolin : ‘La renaissance du Temps : pour en finir avec la crise (sic) de la physique’, 2014, édit. Dunod : « Quand les lois de la physique sont décrites mathématiquement, les processus causaux qui illustrent l’activité du temps sont représentés par des implications logiques intemporelles. Mais l’univers réel a des propriétés qui ne sont pas représentables par un quelconque objet mathématique. Une de celles-ci est qu’il y a toujours un moment présent. Les objets mathématiques, étant intemporels, n’ont pas de moments présent, n’ont pas de futurs ni de passés. Toutefois, si on embrasse la réalité du temps et voit les lois mathématiques comme des outils plutôt que des miroirs mystiques de la nature, d’autres faits têtus, inexplicables, concernant le monde deviennent explicables… »

Très probablement cette prise de conscience chez l’un et chez l’autre résulte d’une compréhension aigue de la crise de la physique fondamentale à notre époque. Il faudrait qu’ils l’explicitent eux-mêmes mais il me semble qu’ils sont entrain de comprendre que les mathématiques n’ont pas la valeur prédictive comme ils le pensaient. C’est, pour eux, la fin de la croyance Platonicienne réactivée par Galilée : « La philosophie est écrite dans cet immense livre qui est constamment ouvert sous nos yeux, je veux dire l’univers, mais on ne peut le comprendre si l’on ne s’applique d’abord à en comprendre la langue et à connaître les caractères avec lesquels il est écrit. Il est écrit en langue mathématique et ses caractères sont des triangles, cercles et autres figures de géométrie, sans le moyen desquels il est humainement impossible d’en comprendre un mot. Sans eux, c’est une errance vaine dans un labyrinthe obscur. »

On peut considérer que cette crise de la physique qui perdure, ne pourra être dépassée que par une réévaluation salutaire de la place et du rôle des mathématiques dans la volonté humaine de rendre compte de vérités à propos des propriétés dans la nature. Selon moi, la primauté appartient à la faculté de penser, de projection, de l’être réflexif et les mathématiques pourvoient en moyens (outils) descriptifs, très puissants qui condensent cette pensée. Les mathématiques constituent un langage commun qui permet la communication intersubjective si essentielle pour que vive les connaissances toujours provisoires. Le fait que Barrau fasse référence, page 70, au théorème de K. Gödel n’est pas fortuit, car la thèse de l’incomplétude des mathématiques conduit à la thèse de l’incomplétude de la physique théorique (quoi qu’en dise R. Penrose) lorsque l’on considère que cette physique ne peut s’épanouir que par l’épanouissement de la langue mathématique comme le prétend Galilée. C’est donc une révolution culturelle qui doit être entreprise pour dépasser les apories qui sont identifiées.

Page 57 : « Mais nos organismes – et donc nos pensées – résultent de plus de 4 milliards d’années d’évolution ininterrompue. Il y a, me semble-t-il, quelque chose de naïvement arrogant à supposer que, justement, à cet instant précis de notre histoire, la vérité ferme nous apparaît ! D’autant que ce sentiment fut évidemment partagé par toutes les civilisations précédentes… »

Ces quelques phrases de la page 57, à priori me réjouissent car la référence de ce que l’on sait de mieux en mieux de l’histoire de l’évolution de l’humanité offre un cadre de réflexions enrichissant en ce qui concerne la relation physique et intellectuel de l’être humain avec la Nature et donc le processus de décryptage de ses propriétés. Toutefois se référer à plus de 4 milliards d’années en arrière constitue une gageure inutile. Cela correspond à la période de la formation très évolutive du système solaire pendant laquelle sont forgés, sous l’action de la lumière naturelle, les acides aminés lévogyres : briques élémentaires du monde vivant puisque constituants essentiels des protéines. (Voir article du 02/08/2014 : ‘Accordons quelques batifolages à l’esprit.’). Par contre grâce au développement de la paléoanthropologie, qui a le statut d’une science pluridisciplinaire, nous pouvons remonter à plus de 2 millions d’années quand émerge parmi le foisonnement des espèces celui des homos, qui de sélections en sélections aboutiront à ‘Homo Sapiens’ : l’homme moderne. Auparavant j’ai eu l’occasion d’isoler des publications et des ouvrages qui commencent à constituer une base de données et partant de réflexions enrichissantes. Ainsi, dans l’article du 10/10/2013 : ‘Comment nous sommes devenus avec/dans le langage ?’, j’ai saisi immédiatement l’intérêt de l’article de ‘Plos One’ qui mettait en évidence une forte corrélation entre l’émergence de la faculté de langage et le besoin de tailler le silex, il y a à peu près 2 millions d’années. Le langage qui naîtrait dans ces conditions serait ainsi originellement déterminé et en conséquence la faculté de penser qui en résulte. Ces travaux ont été confirmés par une deuxième expérience, voir in ‘La recherche’ hors-série, mars-avril 2016 : ‘L’odyssée de l’homme’ page 70. De même avec la sortie du livre : ‘La seconde naissance de l’homme’ (voir article 21/07/2015), j’ai tenté d’interpréter, grâce à ce qui était relevé par les professionnelles, les indices peut-être primordiaux d’une perception ‘intellectualisée’ de l’espace et donc du temps avec la nécessité pratique de gérer l’accès à des gisements de matière première de silex. Avec l’article 10/11/2015 : ‘Principe de causalité : construction de l’esprit ou loi de la Nature ?’ j’ai tenté d’esquisser pourquoi on pouvait considérer que le principe de causalité était un principe sélectionné, élaboré, au cours d’un processus de survivance empirique propre à l’homme. Cette esquisse est motivé par l’idée qui devient de plus en plus forte chez les paléoanthropologues que ce serait à cause des phases successives de changements climatiques que l’évolution des différents Homos ce serait produite. Faire référence à l’évolution acquière de plus en plus de sens quand par exemple on lit dans un article de M. Almaric et S. Dehaene du 11/04/2016, in ‘Pour la Science’, ‘Comment fonctionne le cerveau des grands mathématiciens’ : « Et les mathématiques de haut niveau « recyclent » des fonctions cérébrales anciennes du point de vue de l’évolution. »

Etant donné tout le bien que j’exprime à l’égard du livre d’A. Barrau, il me reste à souhaiter qu’il passe à la prochaine étape, celle des travaux pratiques, car il est premièrement un physicien reconnu et il doit transcrire effectivement certaines de ses idées dans le corpus de la physique. Au moins dans le domaine qui correspond au champ intellectuel qui lui est le plus familier, cela ne peut pas être autrement. Quand par exemple il écrit : Ils (les mondes) ne sont pas donnés, ils sont construits, cela implique qu’il engage une écriture qui se distingue sur le plan mathématique et/ou conceptuel de la description traditionnelle de la physique. C’est un exercice difficile, mais comme on dit, il a le background théorique pour passer à l’action.

Il est donc possible d’envisager qu’un dialogue productif se mette en place, on verra bien ! Ainsi il sera possible d’échanger et de discuter de l’idée que le temps n’est pas donné, il est inhérent à la ‘Présence’ et donc à l’émergence de l’être doué de capacités réflexives c’est-à-dire le sujet pensant. En ce qui concerne l’espace, il faut introduire des nuances, car c’est un construit avec des références plus physiques à l’origine.

En ce qui concerne mon hypothèse iconoclaste : TpS, celle-ci n’est pas fragilisée, bien au contraire. Avec cette quantification du ‘Temps propre du Sujet’ cela permet de penser un certain nombre de situations physiques en termes de relations entre systèmes, (voir ‘Effet Zénon’ par exemple)

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens