Overblog
Suivre ce blog Administration + Créer mon blog
28 novembre 2018 3 28 /11 /novembre /2018 11:27

La plus belle histoire de l’intelligence.

Des origines aux neurones artificiels : vers une étape de l’évolution.

L’intelligence a une histoire qui est celle de sa progression. Reconnaitre et comprendre cette histoire est le signe d’une intelligence qui s’éclaire car elle intègre dans la dimension d’un devenir les connaissances que dans la période présente elle établit. Je crois fermement que cette perspective permanente de l’évolution des connaissances établies, les nôtres, est une des conditions du plaisir de savoir. C’est le même processus que la marche, une fois qu’un pied prend un ferme appui sur le sol, immédiatement l’autre s’engage pour assurer l’appui suivant, et des paysages nouveaux sont à voir. C’est pourquoi, je suis toujours guidé par l’idée et la conviction : « au sein d’une éternité parmi tous les possibles, Anthrôpos ne cesse de creuser, sans fin, sa connaissance de l’univers. Univers qui ne peut être clos c’est-à-dire qu’il ne peut être définitivement connu, autrement Anthrôpos se figerait. » Aujourd’hui s’esquisse la prochaine étape de l’évolution du Sapiens que nous sommes, concomitamment à cette évolution de nouveaux espaces de sens seront conquis, cela implique le prolongement du déploiement de notre espace-temps physique actuel. Les bornes de l’univers jusqu’à présent dessinées seront repoussées et la phénoménologie mécaniste que l’on prête à cet univers sera probablement dépassée. Bref, le nouveau Sapiens en cours concevra un univers, un habitat qui sera à la dimension de cette prochaine étape de l’évolution.

Le titre de l’article est emprunté à celui du livre que je vous recommande, (un cadeau de Noël enthousiasmant), edit. Robert Laffont, correspondant à un interview et dialogue de S. Dehaene et Y. Le Cun ( qui ne sont plus à présenter) que l’on peut résumer ainsi, p.30: « L’intelligence humaine et l’artificielle se rencontrent, se fertilisent, se nourrissent l’une de l’autre. Mais quel est le futur ? Le cerveau humain pourra-t-il toujours dominer sa propre création ? Faut-il nous réjouir ou nous inquiéter de voir cette intelligence si insaisissable échapper au contrôle humain ? Dans une troisième partie, S. Dehaene et Y. Le Cun débattent de l’avenir des intelligences, porteuses d’autant d’espoir que d’inquiétudes, et qui sont incontestablement en train d’initier une rupture dans l’évolution d’Homo Sapiens, peut-être aussi considérable que celle du passage à la bipédie (sic). »

J’insiste en précisant que nous, qui sommes intéressés et concernés par la connaissance scientifique et plus particulièrement celle relative à la connaissance en physique, nous devons lire et réfléchir à ce que nous disent S. Dehaene et Y. Le Cun.

p. 255 et plus : « J’aimerais que l’on parle de l’irrationnel, qui fait partie intégrante de notre vie et de notre communication consciente. Où se situe cette attitude dans l’intelligence ? »

S.D. : « C’est intéressant de parler de ça maintenant parce que, à mon avis, c’est la conséquence de l’exploration qui nous caractérise : les êtres humains sautent souvent un peu trop vite aux conclusions, sans avoir suffisamment mis leurs hypothèses à l’épreuve. Notre cerveau apprend tellement vite que, parfois, sur la base de très peu d’informations, il tire des conclusions exagérées. Nous avons tendance à voir des causes cachées là où il n’y a que du hasard, parce que notre espace d’hypothèses est très orienté vers la causalité. Il dit : « Si j’ai vu une ou deux fois A suivi de B, il est possible que A soit la cause de B. » Et l’on colle des hypothèses erronées sur le monde extérieur. Nous en revenons à cette notion d’un cadre inné ou figé (sic) que nous plaquons sur le monde. »

« C’est cependant quelque chose qui nous a fait avancer. »

S.D. : « Oui, mais pendant longtemps, en voyant un orage, l’humanité a dit qu’il y avait un dieu de l’orage caché dans le ciel et qui envoyait des éclairs. Sans doute parce que l’orage excite notre système de détection des objets animés plutôt que du monde physique inanimé. »

Y.L.C. : « C’est la source de beaucoup de religions. D’ailleurs, ça s’appelle l’animisme. »

S.D. : « Cependant, je crois qu’au départ, il y a un fondement de rationalité, lié à notre évolution : l’idée que le monde se partage entre objets animés et inanimés est très efficace pour le comprendre. On applique juste ce schéma un peu trop loin. Il n’est pas impossible que des intelligences artificielles succombent à ce même travers. »

Des scientifiques artificiels (sic)

Y.L.C. : « C’est très possible. Nous sommes poussés, pour notre survie, à faire des prévisions à partir d’informations limitées et donc à attribuer des relations de cause à effet qui n’existent pas[1]. Ainsi, lorsqu’on demande à de très jeunes enfants ce qui produit le vent, ils répondent souvent que ce sont les feuilles qui font du vent en bougeant. Une relation causale à l’envers, née d’une observation. Normalement, pour obtenir une relation causale, il faut influencer le système afin de savoir si le fait de changer une variable modifie les autres. Ainsi, pour tester un médicament on crée un groupe placebo qui permet de comparer et, éventuellement, de constater un effet. Obtenir des relations causales par la simple observation constitue actuellement un domaine de recherches assez actif, aussi bien en statistiques qu’en machine learning et en intelligence artificielle. »

S.D. « En fait, l’humanité a développé un algorithme d’apprentissage multi-individus afin de poser ce genre de questions : on l’appelle tout simplement la « recherche scientifique » ! C’est un dispositif extraordinaire efficace sur le long terme, qui a fait progresser notre intelligence à une échelle jamais imaginée auparavant, et qui a permis en quelques milliers d’années de dépasser le stade irrationnel. Pour moi, c’est une interrogation : aurons-nous la chance, un jour, de voir apparaître en informatique une sorte de « scientifique artificiel » qui posera mieux que nous les bonnes questions sur l’organisation de la physique du monde et de la biochimie, et qui pourrait nous aider à résoudre des problèmes d’environnement par exemple ? »

p.258, Y.L.C. : « Cela existe déjà un petit peu… »

S.D. : « Mais les statisticiens se contentent d’observer les données. Ils ne font pas les expériences. »

Y.L.C. : « … Je pense tout de même que le scientifique artificiel autonome n’est pas pour demain. Même si, déjà, dans certaines découvertes les statistiques et l’apprentissage automatique ont joué un rôle prépondérant. Celles du boson de Higgs, par exemple… »

S.D. : « La science est une sorte d’algorithme. Il existe une méthode pour essayer de faire des découvertes, et on distribue les données sur des millions de processeurs qui sont les scientifiques. Certains adoptent des positions assez radicales et ils se disputent, parfois jusqu’à leur mort, sans jamais pouvoir se réconcilier sur la nature des données. D’une certaine manière, ça marche : l’intelligence collective[2] est le meilleur algorithme que l’on ait trouvé pour faire des découvertes. »

Y.L.C. : « Je fais partie de ceux qui pensent que l’intelligence artificielle va permettre à l’intelligence humaine de se développer (sic). Elle sera un amplificateur. Chaque apparition d’une nouvelle technologie a permis de libérer l’esprit pour des activités qui n’étaient pas accessibles auparavant. La maîtrise du feu et les quelques technologies dont nous disposions il y a quarante millénaires ont permis les premières expressions artistiques sur les parois de grottes. L’art s’est développé d’autant plus que les sociétés étaient mieux organisées et consacraient moins de temps à leur survie[3]. »

Attention à ce que nous dit Le Cun car préalablement à l’existence de moyens, de techniques, il faut qu’il y ait un besoin, un désir, d’expressions qualifiées aujourd’hui d’‘artistiques’ sur les parois des grottes (poussée de l’émergence de la condition humaine (voir note 3)). Mon impression quand j’admire les scènes de la grotte Chauvet, c’est que les animaux dessinés sont au bout des doigts des hommes de l’époque, ils sont dans la plus grande proximité visuelle et charnelle. Etant soit des proies, soit des prédateurs, il s’en faut de peu pour être soit l’un soit l’autre, il faut donc interpréter en une fraction de temps l’essentiel de ce que signifie le regard de l’ordre, le souffle, la posture de l’autre, et c’est pourquoi, ils nous apparaissent être dans un mouvement si irrépressible. C’est aujourd’hui qu’il faut être un artiste pour représenter avec une telle économie de moyens des choses si fortes car nos besoins ne sont plus les mêmes et notre proximité avec la nature et les habitants de la nature n’est plus.

Pour nous physiciens, astrophysiciens, observateurs, il y a matière à méditer et intérioriser ce qui est dit dans le paragraphe : ‘Voir pour savoir’, p.40 :

Il y aurait un lien entre l’évolution de l’œil et celle du cerveau ?

S.D. : « Il est clair que l’apparition de la vision a constitué une étape clé. On pense que cela s’est passé au cambrien, il y a en gros cinq cent quarante et un million d’années. Cette époque a connu l’explosion de nombreuses formes de vie très différentes. L’œil serait apparu au cours de cette ère. En tout cas, ce progrès a représenté un moment crucial… Grâce à la vision, l’organisme est devenu capable de se représenter des objets distants : le rayonnement électromagnétique, les photons qui parvenaient jusqu’à l’œil pouvaient venir de loin. »

Donc, la capacité de recevoir de nombreuses informations du monde extérieur constitue une nouvelle étape. Les cinq sens sont à l’origine d’une nouvelle forme d’intelligence.

S.D. : « Voilà. Mais à condition, bien entendu, d’être capable de se représenter ces informations et de les manipuler mentalement. Ce qui revient à dire : « Je cartographie le monde extérieur et j’en crée une représentation mentale. Une représentation détachée de la perception immédiate. »

Une carte virtuelle ?

S.D. : « Si l’on veut. Je peux fermer les yeux, je peux perdre les informations que me transmettent mes sens, je vais quand même réussir à les retrouver à l’intérieur de ma tête. On a découvert que les souris, par exemple, disposent d’une sorte de carte de leur environnement et d’un véritable GPS dans le cerveau. Ce fut l’objet du prix Nobel 2014 des époux Moser et de John O’Keefe. Ils ont montré qu’il y a des cellules dans le cerveau de l’animal, dans l’hippocampe en particulier, qui constituent une sorte de carte de l’environnement. Si bien que la souris sait à chaque instant où elle est. » Sur ce sujet voir article du 24/10.

Même s’il n’y a aucun point de repère ?

S. D. : « Même sans repères ! Même s’il s’agit d’une région plate, désertique, l’animal emporte avec lui cette carte mentale. Même dans le noir, la carte se met constamment à jour lorsqu’il se promène. Grâce à elle, il sait toujours retrouver, par exemple, les coordonnées de son nid. »

 

[1] Cela pourrait convenir à la description de la situation suivante : en cosmologie nous sommes obligés d’inventer la matière noire (la majorité des physiciens ne savent pas penser autrement) qui serait la cause de l’organisation structurelle de notre cosmos en galaxies, en amas de galaxies et superamas, elle serait aussi la cause de l’observation de la stabilité des galaxies et de la dynamique des amas de galaxies, etc. Cette matière noire n’a jamais été observée pourtant il n’est pas possible pour les physiciens d’intégrer l’idée que cette situation serait due au fait que notre information est limitée à cause de notre conception limitée voire erronée de notre univers qui serait clos et déterminé d’un point de vue spatio-temporel, vu comme un bloc univers, conséquence de la Relativité Générale.

[2] Voir article du 11/07/2012 et c’est pourquoi je propose des articles qui font références à la paléoanthropologie, à la philosophie, à la métaphysique, aux mathématiques, aux neurosciences.

[3] Cette affirmation de Le Cun est une source de débats tendus entre paléoanthropologues, ainsi dans l’article du 07/11, j’indique l’existence d’articles dans ‘Pour la Science’ qui privilégient : « La culture, moteur de l’évolution humaine. » P. Picq dans son livre, ‘Premiers hommes’, 2016, a un point de vue contraire, p. 336 : « Aujourd’hui encore, une majorité de paléoanthropologues et surtout des préhistoriens considèrent que notre évolution est plus cultuelle que biologique. Rien de plus faux ! Il n’en est rien, que ce soit pour Homo erectus ou, bien plus tard… » ; « Ce qui fait que notre évolution devienne humaine depuis Homo erectus ne vient pas de l’invention des outils, de la chasse, du partage de nourritures…mais de l’émergence de la condition humaine. Homo, est un transformateur de monde par sa pensée et ses actions… Cette puissance écologique d’Homo repose en outre sur une puissance biologique, physiologique et cognitive qui provient – fait inédit de l’histoire de la vie – de ses innovations techniques et culturelles, comme le feu et la cuisson. »

Partager cet article

Repost0
19 novembre 2018 1 19 /11 /novembre /2018 07:53

Il y a un pépin au bord de l’univers qui pourrait amener à reconsidérer la physique.

Ceci est le titre d’un article de Michael Brooks, que je soumets à votre réflexion car il souligne la fragilité des valeurs sur lesquelles nos modèles standards physiques sont bâtis. Fragiles, parce qu’on ne sait toujours pas : « pourquoi ces valeurs plutôt que d’autres ? » et l’explication anthropique n’étant plus acceptable actuellement, la théorie du multivers offre, entre autres, une réponse à cette question.

Un nombre mystérieux détermine comment la physique, la chimie et la biologie fonctionnent. Mais des indices expérimentaux controversés suggèrent que ce n'est pas un nombre du tout.

Ce nombre c’est α : la constante de structure fine = e2/hc (α s’exprime selon cette égalité moyennant un certain nombre de conventions unanimement acceptées, e représente la charge de l’électron, h est la constante de Planck/2π et c est la vitesse de la lumière). La constante de structure fine étant sans dimension, son existence même implique l'existence d'un mécanisme sous-jacent fixant sa valeur, et depuis les années 1920, donner une explication à cette valeur a été un défi lancé à la physique moderne et l'énigme reste toujours entière à ce jour. En électrodynamique quantique, la constante de structure fine joue le rôle de constante de couplage, représentant la force d'interaction électromagnétique et décrit les interactions entre la lumière et la matière. Sa valeur :  0.00729735 à quelque chose près = 1/137 nombre sans dimension ne peut pas être prédite par la théorie mais seulement déterminée par des résultats expérimentaux.

Si on change ce nombre d’un petit brin on change l'univers. Si on l’augmente trop, les protons se repoussent si fortement que les petits noyaux atomiques ne peuvent pas tenir ensemble. Si on l’augmente encore un peu plus, alors la fusion nucléaire à l'intérieur des étoiles ne peut plus produire du carbone, l'élément sur lequel la vie est basée. Rendre α beaucoup plus petit, et les liaisons moléculaires s'effondrent à des températures plus basses, altérant ainsi de nombreux processus essentiels à la vie.

Ce problème ne se pose pas uniquement pour α mais cela concerne 19 nombres pour définir le modèle standard de la physique des particules dont parmi la poignée de ces constantes : la masse du boson de Higgs, et une foule d'autres caractérisant les masses particulaires et les forces d'interaction. Ces constantes s’imposent dans la théorie, et nous devons injecter ces nombres arbitraires, ils sont juste là et, essentiels, nous les évaluons par l’expérience.

De plus, le modèle standard de la cosmologie nécessite 12 autres paramètres, y compris la constante de Hubble, qui décrit le taux d'expansion de l'univers, et les facteurs en rapport avec la matière noire et la densité d’énergie sombre.

Sur terre, au moins, alpha se maintient dans des limites strictes. Les expériences de laboratoire montrent qu’au plus elle pourrait varier de quelques parties par 10 milliards. Cela est 100 000 fois plus précis que G : la constante de Newton.

Dès 1937, Paul Dirac (1902-1984) avait formulé l’hypothèse que α aurait pu varier au cours du temps cosmologique. Peut-être que les interactions électromagnétiques étaient plus faibles ou plus fortes dans le passé ou encore sont-elles présentement différentes dans certaines parties distantes de l’univers ? La question se pose puisqu’actuellement les physiciens semblent avoir atteint une impasse dans leurs efforts pour dévoiler des vérités plus profondes à propos de la réalité. En conséquence si on mesurait une variation de α cela ouvrirait la voie pour une nouvelle physique (sic).

« Dans ce cas cela pourrait inclure, par exemple, la présence de dimensions supplémentaires. La théorie des cordes, un pari bien sauvegardé pour une théorie de la physique de la prochaine génération (sic), propose l'existence de minuscules dimensions bouclées que nous ne pouvons pas voir. Mais elles ont des effets sur des choses comme alpha. L'état des quantités que nous appelons des constantes est quelque peu dégradé si vous croyez qu'il y a des dimensions supplémentaires, dit le cosmologue John Barrow à l'Université de Cambridge. "S'il y a vraiment neuf ou dix dimensions de l'espace, avec seulement trois grandes, alors les vraies constantes immuables de la nature vivent dans le nombre total de dimensions et les ombres tridimensionnelles que nous observons ne sont pas de vraies constantes (sic)."

Pour le physicien John Webb, la possibilité d'un alpha variable est devenue une question quasi-obsessionnelle depuis deux décennies. Depuis 1996, il tente de trouver une réponse en se demandant si la lumière recueillie par certains de nos plus puissants télescopes serait capable de régler cette question. Plus récemment, les avancées technologiques ont rendu possible l'évaluation de α  α {\displaystyle \alpha } à une plus grande distance et avec une meilleure précision. En 1999, l'équipe de John K. Webb de l'Université de Nouvelle-Galles du Sud a affirmé avoir détecté une variation de α. α {\displaystyle \alpha } . ;. En utilisant les télescopes Keck (Île d’Hawaï) et une série de données sur 128 quasars avec un décalage vers le rouge de 0,5 < z < 3, Webb et al ont trouvé[1] que les spectres correspondaient à une faible augmentation relative de α = -0,57 + ou – 0,1×10α {\displaystyle \alpha } -5 sur 10-12 milliards d'années. Δ α α   = d e f   α t h e n − α n o w α n o w = − 0 , 57 ± 0 , 10 × 10 − 5 {\displaystyle {\frac {\Delta \alpha }{\alpha }}\ {\stackrel {\mathrm {def} }{=}}\ {\frac {\alpha _{\mathrm {then} }-\alpha _{\mathrm {now} }}{\alpha _{\mathrm {now} }}}=-0{,}57\pm 0{,}10\times 10^{-5}}

Une étude plus récente de 23 systèmes absorbants de raies spectrales menée par Chand et al en utilisant le Very Large Télescope montre qu'il n'y a aucune variation mesurable.

John Webb a accès maintenant au VLT et dorénavant il prétend avoir le résultat suivant au sujet de α : sa valeur change graduellement et approximativement linéairement avec la distance de la terre. « Si nous parcourons une distance correspondant à la distance que la lumière a parcouru depuis le Big Bang, nous nous trouvons dans une partie de l'univers où la physique commence tout juste à être sensiblement différente », dit Webb. L'univers a été en expansion depuis le Big Bang, cependant, de sorte que le cosmos s'étend encore plus loin que cela. La progression linéaire suggère que dans ces régions invisibles, alpha pourrait varier assez au point que l'univers lui-même commence à apparaître très différent. « C'est peut-être si différent que la vie telle que nous la connaissons ne peut pas exister », nous dit Webb.Δ α α e m = − 0 , 6 ± 0 , 6 × 10 – 6 {\displaystyle {\frac {\Delta \alpha }{\alpha _{\mathrm {em} }}}=-0{,}6\pm 0{,}6\times 10^{-6}}

Pour dépasser ce stade de l’incertitude et de la spéculation, il est prévu que d’ici la fin 2019, soit installé et fonctionnel un nouvel instrument : ‘EXPRESSO’ (Echelle Spectrograph for Rocky Exoplanet and Stable Spectroscopic Observation) sur le VLT. Etant donné le niveau de la performance attendu de cet instrument, l’observation de la variation significative d’α depuis le Big Bang sera tranchée et à partir de cette connaissance nouvelle, si elle s’impose, effectivement une nouvelle physique pourra surgir. 

            P.S. Je vous dois un mea culpa. Dans le précédent article du 14/11/ j’aurai dû rappeler que le physicien Roger Penrose pense avoir trouvé une preuve de son modèle de « cosmologie cyclique conforme ». Des « points de Hawking » seraient visibles dans le rayonnement fossile, témoignant de l'évaporation de trous noirs supermassifs survenue avant le Big Bang, dans un monde qui aurait précédé le nôtre.

L’hypothèse de l’empreinte d’un univers du multivers ou du multivers lui-même, dans le rayonnement fossile est proposée par d’autres physiciens. Tout cela est très ténu, raison de plus pour que je ne permette pas d’accroitre pour vous la fragilité de ces hypothèses très avant-gardistes.

 

[1] Durant son voyage vers la terre une partie de la lumière émise, il y a 12 milliards d’années, par des noyaux de galaxies extrêmement lumineux ou quasars, a traversé des nuages de gaz qui absorbent certaines longueurs d'ondes. Cela donne un moyen d’évaluation crucial de la valeur d’alpha : « Si vous changez alpha, vous changez le degré d'attraction entre l'électron et le noyau. », dit Webb. Cela change les longueurs des ondes absorbées par un atome donné - ce qui signifie que le spectre d'absorption crée une sorte de code-barres unique correspondant à la valeur d'alpha lorsque le spectre a été créé. »

Partager cet article

Repost0
14 novembre 2018 3 14 /11 /novembre /2018 16:36

L’Espace-Temps : une création d’acteurs bien connus ?

Ceci est le titre d’un article que j’ai obtenu sur le site de Phys.org. Je l’ai traduit et il est ci-joint, ci-dessous, dans son intégralité et en deuxième partie je commente les points sur lesquels je suis particulièrement attentif étant donné l’état de ma réflexion sur le sujet de l’Espace-Temps.

« Tout comme les interactions entre les grains de sable forment une surface lisse sur la plage, l'espace-temps connu par nous pourrait être le résultat de relations entre quarks et leurs conglomérats.

La plupart des physiciens estiment que la structure de l'espace-temps est formée d'une manière inconnue à l’échelle de Planck, c'est-à-dire à une échelle proche d'un milliardième de milliardième de milliardième de mètre. Cependant, des considérations pertinentes compromettent cette prédiction. En effet, il y a des arguments en faveur de l’émergence de l'espace-temps à la suite de processus qui se déroulent au niveau des quarks et de leurs conglomérats.

Qu'est-ce que l'espace-temps ? L'absolu, l’immuable, arène des événements ? Ou peut-être est-ce une création dynamique, qui émerge d'une certaine manière à une certaine échelle de distance, de temps ou d'énergie. Les références à l’absolu ne sont pas les bienvenus dans la physique d'aujourd'hui. A l’heure actuelle il est largement considéré que l'espace-temps est émergent. Ce n’est pas clair, cependant, où le processus de l’émergence se déroule. La majorité des physiciens tendent à supposer que l'espace-temps est créé à l’échelle de Planck, à une distance proche d'un milliardième de milliardième de milliardième de mètre (~ 10-35 m). Dans son article dans Fondations de la Science, professeur Piotr Zenczykowski de l'Institut de physique nucléaire de l'Académie Polonaise des Sciences à Cracovie systématise les observations de nombreux auteurs sur la formation de l'espace-temps, et soutient que l'hypothèse de sa formation à l'échelle des quarks et des hadrons (ou agrégats de Quarks) est tout à fait raisonnable pour un certain nombre de raisons.

Les questions sur la nature de l'espace et du temps ont laissé perplexe l'humanité depuis au moins l'antiquité. Est-ce que l'espace et le temps sont séparés de la matière, créant un "container ", un contenant, pour les mouvements et les événements se produisant avec la participation des particules, comme Démocrite l’a proposé au Ve siècle av. J.-C. ? Ou bien ils sont les attributs de la matière et ne peuvent pas exister sans elle, comme Aristote l’a suggéré un siècle plus tard ? Malgré le passage des millénaires, ces questions n'ont pas été encore résolues. En outre, les deux approches, bien que contradictoires, sont profondément enracinées dans les piliers de la physique moderne.

En mécanique quantique, les événements se déroulent dans une arène rigide avec un temps d'écoulement uniforme. Tandis que, dans la théorie de la relativité générale, la matière déforme l'espace-temps élastique (étirement et torsion), et l'espace-temps indique aux particules comment se déplacer. En d'autres termes, dans une théorie, les acteurs entrent dans une scène déjà prête pour jouer leur rôle, tandis que dans l’autre théorie, ils créent leur scène au cours de la performance, qui à son tour influe sur leur comportement.

En 1899, le physicien allemand Max Planck remarqua qu’avec certaines combinaisons de certaines constantes de la nature, des unités de mesure très fondamentales pourraient être obtenues. Seulement trois constantes – la vitesse de la lumière c, la constante gravitationnelle G et de Planck constante h — suffisaient à créer des unités de distance, de temps et de masse, égaux (respectivement) à 1,62 · 10-35m, 5,39 · 10-44s et 2,18 · 10-5g. Selon la croyance courante d'aujourd'hui, l'espace-temps serait créé à la longueur de Planck. En fait, il n’y a aucun argument de fond quant à la rationalité de cette hypothèse (sic).

A la fois les expériences les plus sophistiquées et les descriptions théoriques atteignent l'échelle des quarks, c'est-à-dire, le niveau de 10-18m. Alors, comment savons-nous que sur le chemin de la longueur de Planck – plus d'une douzaine d’ordres de grandeur consécutifs, toujours plus petits, de magnitude — l'espace-temps conserve sa structure ? En fait, Nous ne sommes même pas sûrs si le concept de l'espace-temps est rationnel au niveau des hadrons ! Les divisions ne peuvent pas être réalisées indéfiniment, parce que à un certain stade, la question de la prochaine partie plus petite cesse de faire sens. Un exemple parfait ici est la température. Ce concept fonctionne très bien sur une macro-échelle, mais quand, après les divisions suivantes de la matière, nous atteignons l'échelle des particules individuelles, il perd sa raison d’être.

 "Actuellement, nous cherchons d'abord à construire une quantification, un espace-temps discret, puis « remplir » avec de la matière discrète. Cependant, si l'espace-temps était un produit des quarks et des hadrons, la dépendance serait inversée — le caractère discret de la matière devrait alors appliquer la discrétion de l'espace-temps" dit le professeur Zenczykowski. "Planck a été guidé par les mathématiques. Il voulait créer des unités avec le plus petit nombre de constantes possibles. Mais les mathématiques sont une chose, et la relation avec le monde réel est autre chose. Par exemple, la valeur de la masse de Planck semble suspecte. On s'attendrait à ce qu'elle ait une valeur bien plus caractéristique du monde des quanta. En attendant, elle correspond à environ un dixième de la masse d'une puce, ce qui est certainement un objet classique."

Puisque nous voulons décrire le monde physique, nous devons nous pencher sur la physique plutôt que sur des arguments mathématiques. Ainsi, lorsque nous utilisons les équations d’Einstein, nous décrivons l'univers aux grandes échelles, et il devient nécessaire d'introduire une constante gravitationnelle additionnelle, connue sous le nom de la constante cosmologique lambda. Par conséquent, toujours dans le but de construire des unités fondamentales, si nous élargissons l’ensemble original de trois constantes avec lambda, dans le cas de masses, nous obtenons non pas une mais trois valeurs fondamentales : 1,39 · 10-65g, 2,14 · 1056 g, et 0,35 · 10-24g. La première de celle-ci est interprétée comme un quantum de masse, la seconde est au niveau de la masse de l'univers observable, et la troisième est similaire aux masses de hadrons (par exemple, la masse d'un neutron est de 1,67 · 10-24g). De même, après avoir pris en compte lambda une unité de distance de 6.37 · 10-15m (6.37 Fermi) apparaît, très proche de la dimension des hadrons.

"Jouer avec les constantes, cependant, peut être risqué, parce que beaucoup dépend des constantes que nous choisissons. Par exemple, si l'espace-temps était en effet un produit des quarks et des hadrons, alors ses propriétés, y compris la vitesse de la lumière, devraient être également émergente. Cela signifie que la vitesse de la lumière ne doit pas être parmi les constantes de base" dit le Prof. Zenczykowski.

Un autre facteur en faveur de la formation de l'espace-temps à l'échelle des quarks et des hadrons sont les propriétés des particules élémentaires elles-mêmes. Par exemple, le modèle standard n’explique pas pourquoi il y a trois générations de particules, d’où leurs masses proviennent, ou pourquoi Il y a ce qu'on appelle les nombres quantiques internes, qui incluent l’isospin, l’hypercharge et la couleur. Dans la représentation assurée par le Prof. Zenczykowski, ces valeurs peuvent être liées à un certain espace à 6 dimensions créé par les positions des particules et leurs impulsions. L'espace ainsi construit assigne la même importance aux positions des particules (matière) et à leurs mouvements (processus). Il s’avère que les propriétés des masses ou des nombres quantiques internes peuvent alors être une conséquence des propriétés algébriques de l'espace 6-D. De plus, ces propriétés expliqueraient aussi l'incapacité d’observer les quarks libres.

 "L'émergence de l'espace-temps peut être associée aux changements dans l'organisation de la matière se produisant à l’échelle des quarks et des hadrons dans le plus primaire espace de phase en six dimensions. Cependant, il n'est pas très clair ce qu'il faut faire ensuite avec cette image. Chaque étape subséquente nécessiterait d'aller au-delà de ce que nous savons. Et nous ne connaissons même pas les règles du jeu que la nature joue avec nous — il nous faut continuer de les deviner. Cependant, il semble très raisonnable que toutes les constructions commencent par la matière, parce que c'est quelque chose de physique et disponible expérimentalement. Dans cette approche, l'espace-temps ne serait que notre idéalisation de relations entre les éléments de la matière "dit le professeur Zenczykowski.

Plus d'informations : Piotr Zenczykowski, Quarks, Hadrons, et l'Espace-Temps Emergent, Fondations de la Science (2018). »

L’intérêt de cet article est franchement évident car il formule une hypothèse de la formation (émergence) de l’espace-temps originale. Que l’on adhère ou pas à l’hypothèse de Zenczykowski, son point de vue original mérite d’être analysé d’autant plus qu’il arrive à des ordres de grandeurs qui sont les miens. On peut considérer que ce genre de convergence n’est pas fortuit.

Lorsque l’auteur remarque qu’en mécanique quantique : les événements se déroulent dans une arène rigide, il nous rappelle que l’équation de Schrödinger, est une équation de la physique classique, indiquant que nous devons, faute d’alternative, décrire la mécanique quantique avec des outils mathématiques du monde classique car notre intelligence et nos connaissances se sont forgées dans une relation avec le monde de la nature à l’échelle de nos sens qui sont classiques. On peut dire que l’être humain est, brut de fonderie, un être classique. Lorsque l’auteur évoque la relation entre matière-espace-temps qui s’exprime avec la relativité générale, on peut aussi considérer que ceci est dans l’ordre des choses car l’être humain (et ses ancêtres) ne peut pas avoir une expérience du déplacement spatio-temporel ou de son immobilité sans que la force de gravitation soit effective. Ses points de vue sont basiques et utiles à rappeler.

Quand Zenczykowski affirme : « En fait, il n’y a aucun argument de fond quant à la rationalité de cette hypothèse. », il a parfaitement raison et il est vrai que l’on peut s’étonner de la persistance avec laquelle on continue d’attribuer du sens physique à ses grandeurs. Personnellement, je les ai toujours considérées comme des grandeurs hors-sols.

Ensuite, il indique que la longueur de 10-18m[1] pourrait avoir la valeur d’une longueur limite. Moi-même, avec des considérations différentes j’arrive à la même valeur limite des distances ainsi que pour le temps de l’ordre de 10-25 ou 10-26s comme valeur limite en deçà de laquelle l’intelligence humaine devient aveugle et ne peut plus opérer. Actuellement le point aveugle physique est de l’ordre de 10-21s. Constat qui est obtenu dans les détecteurs avec le Boson de Higgs. Il me semble que techniquement on peut encore gagner en précision mais le coût de ces gains de précision sont très élevés, ils le seront de plus en plus, et il y aura une valeur limite.

J’ai inféré cette valeur limite de l’intervalle de temps en considérant que sur la flèche du temps on peut aisément concevoir l’intervalle de 1 seconde[2] de l’instant présent qui sépare le temps passé du temps futur. Les deux bornes qui délimitent la partie du passé de la partie du futur sont disjointes par la durée d’une seconde. Si on subdivise indéfiniment cette durée d’une seconde on obtient un état où les deux bornes se touchent et le temps passé se déverserait directement dans le temps futur. Or celui qui mesure le temps, il le fait durant l’instant présent, en sa présence, entre passé et futur donc il doit toujours y avoir une durée présente indivisible qui est celui de la présence humaine active, le physicien, qui interdit que les deux bornes délimitant la flèche du temps en deux valeurs distinctes ne se touchent. Mais il y aura à coup sûr une limite qui ne pourra jamais être dépassée. Quels que soient les moyens techniques mis en œuvre, on butera sur un intervalle de temps indivisible car une présence est requise pour assurer la mesure et faire de la physique. L’opération de mesure ne peut pas être instantanée, c’est-à-dire ne peut pas se faire pendant une « durée » effective strictement égale à zéro seconde.

Mon raisonnement est développé en regard des contraintes de l’observateur, celui de Zenczykowski est développé en regard des contraintes de la matière mais nos conclusions convergent.

Quand il est prononcé dans l’article la phrase suivante : « Mais les mathématiques sont une chose, et la relation avec le monde réel est autre chose. » Cette appréciation est loin d’être banale car elle précise un clivage très important tout autant entre physiciens qu’entre mathématiciens. En effet la majorité de ceux-ci pensent que la relation avec le monde réel ce sont les mathématiques. Cette pensée est colportée depuis Platon, relayée par Galilée, puis Descartes, puis Kant, etc… ; etc… C’est une minorité qui considère que les mathématiques ne sont que des outils formels. Ces points de vue philosophico-épistémologique différents sont très déterminants sur la façon dont on pense a priori les lois de la nature et la représentation que l’on se figure de cette nature.

« Cela signifie que la vitesse de la lumière ne doit pas être parmi les constantes de base » dit le Prof. Zenczykowski. Puisque l’auteur interroge le bien fondé de considérer la vitesse de la lumière comme constante de base car elle serait déterminée par les conditions et les causes de l’émergence de l’espace-temps, je propose que l’on réfléchisse au statut de l’universalité de cette constante. Statut qui semble figé jusqu’à présent. Ce qui est assuré, c’est que l’univers que nous sommes capables actuellement de décrire, d’objectiver, est celui qui comprend de la matière baryonique et c’est de celle-ci dont toutes les parties de notre corps sont constituées et nous sommes en conséquence déterminés par les lois internes qui régissent ses constituants élémentaires et ses assemblages avec toutes les complexités possibles. Nous sommes donc en tant qu’émetteur et récepteur de lumière parfaitement sensibles aux rayonnements de cette matière de base. Notre intelligence prospective ne peut se référer qu’aux rayonnements de cette nature. Cela semble être pour nous une détermination absolue et vouloir la surpasser est donc totalement iconoclaste (voir article du 31/07/2013 : Être de lumière et intelligence des lumières ?). Je prétends qu’il est possible de la surpasser et nous sommes peut-être déjà au seuil de ce dépassement avec nos capacités actuelles de spéculer sur l’hypothèse du multivers. Je m’explique, l’idée qu’il existerait d’autres univers avec des propriétés physiques autres que celle de l’univers qu’actuellement nous concevons, n’est plus (en tous les cas, l’est moins) rejetée et je considère que cela progresse avec rigueur dans le bon sens[3]. Je considère que dès que nous aurons réuni suffisamment d’indications sur l’existence de tels autres univers, ils seront, de fait, intégrés dans notre nouvel univers qui résultera de la somme des nouveaux compris par notre intelligence en évolution et de celui qui est le piédestal actuel de notre spéculation. Dans ce cadre nouveau la vitesse de la lumière en tant que rayonnement n’aura plus le statut de constante universelle.

« Dans cette approche, l'espace-temps ne serait que notre idéalisation des relations entre les éléments de la matière » Pour conclure, je suis d’accord avec cette affirmation car il est évident que nous projetons, et nous ne pouvons pas faire autrement que de projeter nos connaissances qui sont les plus avancées des relations entre les éléments de la matière. Les relations entre les éléments de la matière telles que notre discours scientifique en dit, correspondent à l’état de nos connaissances actuelles et ne doivent pas être considérées comme correspondant à une quelconque ontologie.

Ce que l’auteur nous dit aussi c’est que l’espace-temps est un référentiel essentiel pour décrire ces relations. Cet espace-temps est notre ‘propre’, il n’est pas donné dans la nature, et c’est à partir de celui-ci que notre pensée, se structure, structure, prospecte et spécule avec le plus juste propos. 

 

 

[1] Cette distance limite peut être aussi pensée en considérant la dimension de l’électron. C’est par cette voie là que j’ai déduit cette même distance limite. Enfin elle est parfaitement compatible avec mon temps limite (TpS) de 10-26s car TpS = 10-18m/C.

[2] Toutes les mesures réalisées indiquent qu’il faut 1/3 de seconde pour qu’une personne ait une conscience de quelque chose. Avec l’âge cette durée augmente.

[3] R. Penrose aurait déjà décelé une trace d’un autre univers grâce à la zone froide ‘visible’ sur l’image du fond diffus cosmologique publiée par l’équipe ‘Planck’. Actuellement je suis plus convaincu par les arguments d’Aurélien Barrau voir article précédent du 24/10/2018.  

Partager cet article

Repost0
7 novembre 2018 3 07 /11 /novembre /2018 17:04

Nature(s) et Sapiens pensant, toujours à découvrir.

Dans les années précédentes, j’ai commis les 2 articles suivants : ‘Décrypter la physique comme science de l’interface de l’être humain et de la Nature !’ le 18/03/2015, ainsi que : ‘Décrire comment les humains interagissent avec la nature ? Comment ils évoluent grâce à cette interaction ?’ le 23/08/2016.

Ces derniers jours, il a été publié un livre sous la direction de Philippe Descola : ‘Les Natures en question’, édit. O. Jacob, qui présente ce livre en 4e de couverture : « Revêtue de significations multiples, la nature a longtemps formé le pôle principal d’une série d’oppositions dans la pensée européenne : nature et culture, nature et surnature, nature et art, nature et esprit, nature et histoire… Des études de plus en plus nombreuses, dont le livre se fait l’écho, mettent en doute la généralité de ces catégories et leur pertinence. L’effritement des limites de la nature est-il total, ou doit-on reconnaître la persistance de certaines discontinuités fondamentales entre humains et non humains ?

Issu du colloque de rentrée qui s’est tenu au Collège de France en octobre 2017, ce livre propose une réflexion interdisciplinaire sur les questions soulevées par les déplacements et les brouillages de frontière entre déterminations naturelles et déterminations humaines (sic). »

D’emblée je cite ce qui est rappelé dans l’introduction : « Heidegger l’a bien vu, la nature y a fonctionné comme le terme cardinal puisqu’elle spécifiait les caractéristiques de chacune des notions auxquelles on l’opposait. Ce qui se distingue de la nature reçoit d’elle sa détermination (sic) – la culture comme ce qui n’est pas transmis par l’héritage biologique, l’art comme ce qui relève de l’artifice et non du spontané, la société comme ce qui repose sur des conventions particulières et non universelles ; en sorte que nombre de concepts structurant la pensée européenne (sic) paraissent nés d’un effort sans cesse renouvelé pour se démarquer du mot nature dont le sens propre est terriblement vague. » Ainsi on mesure l’impact que peut provoquer les investigations des physiciens qui ont comme objectif prioritaire de dévoiler les lois de la nature c’est-à-dire de progressivement réduire le caractère terriblement vague du mot nature.

Selon ma thèse lorsqu’une propriété, une loi de la nature est découverte, elle devient de facto une composante qui enrichit le patrimoine des connaissances humaines, elle devient une composante du patrimoine culturelle, elle est donc d’une certaine façon ‘humanisée’. Dans le cadre de cette dynamique, je conçois que l’être-dans-la-nature qui habite l’être humain surplombe la nature avec une visibilité (intelligence) accrue tandis que concomitamment l’être-de-la-nature un peu plus dévoilé perd de sa sourde influence. Selon ma thèse les discontinuités fondamentales, qu’évoque Ph. Descola, ne disparaissent pas ni ne s’effritent au sens premier du terme mais c’est leur influence respective qui évolue dès qu’elles sont objectivées c’est-à-dire dès qu’elles sont humanisées. En même temps il ne faut pas oublier que cette humanisation spécifique n’est jamais close, n’est jamais aboutie, pensons à la loi de Newton qui est englobée par la suite par la loi de la relativité générale d’Einstein et celle-ci sera englobée par une autre loi encore à découvrir.

Je rencontre avec beaucoup d’intérêt sous la plume de l’auteur les notions auxquelles je me réfère régulièrement, celles de déterminations naturelles et de déterminations humaines. Selon mon schéma les déterminations naturelles que véhiculent l’être de la nature sont moins prégnantes dès qu’elles sont élucidées par l’intelligence humaine. Elles continuent d’être naturelles mais leur nature comprise est intégrée et définitivement appropriée par l’être dans la nature. Ainsi lorsque l’être humain, ici plus spécifiquement les physiciens s’approprieront de l’idée que l’espace-temps est un propre de l’homme[1] du fait de son évolution au sein de la nature depuis les profondeurs du temps bien des propriétés de la mécanique quantique aujourd’hui toujours bizarres deviendront compréhensibles.

A la page 8 du livre, dans l’introduction, Descola nous dit : « … certaines espèces sont parvenues à se hisser (sic) au-dessus de leur condition « naturelle ». C’est en premier lieu sous l’influence de l’éthologie que cet aggiornamento s’est produit, lorsque fut mise en cause l’absolue singularité des humains en tant qu’espèce apte à produire de la différence culturelle. ». Avec cette citation, je me permets de considérer que l’auteur adopte une semblable dynamique à la mienne. C’est en tant qu’anthropologue que logiquement il adopte cette conception, quant à moi c’est en visitant avec une curiosité ouverte l’histoire de la pensée en physique et de ses succès que j’ai adopté cette conception du ‘hissement’ (surplomb progressif) pour l’être humain.

Rappelons que la pluralité des définitions de la nature n’est pas nouvelle ainsi à l’époque des Lumières, Denis Diderot le pannaturaliste désigne : « le système qui considère la nature comme principe fondamental, pour lequel rien n’existe en dehors de la nature », les autres articles sur la « Nature » de l’Encyclopédie sont fortement influencés par Newton. Ainsi, la nature ne serait pas caractérisée par la pluralité des objets, mais par l’unité des sciences qu’elle postule. De Descartes à D’Alembert, un même principe architectonique préside à l’enquête sur la nature. Le domaine des mathématiques est en pleine expansion grâce à la rencontre entre physique et mathématiques initiée au XVIIe siècle. Mais ce projet d’unification de la nature par la mathématisation ne va pas sans résistance dans le monde savant. Denis Diderot défendra contre D’Alembert l’idée d’une nature plus riche, plus diversifiée et en conséquence largement rétive à la mise en équation…

Ce livre réunit un ensemble d’interventions que je conseille, bien évidemment, d’étudier. Ici dans l’article, je privilégie l’intervention de Claudine Tiercelin qui a pour titre : ‘Comment situer l’esprit dans la nature ?’. Vaste sujet, que ce soit dans le cadre d’une conception dualiste[2] ou dans le cadre d’une conception réductionniste physicaliste[3]. Mais ce sujet est taraudant dès que l’on est convaincu que la sphère du sens est proprement humaine. Il est à mon sens parfois vivifiant de ressasser des questions qui n’ont pas de réponse immédiate voire même n’auront aucune réponse suffisante car elles ont la vocation de nous mettre en garde contre la tentation de produire des conclusions hâtives. Ainsi page 238, C. Tiercelin nous interpelle avec cette interrogation :

« Quelle est la place de notre liberté dans la Nature ? Nous pensons spontanément que nous ne sommes des agents libres que si nous pouvons agir sur le monde physique en vertu de nos décisions et, plus généralement, en vertu de nos états et processus mentaux, en d’autres termes, si nous admettons le principe d’une forme de « causalité mentale » ou « descendante ».

Cette causalité mentale descendante n’est pas envisageable dans le cadre du physicalisme car étant in fine réductible à des lois physiques le mental serait donc physique et notre liberté dans la Nature serait un leurre.

 C. Tiercelin ajoute : « En d’autres termes, et telle est sans doute la raison majeure de notre réaction épidermique au réductionnisme physicaliste : comment l’esprit peut-il exercer ses pouvoirs causaux dans un monde dont nous sommes prêts, par ailleurs, à admettre, qu’il est physiquement clos ? Pourquoi et comment peut-il exister quelque chose comme un organisme vivant, un esprit, une conscience dans un monde intégralement régi par la physique ? »

En effet dans le cas de figure privilégié ci-dessus l’esprit ne peut pas exercer de pouvoirs causaux puisqu’il serait pris lui-même dans le filet de la causalité, il n’en serait qu’un maillon, il serait donc précédé par une cause et produirait un effet qu’il ne maîtriserait pas. La problématique, du monde physiquement clos, soulevée par Tiercelin, n’est valable aujourd’hui que dans un contexte restreint étant donné l’état actuel de la connaissance et il est dommage que dans un colloque datant de l’année dernière, il ne soit pas évoqué les théories qui justement ouvrent le monde des possibles en physique parce que ce dont l’auteur cite comme unique référence apparaît, est déjà apparu, comme un non-sens et certains physiciens ont vécu, ont compris, que cette tension était plutôt le fruit d’une pensée insuffisante que le fruit d’une pensée bien placée en cosmologie. Je fais donc référence à l’hypothèse du multivers[4] ainsi qu’à la théorie du rebond. Comme quoi chaque domaine de réflexion à sa propre inertie, parce qu’il est humainement toujours difficile de repenser, de remettre en cause, ce qui fait de soi un(e) intellectuel(le) doté(e) d’une aura professionnelle. L’académisme peut malheureusement être une prison pour la pensée.

La lecture de l’ensemble de l’intervention provoque l’émergence d’une réelle inquiétude car je découvre qu’un excès d’érudition peut s’opposer à l’expression d’une pensée propre qui expose un supplément de réflexion, au-delà voire au-dessus des références des études dont se nourrit l’auteur. Dire ce qui est déjà pensé, comment cela est déjà pensé, n’est pas suffisant pour promouvoir une pensée nouvelle originale. De plus rappeler des catégories pour dire qu’elles sont dépassées et/ou d’autres sont immuables assèche l’enthousiasme de prolonger le suivi de la réflexion de l’auteur. Je cite : «… ne pas réintroduire en douce, quelque élan vital bergsonien, ou autre billevesée panpsychiste (thèse selon laquelle toutes les propriétés sont mentales : voir articles du 16/02/2018 et du 25/02/2018) ; … restons fermes sur les principes de l’unité de la science, de la clôture causale du physique et de l’exclusion causale du mental, conséquence de l’impossible surdétermination causale. »

  Par contre, j’ai pu lire aussi des mises en garde pertinentes telle que : « Il serait imprudent d’affirmer trop vite que telle ou telle théorie cognitive va opérer un découpage correct du monde mental : il n’est pas évident que le cerveau soit le miroir exact des articulations de notre esprit. D’où l’importance d’une démarche que je qualifierais volontiers de véritable ontologie cognitive exploratoire, qui consisterait à déterminer, moins à quoi, dans le cerveau, correspond telle activité mentale que ce dont on parle lorsqu’on considère qu’il y a certains processus mentaux qui se déroulent, en distinguant en particulier aussi finement que possible, au sein de l’esprit, les niveaux subdoxastiques, doxastiques, métadoxastiques et surdoxastiques (sic). »

Je reprends sur le rappel par C. Tiercelin de la nécessité de rester ferme sur des principes de l’unité de la science, de la clôture causale du physique, etc… Pourquoi faudrait-il que des connaissances robustes impliquent une clôture, un absolu, une certitude quant à leurs valeurs définitives ? Nous ne pouvons pas oublier que le Sapiens pensant que nous sommes n’est pas, lui-même, vraiment connu, compris, en tant que concepteur et émetteur de connaissances et comme nous le verrons plus loin cela est positivement intrigant. A cet égard nous devons conserver une ouverture d’esprit pour saisir à propos des nouveautés de connaissances, de compréhensions, toutes les ouvertures conséquentes. Cela n’implique pas le relativisme, ni ne fragilise ce que nous sommes présentement, au contraire cela permettra de rendre progressivement plausible ce qui est encore aujourd’hui de l’ordre de la métaphysique. Opportunément le N° de ‘Pour la Science’ du mois de Novembre (que je conseille d’étudier) traite du sujet suivant : ‘Ce qui distingue Sapiens des autres animaux’ accompagné de l’introduction suivante : « Culture, langage, cognition… : l’espèce à laquelle nous appartenons est singulière, tout le monde en convient. Et cette singularité nous intrigue depuis toujours. De fait d’innombrables penseurs ont tenté de définir ce qui fait le propre de l’homme. Avec hélas peu de résultats convaincants et durables face aux découvertes de l’éthologie. Néanmoins, le progrès de la science aidant, nous connaissons aujourd’hui mieux les différences essentielles entre les humains et les autres animaux, et nous comprenons mieux leurs origines… Bref l’état des lieux provisoire montre que le fait culturel joue un rôle capital. »

Le premier article : « La culture, moteur de l’évolution humaine ». Je cite ce qui retient particulièrement mon attention : Si notre espèce brille par son intelligence et sa créativité, c’est parce que nous sommes avant tout des animaux sociaux. Langage, empathie, enseignement… : ces éléments qui facilitent les interactions sociales et le partage des connaissances auraient été autant de clés au succès évolutif d’Homo sapiens.

La culture aurait fait grandir notre cerveau.

Que les activités culturelles de nos ancêtres aient fait peser une pression de sélection sur leurs corps et leurs esprits – un processus de coévolution gène-culture – est maintenant (sic) bien étayé. Des analyses théoriques, anthropologiques et génomiques concordent pour indiquer que le savoir transmis socialement, notamment celui permettant la fabrication et l’usage d’outils, a engendré en retour une sélection naturelle qui a transformé l’anatomie et la cognition… L’enseignement et le langage ont complètement rebattu les cartes pour notre lignée. La coopération à grande échelle est apparue dans les sociétés humaines grâce à nos facultés uniques d’apprentissage social et d’enseignement…

Des Êtres qui sont en partie le produit d’eux-mêmes[5].

Deuxième article : « Des pensées emboîtées… et partagées. » Je cite :

Les recherches ont mis en relief deux distinctions majeures : notre capacité à imaginer des scénarios imbriqués et le partage de pensées et le partage de pensées avec autrui. Réunies, ces aptitudes sous-tendent des facultés humaines primordiales telles que le langage, la culture, la moralité, l’anticipation du futur, la capacité à lire dans la pensée des autres.

Troisième article : « Comment le langage s’est imposé » je cite :

Parmi toutes les formes de communication rencontrées dans le monde animal, le langage humain fait figure d’exception. Comment a-t-il émergé ? Les particularités biologiques et cognitives des humains ne sont pas les seules en jeu : de plus en plus, les scientifiques soulignent le rôle décisif qu’a joué la culture.

On n’a rien trouvé d’unique en nous qui explique le langage humain (sic).

Les recherches sur l’évolution du langage constituent un champ scientifique encore jeune. Les chercheurs n’ont pas atteint le graal escompté, à savoir un évènement crucial expliquant l’apparition du langage, mais leurs travaux montrent que cette quête est probablement vaine. L’émergence du langage est un processus plus multifactoriel qu’on ne le pensait.

A ce stade des citations de ‘Pour la science’, on constate que ce qui constitue une aptitude qui caractérise l’être humain n’aurait pas de cause première, mais serait le fruit d’une évolution multifactorielle nous interdisant de considérer qu’une quelconque réduction serait envisageable, réduction qui nous permettrait d’isoler la souche spécifique à l’engendrement de l’humain. La richesse naturelle (peut-être pouvons-nous la nommer contingence !) qui est à l’origine de ce qui conduit à l’humain doit être toujours pensée lorsqu’il y a une volonté irrépressible de clôture car elle est en opposition à ce qui est de l’ordre de l’humain. La seule raison qui peut justifier l’idée de clôture… provisoire c’est la nécessité d’une pause pour reprendre un élan. C’est ainsi qu’il faut comprendre, à mon sens, l’hypothèse du big bang de l’univers qui n’est qu’une étape permettant à la pensée d’évaluer le caractère infondé, artificiel, mais provisoirement sécurisante, de cette hypothèse et après évaluation permettant ainsi d’ouvrir l’hypothèse d’une ouverture, d’une respiration, intellectuelle nouvelle avec la théorie du multivers.

A propos du langage humain, il faut rappeler que Noam Chomsky a tenu la corde longtemps avec son hypothèse que le langage était dû à une dotation génétique du même type que celle qui spécifie la structure de notre système visuel ou celle de notre système circulatoire. Cette hypothèse est en opposition avec celle du multifactorielle. De même N. Chomsky affirme que le langage est ‘conçu’ pour penser, la communication n’étant que secondaire. Donc ceci contredisant l’article de Pour la Science, peut être retrouvé dans le N° de La Recherche Hors-Série que j’ai cité dans les derniers précédents articles. En conclusion le Sapiens pensant, que nous sommes aujourd’hui, a des perspectives de connaissances ouvertes pour comprendre sa raison d’être, tout comme pour comprendre concomitamment le : là étendu où il se situe.

Quatrième article : ‘Un cerveau hors catégorie’, je cite :

Un encéphale particulièrement gros, un cortex particulièrement plissé, des connexions neuronales particulièrement nombreuses… le cerveau humain est singulier dans le monde animal.

Le registre fossile des homininés met en évidence une tendance générale de croissance du volume crânien au cours des six derniers millions d’années environ. Cela correspond à la séparation de notre lignée de celle des chimpanzés et des bonobos.

Fort développement de certaines aires cérébrales. Certaines régions du cerveau, responsables de fonctions cognitives supérieures, ont augmenté de taille de façon disproportionnée chez les humains, comparées aux mêmes aires chez les chimpanzés. Il s’agit notamment du cortex préfrontal, du cortex associatif temporal et du cortex associatif pariétal.

Le cerveau d’Homo habilis (entre 3,3 et 2,1 millions d’années), 646 cm3 ; le cerveau d’Homo erectus (entre 1,9 million d’années à 143 000 ans), 952 cm; le cerveau d’Homo neanderthalensis (400 000 à 40 000 ans), 1404 cm3 ; le cerveau d’Homo sapiens 300 000 ans à aujourd’hui, 1500 cm3.

 

[1] Voir dans l’article précédent la citation de l’article : ‘Code neural du temps’ ; Voir aussi la nouvelle publication d’octobre 2018 de J.G. Heys et D.A. Dombeck dans Nature Neuroscience : ‘Evidence d’un sous circuit dans le cortex entorhinal médian représentant le temps s’écoulant pendant l’immobilité’.

[2] En philosophie, le dualisme est un point de vue strict affirmant que l’univers est constitué d'un constituant physique et d'un constituant mental. Le dualisme se réfère à une vision de la relation matière-esprit fondée sur l'affirmation que les phénomènes mentaux possèdent des caractéristiques qui sortent du champ de la physique

 

[3] Le physicalisme constitue une version extrême et paradigmatique de réductionnisme hétérogène car il considère que tous les niveaux de la réalité sont réductibles, en dernière instance, à son niveau le plus fondamental qui est celui de la physique. Cette forme de réductionnisme est intimement liée à une conception ontologique et non pas simplement méthodologique ou épistémologique de l'unité de la science. Les objets apparemment divers dont s'occupent les différentes sciences empiriques relèveraient ultimement d'une ontologie unitaire et la microphysique (sic) serait le dépositaire de cette ontologie

[4] L’hypothèse du multivers bénéficie d’une certaine façon de fondements de la physique théorique qui a fait ses preuves. Mais effectivement elle n’est pas prédite par des équations, par contre cette hypothèse ne peut pas être exclue, loin de là, par l’avancement, la compréhension nouvelle approfondie, de cette physique théorique qui finalement, au bout du compte, bénéficie d’une consolidation grâce à cet approfondissement.

[5] Dans le livre récent : ‘Dernières nouvelles de Sapiens’ édit. Flammarion, les auteurs considèrent qu’Homo sapiens serait un « animal autodomestique » et la culture jouerait un rôle dans sa conformation biologique : l’homme ne vit pas dans la nature (sic) mais dans la société. Comme avant eux, l’anthropologue Maurice Godelier l’a souligné et analysé, les humains ne se contentent pas de vivre en société, ils doivent « produire de la société » pour vivre.

Partager cet article

Repost0
24 octobre 2018 3 24 /10 /octobre /2018 09:51

Naturellement !

J’avais gardé en réserve l’annonce suivante : « Le code neural du temps », d’un article de ‘La Recherche’ du mois d’octobre avec l’espoir de pouvoir l’insérer dans un contexte plus général et cela est maintenant possible en associant plusieurs articles qui traitent de l’idée que nous nous faisons actuellement de la Nature que ce soit dans le cadre de notre dépendance ou de notre indépendance globale à l’égard de celle-ci.

Dans l’article, le code neural du temps, page 26, une équipe de neuroscientifiques (prix Nobel 2014) a identifié le circuit cérébral qui nous permet d’associer une temporalité aux événements et de les ordonner chronologiquement. Ce circuit est logé dans le cortex entorhinal latéral (lateral entorhinal cortex, LEC), une structure cérébrale profonde et l’une des portes d’entrée de l’information neuronale vers l’hippocampe, siège de la formation des souvenirs. « Le temps n’est pas encodé de manière explicite par ces neurones, comme une horloge qui décompterait les secondes, mais plutôt de manière indirecte, à travers le flot d’événements que l’on vit en permanence et qui change perpétuellement ». Ce « temps épisodique » défini comme la quantité d’éléments qui diffère d’une expérience à l’autre, conditionnerait directement notre perception du temps. Par ailleurs, le LEC est voisin du cortex entorhinal médian où ont été découvert les « cellules de grilles » permettant de se repérer dans l’espace (voir article du 26/07/2017 : « Le cerveau est capable d’encoder sa propre position dans l’espace. ») Les auteurs pensent que ces deux structures transmettent des informations relatives au temps et à la position vers l’hippocampe, où elles seraient intégrées sous la forme d’une « représentation unifiée du quoi, où et quand ». C’est-à-dire un souvenir. Voir[1] conception de l’espace et du temps selon Leibniz (1646-1716).

Est-ce que ces deux découvertes réalisées en deux temps avec l’unification par l’hippocampe m’autorise à considérer que je rencontre une sorte de confirmation neuroscientifique de mon hypothèse que l’espace-temps est un propre de l’homme (voir, entre autres, articles du 14/06/2013 et du 05/08/2017) ? Si cela ne peut pas être considérée comme une confirmation absolue, il y a une convergence très intéressante qui mérite d’être prise en compte. Est-ce que cet espace-temps unifié au sein de notre hippocampe se confond avec celui que les physiciens conçoivent ? C’est mon hypothèse, et c’est ce que j’appelle une détermination de l’être humain (voir article du 21/07/2015[2]). C’est une affirmation redoutable parce que cela signifie que l’espace-temps usité par les physiciens n’est pas le fruit d’une libre cogitation intellectuelle mais résulte d’un processus neuronal qui fait ce que nous sommes, qui s’impose par notre nature biologique, et qui fait que nous sommes un être vivant façonné par la nature et émergeant de cette nature. Selon mon hypothèse l’être façonné par la nature c’est l’être de la nature et l’être émergeant de cette nature est l’être dans la nature, c’est-à-dire celui qui progressivement se place en surplomb de la nature. Et ces deux êtres cohabitent en nous. Enfin n’oublions pas qu’unanimement les physiciens reconnaissent que la cause principale de la crise de la physique théorique qui sévit depuis plusieurs décennies est notre conception inappropriée de l’espace-temps. Mon article du 05/08/2018 : ‘Appel d’Offres’ vise à découvrir, reconnaître, cette détermination et non pas à l’éradiquer puisque cela est impossible. Mais cela deviendrait un savoir essentiel qui par exemple nous permettrait de comprendre le phénomène de l’intrication.

Il y a deux autres versions pour rendre compte du temps, l’une est de Lee Smolin, pour lui le temps est donné dans la nature, voir son livre : ‘La renaissance du temps’, l’autre est de C. Rovelli, pour lui le temps n’existe pas réellement. Mais je considère que cette dernière déclaration est inappropriée car personne ne peut dire ce qu’est la réalité sans la ‘Présence’ de l’être cogitant que nous sommes. Il n’y a pas de description d’un monde physique sans qu’il y ait un énoncé à ce sujet. Affirmer que la réalité est ce qui reste permanent lorsque le sujet pensant se retire est une ambition absurde. Cela peut faire du bien aux physiciens et aux mathématiciens et leur donner de l’énergie depuis plusieurs siècles mais les raisons de l’impasse dans laquelle se trouve la physique théorique aujourd’hui s’explique à cause de la persistance de cette croyance. Voir ce que dit M. Bitbol dans l’article précédent : « Si le scientifique ne peut se représenter le réel, c’est qu’il ne peut s’en distancier parce qu’il y est lui-même impliqué. Tout ce qu’il peut faire dans ces conditions est d’élaborer des règles pour se mouvoir dans le réel et y survivre. » ; « Le concept même de « réalité extérieure » est éminemment métaphysique, car aucune théorie scientifique ne peut être assurée de la décrire… »    

Maintenant, je reviens sur quelques articles du N° hors-série de la Recherche (octobre-novembre) qui a été l’objet de l’article précédent. Présentement, je propose d’analyser en partie la théorie qui donne une importance de premier ordre à la nature sans émergence et il n’y aurait qu’entrelacement et superposition de tous les vivants pliés les uns sur les autres. Il n’y aurait donc que des êtres de la nature !

L’article page 36 : ‘LA TERRE EST-ELLE UN RESEAU ANIMÉ ORIGINAL ?’ :

« Un ensemble de boucles de rétroaction en perpétuel mouvement, voilà comment James Lovelock a décrit le système Terre dans les années 197O. Pour le sociologue et philosophe Bruno Latour : cette vision de Gaïa est plus que jamais d'actualité. »

Question : Vous êtes un ardent défenseur de l'hypothèse Gaïa. De quoi s'agit-il ?

Bruno Latour : « C'est une façon originale de définir les vivants dans leur relation à la Terre. Elle consiste à considérer la Terre comme un ensemble d'êtres vivants et de matière qui se sont fabriqués mutuellement en suivant des cycles géochimiques. Autrement dit, les organismes vivants ne sont pas en résidence sur la Terre, mais ils en constituent l'environnement : l‘atmosphère, les sols, les océans, etc…, sont façonnés par eux. C’est donc une extension de la notion, déjà présente chez Charles Darwin, que les vivants sont eux-mêmes les ingénieurs de leur propre monde sans avoir besoin pour cela d'être guidés par une intention. Tous les organismes vivants sont impliqués dans ce processus, mais ce sont les bactéries qui ont fait le gros du travail de transformation de l'atmosphère et de la géologie terrestres depuis 3,7 milliards d'années. Puis il y a eu les plantes, les animaux et, pendant une courte période seulement, 2,5 millions d'années, les humains. »

On constate en prenant contact avec cette hypothèse, que d’ailleurs je ne connaissais pas, qu’il n’y a pas d’être dans la nature qui soit pensé. L’affirmation : que les vivants sont eux-mêmes les ingénieurs de leur propre monde sans avoir besoin pour cela d’être guidés par une intention, est étonnante car cela exclut le processus de survie, de reproduction. A mon sens être ingénieur et être sans intention est difficile à concilier.

C’est le chimiste britannique James Lovelock qui est à l’origine de cette hypothèse en 1965. J’évoque cet article parce que, bien qu’il soit à mon sens extrême, il propose de réattribuer un rôle à la nature en réduisant l’opposition entre nature et culture ce qui est souhaitable parce que la scission n’existe pas, il y a toujours cohabitation.

A la question : « Est-ce que le mot nature a encore un sens avec Gaïa ? »

B. Latour nous dit : « L’une des malédictions qui ont pesé contre la théorie, c'est le schéma philosophique d'opposition entre nature et culture, qui s'est installé depuis Galilée et René Descartes dans nos sociétés modernes. Avec Gaïa, l'avantage est que l'on n’a plus besoin d'opposer les sociétés humaines et la nature : tous les organismes vivants font partie du même biofilm, une couche à l'intérieur de l'atmosphère, une zone critique, et jusqu'ici Ia seule, où il y a des vivants à l’intérieur d'autres vivants. Aucun organisme vivant n’obéit à un ordre supérieur auquel il devrait s'adapter. Ils sont tous entrelacés. On n'a plus besoin d'une philosophie de Ia nature pour comprendre Gaïa. »

Je suis convaincu que la problématique de l’opposition entre nature et culture ou du dualisme entre nature et culture n’est pas une problématique qui concerne uniquement les philosophes mais elle doit interpeller les physiciens. Il faut réfléchir à la question d’où est-ce que l’on investit la nature pour découvrir ses propriétés. M. Bitbol et A. Barrau que j’ai cité dans l’article précédent ne nient pas le bien-fondé de ce questionnement et c’est ce qui fait la richesse de leur entretien respectif.

Je vous invite à lire l’article de Bruno Latour dans sa totalité mais il me semble que celui correspondant à l’entretien de Philippe Descola page 68 est vraiment très instructif. Dans cet article : ‘Le dualisme entre nature et culture est-il réel ?’ ; « L’opposition entre nature et culture imprègne nos modes de pensée. Elle implique une vision du monde que Ph. Descola (professeur au Collège de France) a tenté de questionner en élaborant une nouvelle théorie qui fait tomber les barrières de notre ethnocentrisme. » Pour donner une idée de l’intérêt que nous devons développer sur ce type de sujet puisqu’il nous concerne pleinement, je vous cite la réponse de Descola (page 73) à la dernière question : « Finalement, votre lecture critique de notre cosmologie moderne pourrait-elle aller jusqu’à remettre en cause nos lois scientifiques ? » :

« Absolument pas. Dire que notre interprétation moderne du monde nous est propre et relève d’une démarche très ethnocentriste ne signifie pas pour autant qu’il n’y ait pas de loi universelle de la physique ou de la biologie. Il est même possible, comme le pense le philosophe Merleau-Ponty, que la cosmologie moderne ait été nécessaire pour permettre les avancées scientifiques. Ce que je remets en cause, ce n’est pas du tout la légitimité de la science, c’est la séparation épistémologique entre sciences de la nature et de la culture (sic). »

Evidemment, il ne faut pas croire que l’auteur évoque le concept de loi universelle en faisant référence à celle que nous déclarons comme telle, comme par exemple la loi de la gravitation. Non ! il dit qu’il considère que l’hypothèse de l’existence de loi universelle qui régit intrinsèquement la nature ne doit pas être rejetée en tous les cas elle peut être utile sur le plan opérationnel et elle focalise et anime favorablement la pensée scientifique.

Descola est lucide sur la portée effective de sa démarche car à l’avant dernière question : « Le fait d’aller à la rencontre de ces autres modes d’identification peut-il nous aider à les comprendre ? », il répond :

« Cela aide à jeter le trouble dans notre propre perception, mais cela ne nous permet pas d’y adhérer. Nos modes d’identification sont si puissants qu’on ne peut s’en détacher. Tout en éprouvant une grande admiration pour les Achuars[3], je n’ai jamais pu penser que les animaux sont des personnes comme moi, parce que le naturalisme[4] est si profondément imbriqué en moi que cela ne m’est pas possible d’expérimenter l’animisme. »

 

P.S. Je souhaite enrichir d’une donnée supplémentaire récente l’article du 23/06/2018 : ‘Cela s’allume plus tôt que prévu’. En effet il a été découvert le plus vaste proto-superamas de galaxies (annonce le 19/10), structure colossale au sein de l'Univers jeune. Ce proto-superamas de galaxies - baptisé Hyperion - a été mis au jour et il s'agit de la structure la plus étendue et la plus massive découverte à ce jour à si grande distance et datant d'une époque si reculée - seulement 2,3 milliards d'années après le Big Bang. C’est la plus vaste et la plus massive découverte à ce jour dans l'Univers primitif. L'énorme masse du proto-superamas est estimée à plus d'un million de milliards de fois la masse du Soleil (rappelons que la Voie Lactée pèse de l’ordre de quelques centaines de milliards de mase solaire.) Cette masse colossale est semblable à celle des structures les plus étendues de l'Univers contemporain. L'existence d'un objet si massif dans l'Univers jeune est très surprenante. ‘Normalement, ce type de structure se rencontre à des redshifts moindres, correspondant à des stades plus avancés dans la formation de l'Univers.’

 

[1] Selon lui, l'espace et le temps ne sont pas des choses dans lesquelles se situent les objets, mais un système de relations entre ces objets. L'espace et le temps sont des « êtres de raison », c'est-à-dire des abstractions à partir des relations entre objets

[2] Le paléoanthropologue Jean Guilaine m’a précisé à l’occasion d’un échange de correspondance : « Il me semble en effet que l’intégration psychique espace-temps chez l’homme (voire ses progrès) doit être abordée au départ, c’est-à-dire au temps de l’hominisation, voire au Paléolithique inférieur… »

[3] Achuars : Dans les années 1970, l’auteur a étudié le mode de vie des indiens Jivaros (ou Achuars) d’Amazonie et leur rapport à leur environnement.

[4]Selon Ph. Descola : « Avec le naturalisme, nous considérons qu’il y a des discontinuités dans les intériorités entre l’homme – qui seul a une âme, une intentionnalité (contraire au discours ci-dessus de B. Latour) et des capacités pour l’exprimer – et tout ce qui lui est extérieur. Autrement dit, le monde des non-humains relève de la nature parce qu’il n’a pas d’intériorité. Il est vrai que cela est un peu battu en brèche avec les travaux chez les grands singes. Mais c’est seulement un déplacement de frontière vers l’espèce la plus proche, pas un changement de principe. En revanche, pour ce qui concerne les physicalités nous admettons depuis Ch. Darwin… »

Partager cet article

Repost0
21 octobre 2018 7 21 /10 /octobre /2018 07:05

Métaphysique à l’origine signifie Méta-Physique.

C’est avec beaucoup de plaisir et d’intérêt que j’ai découvert le hors-série de ‘La Recherche’ N° 27, Octobre-Novembre 2018, qu’évidemment je vous conseille de lire. J’ai sélectionné un certain nombre d’articles que je souhaite commenter car ils soutiennent explicitement ou implicitement ma conception de la science physique telle qu’elle doit être projetée avec la perspective d’avancées significatives des propriétés de la nature. Evidemment je suis sélectif, et je souhaite que vous bénéficiiez de la teneur complète de ce numéro, aussi il vaut la peine de l’acquérir.

Le premier article consiste en un interview de Michel Bitbol qui est philosophe des sciences. A la page 9, il répond à la question suivante :

En est-on arrivé à l'idée que la science n'a pas besoin de la métaphysique ?

M. B : « Pas tout à fait. Emmanuel Kant a tenté de corriger la vision empiriste de Hume dès la fin du XVIII siècle : la raison qui construit des théories ne doit pas être mise totalement au rebut, car elle a deux rôles. Son premier rôle est de fournir des structures conceptuelles a priori à travers lesquelles le scientifique analyse des phénomènes. Pour Kant, la loi de causalité, qu'illustre Newton, n’est pas posée parce qu'on observe des régularités. Mais c'est parce qu'on pose cette loi que l'on est capable de chercher ces régularités dans le monde. Le deuxième rôle de la raison est de fournir des représentations des choses ultimes et cachées, qui sont certes incertaines et spéculatives, mais qui guident et motivent la recherche. »

Dans ce propos, il y a concomitance avec l’idée que j’ai, à plusieurs occasions, développée qu’il faut que la pensée soit préalablement bien placée pour que la connaissance progresse. La nature ne nous livre aucune information si on ne l’interroge pas à bon escient. Ainsi, au CERN, il est erroné de considérer qu’il suffit de collisionner des paquets de protons aux plus hautes énergies et on verra automatiquement de la nouvelle physique. La science physique est une science qui est le fruit de l’intelligence humaine, et non pas uniquement celui de la technique humaine. Cette intelligence doit être à l’œuvre pour interpréter, il n’y a pas de lecture passive qui soit possible.

Toujours avec M. Bitbol, p. 10, quand on lui demande : Les choses ne sont-elles pas différentes en mécanique quantique ?

M. B. « C'est exact. Plusieurs théoriciens de la mécanique quantique se sont emparés de l'opérationnalisme dans la durée. Très critiques vis-à-vis de Ia métaphysique, deux des fondateurs de cette théorie, l'Allemand Werner Heisenberg et l’Autrichien Wolfgang Pauli considèrent qu'il faut éliminer toutes les représentations classiques, par exemple celle de l'électron qui tourne autour du noyau de l'atome, pour ne retenir que les observations et les mesures. Tel n’est pas tout à fait l'avis d'autres physiciens quantiques, Niels Bohr et Erwin Schrödinger, pour lesquels des images sont nécessaires comme outil de pensée (sic). Le fait de forger des représentations a certes quelque chose de métaphysique, puisque cela va au-delà des observables, mais c'est utile pour se repérer dans les phénomènes quantiques. En 1927, les physiciens parviennent à un compromis, l'interprétation de Copenhague de la mécanique quantique. Ils gardent quelques représentations, mais celles-ci ne prétendent pas être uniques et tout expliquer. Elles doivent être multipliées pour rendre compte d'aspects divers des phénomènes microscopiques. Ainsi, on doit utiliser tantôt la représentation de particules localisées, tantôt celle d'ondes étendues, tantôt une combinaison des deux. »

Le propos de Bitbol sur la pensée utile pour se repérer dans les phénomènes quantiques est juste mais Bohr a toujours insisté sur le fait que cet apparaître à notre esprit ne pouvez pas se transposer en réalité quantique. C’est ce Rubicon qu’a, à mes yeux, franchi malencontreusement C. Rovelli avec sa théorie de la gravité quantique à boucles. Effectivement cette précaution s’est estompée au cours du temps et on peut le constater avec la génération actuellement formée qui ignore de plus en plus cette frontière. Toutefois, je crois que l’on finira par penser quantique lorsqu’on aura décrypté et dépassé des déterminations de l’être humain, par exemple lorsqu’on aura découvert que l’espace-temps est un propre de l’homme et donc l’intrigue de l’intrication sera levée.

Ensuite la Recherche pose la question suivante : Et aujourd'hui, où en est-on ?

« Des interprétations récentes de la mécanique quantique font l'économie de toute métaphysique. Par exemple, selon l'interprétation appelée « Qbism» des physiciens américains Christopher Fuchs de l'université du Massachusetts, à Boston, et David Mermin, de l'université Cornell, la fonction d'onde n’a pas de réalité objective. Elle n’est qu'une fonction de probabilité qui permet de s'orienter dans les phénomènes produits en laboratoire ou en industrie. Le scientifique est quelqu'un qui essaie de parier de manière cohérente sur les résultats d'expérimentations ou les fruits d’une technologie. Cette vision se veut antimétaphysique. Pourtant, les physiciens qui l'ont émise ont formulé une métaphysique non conventionnelle compatible avec leur vision. Si le scientifique ne peut se représenter le réel, c’est qu’il ne peut s’en distancier parce qu’il y est lui-même impliqué. Tout ce qu’il peut faire dans ces conditions est d’élaborer des règles pour se mouvoir dans le réel et y survivre. »

En son début, j’ai été intéressé par le ‘Qbism’ mais en approfondissant j’ai compris que ces physiciens mettaient en jeu la conscience de l’observateur pour justifier leur conception. Or la conscience humaine est indéfinissable d’une façon stricte, c’est une notion qui est instable et c’est donc une référence qui ne peut servir en science physique, seule la ‘Présence’ de l’être pensant est la bonne référence.  Ce que dit M. B. « Si le scientifique ne peut se représenter le réel, c’est qu’il ne peut s’en distancier parce qu’il y est lui-même impliqué. » Cette réflexion n’est certainement pas banale mais inadmissible par les physiciens car ils considèrent que la physique est une science objective, dure, distanciée de tout ce qui meut l’être humain et de tout ce qui le constitue. Je partage le point de vue de M. B. mais ma conception fait appel à une évolution dynamique car la distanciation se fait et pour moi c’est l’être dans la nature qui produit de la distance par rapport à l’être de la nature, deux êtres cohabitant chez l’être humain. Cette dynamique est essentielle, elle caractérise l’être humain qui en conséquence le différencie de toutes les autres espèces.

En haut de la page 11, M. B. affirme : « Les scientifiques ne font pas coller leur théorie à la « réalité extérieure » mais à une réalité immédiate, empirique, faite des résultats de leur expérimentation. Ainsi, quand des chercheurs du Conseil européen pour la recherche nucléaire (Cern) annoncent, en2012, la découverte d'une particule, le boson de Higgs, ils n’ont pas observé une chose existant en permanence indépendamment de nous, qu’on peut appeler « particule » au sens ordinaire du terme : ils ont suscité et détecté une résonance énergétique qui lui correspond. » Très franchement, je crains que M. B. ait raison, car si on étudie sur 60 ans l’histoire de la théorie du boson de Higgs, les termes « suscité et détecté » ne sont pas aberrants. Mais pour accepter complètement ces termes il faudrait les démontrer. Reconnaissons que si c’était vrai, cela serait à l’origine d’une vraie révolution intellectuelle car la preuve apportée que nous créons préalablement le monde physique que nous découvrons serait pour beaucoup choquante et déroutante. Pour mon compte, ce serait une respiration intellectuelle renversante mais bénéfique.

Par la suite M. B. enfonce le clou et quand on lui pose la question :

Le rêve que la science fournisse des enseignements métaphysiques ne serait-il qu'un leurre servant de motivation illusoire aux chercheurs ?

« C'est ma conviction. La croyance des mathématiciens dans leurs entités et des physiciens dans les objets qu'ils pensent manipuler s'explique par leur engagement total dans leurs disciplines. Ils en ont tellement absorbé les règles qu'ils ont l'impression que quelque chose les leur impose de l'extérieur et tient en réserve pour eux ce qu'ils ont à découvrir. Or selon moi, les mathématiciens et les physiciens sont pour beaucoup dans ce qu'ils découvrent. Ce qui échappe en partie au mathématicien, c'est le pouvoir générateur de ses propres axiomes et règles déductives ; ce qui échappe en partie au physicien, c'est son activité de formulation d'hypothèses et de fabrication d'appareils guidée par ces hypothèses, et ce dont ne tient pas assez compte le biologiste ; c’est qu’il est lui-même un être vivant ! »

Ici ce que nous dit M. Bitbol est en lien immédiat avec ce que je désigne comme nos déterminations. L’universel n’est pas atteignable spontanément, nos hypothèses, nos appareils sont dépendants de l’être déterminé que nous sommes encore. Par contre ma différence avec Bitbol c’est une dynamique de réduction de nos déterminations c’est-à-dire que l’être dans la nature gagne en envergure en réduisant le poids de l’être de la nature. L’émancipation de l’être humain par l’acquisition progressive de connaissances sur la nature le conduit à s’approcher de l’horizon du questionnement ayant l’ampleur du questionnement universel ; c’est un objectif, c’est ce qui meut l’être humain.

A la fin de l’interview, ‘La Recherche’ pose la question aujourd’hui incontournable mais qui devient de plus en plus à l’ordre du jour :

Une super intelligence artificielle pourrait-elle aider la métaphysique à répondre à certaines questions soulevées par la science ?

« Je ne le pense pas. La quête métaphysique répond au besoin qu'ont les êtres humains de se forger une vision unifiée du monde et de leur propre condition. Or la puissance de calcul de l'intelligence artificielle est si rapidement croissante qu'elle n'a aucun besoin d'une telle unification. Il est plus simple et plus efficace pour elle de simuler une variété de situations que d'en offrir un modèle synthétique et une conception métaphysique. À cause de cela, je crains que l'essor de l'intelligence artificielle ne finisse par ôter aux scientifiques l'envie de se concentrer durant de longues années pour construire des théories unifiées aussi profondes que par exemple, la relativité générale. »

Je partage complètement la crainte de M. Bitbol, et ce sujet nous avons commencé à le traiter dans l’article du 01/09 avec la tentation de l’utilisation des ‘learnings machines’ pour résoudre l’impuissance des physiciens du CERN à découvrir des choses vraiment nouvelles. M. B. le confirme, la compréhension physique de la nature est le fruit d’une production intellectuelle elle est avant tout une source du développement intellectuel de l’humain ; le : « Tais-toi et calcule plus vite » n’a aucune chance de prospérer dans les laboratoires. Espérons-le !

L’autre article sur lequel je vais vous inviter à réfléchir s’intitule : « Notre univers est-il unique ? », correspondant en un interview d’Aurélien Barrau que je ne présente plus. « Entrée récemment dans le champ scientifique, la théorie des univers multiples reste aujourd’hui controversée. Bien qu’encore non prédictible, elle découlerait cependant directement de différents modèles de physique théorique. » A la question suivante : « Comment l'hypothèse des univers multiples est-elle entrée dans le champ scientifique ? » A. Barrau précise page 20 :

« … De plus, cerise sur le gâteau, cette multitude d'univers, quel que soit leur type, permet de résoudre un sérieux problème de la physique théorique contemporaine. En effet, les constantes fondamentales[1] intervenant dans les modèles qui décrivent l'Univers semblent avoir des valeurs extrêmement particulières qui, comme par hasard, sont favorables à l’apparition de la complexité et de la vie. Or si les valeurs observées de ces constantes ne correspondent qu'à une réalisation parmi une infinité d'autres ayant lieu dans le multivers, une explication à ces valeurs si particulières s'impose naturellement. »

Et donc l’encombrant principe anthropique est dépassé qu’il soit de valeur tautologique ou de valeur métaphysique, et avec la théorie du multivers on peut continuer à réfléchir dans le contexte de la physique fondamentale puisque la thèse du ‘dessein intelligent’ est entre autres évacuée. Il y a encore du chemin à parcourir mais l’hypothèse du multivers me convient car au fur et à mesure que nous lèverons nos déterminations, je suis convaincu que notre intelligence embrassera et intègrera progressivement dans un univers de plus en plus vaste ces univers du multivers. Ainsi nous sommes toujours déterminés par le fait que l’on considère la vitesse de la lumière comme une vitesse limite et une constante universelle. Lorsque nous serons en mesure de dépasser cette situation si profondément déterminante alors certains des univers du multivers seront intégrables dans notre univers de pensée, de connaissance et donc intégrable tout court.

A la question suivante : L'édifice théorique sur lequel reposent les multivers n'en reste pas moins spéculatif. A Barrau répond d’une façon fort appropriée à mon avis :

« Par définition, les propositions scientifiques sont sujettes à débat et finiront par être réfutées. Les multivers n'échappent pas à la règle. Si cette hypothèse avait été élaborée de toutes pièces pour répondre à la question de l'ajustement fin des constantes, elle demeurerait assez arbitraire. Ce qui fait sa force et sa crédibilité, c'est qu'elle découle directement d'autres modè1es. Certes, parmi eux, certains restent très spéculatifs. Mais il est assez remarquable que la plupart des théories physiques, orthodoxes comme hétérodoxes, conduisent d'une certaine manière à l'existence d'univers multiples ! Les éconduire, a priori, tiendrait donc un peu de l'aveuglement. »

A. Barrau justifie sa conception du dépassement des limites actuelles qui contraignent la pensée en physique lorsqu’on lui demande : « On dit qu'une théorie est scientifique quand on peut la réfuter. L’hypothèse des mondes multiples satisfait-elle ce critère ? »

Après avoir argumenté le fait de devoir dépasser le critère définit par Karl Popper, il précise sa pensée et je partage complètement son point de vue, car souvent évoquée comme ma conviction personnelle, quand il nous dit que la physique doit être considérée comme une construction humaine parmi d’autres. Avec des répercussions sur notre environnement et sur notre façon de faire parfois très importantes.

« Dans le champ de la philosophie des sciences, d'autres visions souvent beaucoup plus riches l'ont précédé et d'autres l'ont suivi. L’apport des sociologues comme David Bloor, Harry Collins ou Bruno Latour (lire l'entretien p. 36) qui conçoivent la physique comme une construction humaine parmi d'autres, est également important et, à mon sens, ne dévalorise en rien la pensée rationnelle. Qui plus est, les champs disciplinaires se définissent de l'intérieur : les abstractions de Vassily Kandinsky n'auraient pas été considérées comme de l'art par un théoricien de l'esthétique du XIXe siècle (ici, il y a erreur, Kandinsky (1866-1944) ses principaux travaux à partir de 1920, donc XXe siècle). Si, aujourd'hui, la physique venait à redéfinir, voire à brouiller, les limites de sa propre pratique, il serait présomptueux de le lui reprocher. »

Page 22, A. B. répond à la question suivante :

Quel est le rôle de l'observateur dans le multivers ?

« C'est toute la question du principe anthropique qui a provoqué d'interminables controverses, essentiellement dues à une incompréhension des termes. Soyons clairs : ce principe nous dit seulement que notre Univers n'est pas nécessairement représentatif de l'ensemble du multivers. Exactement de la même façon que notre planète, la Terre, n’est pas représentative – loin s'en faut ! – de l'ensemble de notre Univers. Quand on tente de reconstruire les caractéristiques globales à partir des observations locales, il faut simplement en tenir compte : nous nous trouvons dans les régions « hospitalières ». Cela ne signifie pas que les lois de la science sont expliquées par notre présence. Il faut l'affirmer ce principe est dénué de toute dimension théologique ou téléologique, c'est-à-dire qu'il n’est ni déiste ni finaliste. Il n’a rien d'un quelconque retour à l'anthropocentrisme, bien au contraire. Le monde a été centré sur notre planète, puis sur notre étoile, puis sur notre Galaxie, enfin sur notre Univers. L’étape suivante est peut-être celle d'un acentrisme absolu. »

Ici, A. B. explicite la dynamique irrépressible du scénario de ma métaphysique : « Au sein d’une éternité parmi tous les possibles l’Anthrôpos ne cesse de creuser sa connaissance de l’univers… », qui ne se cantonne pas à la compréhension de notre univers actuel. Il y a quand même un bémol car A. B. craint un retour à l’anthropocentrisme ! Ce qui n’est pas ma crainte. De plus il dit que : « Cela ne signifie pas que les lois de la science sont expliquées par notre présence (sic). », pourtant précédemment il nous a dit qu’il adhérait à l’idée que la physique est une construction humaine parmi d’autres. Mais voilà, A. Barrau oscille (voir articles du 12/04/2016 et du 23/04/2016) entre sa conception philosophique et le fait qu’il veut être entendu par la communauté scientifique dont il est membre et à ce titre il ne peut rompre les amarres avec la conception réaliste majoritaire des physiciens. De plus, je ne pense pas qu’il soit nécessaire d’évoquer un acentrisme absolu, il y a un centre de pensée, de présence, mais elle est déjà tellement pertinente qu’elle ne confond pas centre de ‘Présence’ du sujet pensant avec centre du monde, d’ailleurs le principe, cosmologique,  premier à l’œuvre c’est qu’il n’y a pas de centre dans notre univers actuellement pensé malgré l’hypothèse du Big Bang qu’on devra rapidement dépasser. 

Enfin pour terminer cette exégèse, je transmets en copie le dernier paragraphe de cet interview :

Y a-t-il un autre intérêt à supposer que ces univers multiples existent ? 

« Pour la première fois, je crois, c'est Ia rationalité qui semble conduire à l'existence de mondes invisibles. Autrement dit, cette proposition, que je considère comme scientifique au sens le plus orthodoxe du terme, mène à l'existence d'objets qui dépassent le cadre de cette pensée scientifique. Elle crée des ponts avec d'autres disciplines, ébauche une nouvelle mythologie, et de ce fait nous oblige à redéfinir ce que l'on attend de Ia physique. C'est aussi là, le grand intérêt de cette idée : imposer une réflexion sur la science en tant que « manière de faire un monde (sic) ». Tout cela doit être pris avec beaucoup de précautions, car il peut être dangereux de brouiller les frontières. Mais, tant que la rigueur n'est pas remise en question, il n’y a pas lieu d'avoir peur. Je crois que, dans l'histoire des sciences, la timidité a été plus nuisible que l'excès d'enthousiasme (sic). Il faut veiller à ce que cette hypothèse ne soit pas récupérée à des fins détournées. Dès lors que la science s'ouvre sur des concepts non scientifiques, un danger existe. Mais le risque mérite d'être couru. »

Je n’ai rien à redire, je n’ai qu’à approuver et à souhaiter qu’il dépasse un certain nombre de préventions qui l’inhibent encore.

 

[1] Une constante fondamentale est une grandeur invariante qui intervient dans un modèle physique, mais dont la valeur numérique n’est pas prédite par ce modèle.

Partager cet article

Repost0
14 octobre 2018 7 14 /10 /octobre /2018 09:00

Période plus aride que prévue

Le 02/02/2015, j’ai écrit un article : « Période Aride ». Dans cet article, je pointais les obstacles présentement insolvables qui, selon mon point de vue, rendaient compte des difficultés que nous rencontrions pour progresser en physique théorique. Mais j’espérais que cette période ne serait que de courte durée. Ce n’est pas le cas, nous sommes encore dans le prolongement de cette période aride. En effet aucune publication significative en physique cosmologique et astrophysique n’apporte de l’espoir d’une fin de cette aridité.

Malheureusement la plus importante des informations récentes c’est celle qui annonce une panne de Hubble qui rend impossible son usage actuellement. Il reste une marge d’espoir qu’une réparation soit possible et souhaitons-la. L’envol de son successeur JWST (James Webb Space Telescope) continue d’être amplement retardé, encore 2 ou 3 ans. Et puis le satellite Chandra X-ray connait une panne identique depuis le 12/10.

De toute façon nous avons suffisamment de données pour changer de paradigmes mais l’inertie intellectuelle est une actrice persistante.

Le 23/06 de cette année j’ai posté l’article : ‘Cela s’allume plus tôt que prévu’, dans lequel je relevai les indications les plus actuels pour considérer qu’il était légitime maintenant de remettre en cause le modèle standard de la cosmologie comme je le prétends depuis plusieurs années. En même temps je tentai d’expliquer les raisons de l’inertie intellectuelle pour que cette étape devienne effective de la part des cosmologistes.

Tout récemment le 5 octobre sur le site Phys.org a été publié l’article : ‘Observations challenge cosmological theories’ ; ‘Des observations défient les théories cosmologiques’, article repris le 07/10 sur le site de Science et Vie par R. Ikonicoff : « Grâce aux progrès de l'observation, les astronomes accèdent à des informations de plus en plus précises sur le passé de l'Univers... et celles-ci ne semblent pas tout à fait raccord avec ce qu'en dit le modèle du Big bang. Révision en vue ? Le Modèle standard du Big bang, nommé aussi modèle « lambda-CDM » ou ΛCDM pour lambda-Cold dark matter (soit lambda-matière noire froide), raconte toute l'histoire de l'Univers, depuis avant la première seconde jusqu'à aujourd'hui, soit 13,8 milliards d'années d'histoire cosmique. »

Revisiter amplement la conception officielle de la formation et de l’évolution de notre univers est une idée qui semble enfin s’imposer par la force des choses (des observations) auprès des physiciens cosmologues. C’est une situation inconfortable qui va prévaloir et il y aura de la controverse, tant mieux car c’est la condition du progrès de la connaissance.

Je vais proposer ci-après une traduction partielle de l’article de Phys.org qui rajoute des raisons supplémentaires à celles exposées dans mon article du 23/06 pour repenser le modèle standard de la cosmologie :

« Des observations récentes ont créé un casse-tête pour les astrophysiciens : depuis le Big Bang, moins d’amas de galaxies se sont formés au fil du temps qu’attendu. Les physiciens de l'Université de Bonn ont maintenant confirmé ce phénomène. Pour les trois prochaines années, les chercheurs analyseront leurs données d’une façon plus détaillée. Cela les mettra dans une position pour confirmer si les théories considérées valides aujourd'hui auront besoin d'être retravaillées. L'étude fait partie d'une série de 20 publications apparaissant dans le revue professionnelle astronomie et astrophysique.  

Il y a environ 13.8 milliards d’années, le Big Bang a marqué le début de l’Univers. Il a créé l’espace et le temps mais aussi toute la matière dont notre univers se compose aujourd'hui. Dès lors, l'espace s'est élargi à un taux terrifiant, et avec le brouillard diffus dans lequel la matière en question a été presque uniformément distribuée. Mais pas complètement : dans certaines régions, le brouillard était un peu plus dense que dans d'autres. En conséquence, ces régions ont exercé une attraction gravitationnelle légèrement plus forte et a donc lentement attiré du matériel de leur environnement. Au fil du temps, la matière s’est progressivement concentrée au cœur de ces points de condensation. En même temps, l'espace entre eux est devenu de plus en plus vide. Plus de 13 milliards années après, cela a entraîné la formation d'une structure semblable à une éponge — grande "trous " dépourvus de matière, séparés par de petites zones au sein desquelles des milliers de galaxies se sont agglomérées : les amas de galaxies.

Six paramètres expliquent tout l'univers : Le modèle standard de la cosmologie décrit cette histoire de l'univers, dès les premières secondes du Big Bang à la période actuelle. La beauté de celui-ci : Le modèle explique, avec seulement six paramètres, tout ce qui est connu aujourd'hui sur la naissance et l'évolution de l'univers. Néanmoins, le modèle semble maintenant avoir atteint ses limites.  "Une nouvelle observation convaincante souligne le fait que la matière est distribuée aujourd'hui d'une manière différente de celle prédite par la théorie." explique le Dr Florian Pacaud de l'Université de Bonn.

Tout a commencé avec les mesures du satellite Planck, qui a assuré les dernières mesures les plus précises du rayonnement fond diffus cosmologique. Ce rayonnement est, dans une certaine mesure, une lueur du Big Bang. Il transmet des informations cruciales sur la distribution de la matière dans l'univers primitif ; montrant la distribution comme elle était seulement 380 000 ans après le Big Bang.

Selon les mesures de Planck, cette distribution initiale était telle que, au fil du temps cosmique, plus d’amas de galaxies devraient être formés que ceux que nous observons aujourd’hui… "Nos mesures confirment que les amas se sont formés trop lentement," a déclaré F. Pacaud.  "Nous avons estimé dans quelle mesure ce résultat est en conflit avec les prédictions de base du modèle standard." Bien qu'il y ait un écart important entre les mesures et les prédictions, l'incertitude statistique dans la présente étude n'est pas encore assez serrée pour défier la théorie. Toutefois, les chercheurs s'attendent à obtenir des résultats sensiblement plus contraignants du même projet au cours des trois prochaines années. Cela va enfin révéler si le modèle standard doit être révisé. »

Sur le site de ‘Futura Sciences’ du 12/10 on constate que la formation des (protos) amas de galaxies dans la période primordiale de l’univers interpelle aussi les astrophysiciens. Ci-après les observations récentes confirment mes arguments de : ‘Cela s’allume plus tôt que prévu’

Amas de galaxies : carambolages cosmiques aux confins de l’univers.

Des astronomes ont découvert des proto-amas de galaxies tapis aux confins de l’univers. Leurs constitutions les ont beaucoup surpris, le processus de leur formation survient deux fois plus tôt que prévu. Que s’est-il passé ?

Des chercheurs ont été surpris de débusquer des proto-amas de galaxies au sein de l’univers alors qu’il n’était pas encore âgé de 1,5 milliard d’années, soit un dixième de son âge actuel. C’est deux fois plus tôt que ce que pensaient les cosmologistes.

Les deux ensembles de galaxies ont d’abord été remarqués sur les relevés du télescope spatial Herschel (ESA) et le South Pole Telescope, pareils à deux taches pâles et délicates. Par la suite, grâce aux résolutions d’Alma (Atacama Large Millimeter/submillimeter Array) et d’Apex (Atacama Pathfinder Experiment), les astronomes ont pu distinguer leurs structures et ainsi réaliser qu’ils observaient de jeunes galaxies très denses et actives, en pleine effervescence et prises dans une pagaille monstre – les deux proto-amas sont constituées de 14 et 10 jeunes galaxies massives ! De leurs fusions vont naître des amas et des superamas de galaxies qui vont ensuite entraîner dans leur champ gravitationnel d’autres galaxies plus petites…

La formation rapide de cet amas de galaxies reste un mystère

« Le processus responsable de l’agrégation si rapide d’un si grand nombre de galaxies demeure un mystère, a expliqué Tim Miller, de l’université de Yale et auteur principal de l’une des deux études publiées sur SPT2349-56. Cet amas ne s’est pas construit graduellement au fil des milliards d’années, contrairement à ce que pensaient les astronomes, poursuit-il. Cette découverte offre la formidable opportunité d’étudier la façon dont les galaxies massives se sont rassemblées pour former de gigantesques amas galactiques ».

Nous sommes encore loin d’avoir tout compris sur l’histoire et l’évolution du cosmos.

 

Partager cet article

Repost0
5 octobre 2018 5 05 /10 /octobre /2018 07:29

On cherche dans le ciel la preuve de la validité de l’hypothèse de la matière noire.

Jusqu’à présent, essentiellement, c’est dans les profondeurs du sous-sol terrestre, dans les mines désaffectées, que l’on chasse des traces de particules de matière noire, en y plaçant des détecteurs de sensibilité de plus en plus grande, avec des projets de futurs instruments qui fonctionneront à partir de 2025.

            Maintenant, depuis que l’on a détecté des ondes gravitationnelles produites par la collision et fusion de trous noirs on s’interroge sur le fait que les trous noirs pourraient constituer une/la source de cette fameuse matière noire. Cette hypothèse a quelques fondements parce que les trous noirs identifiés grâce aux ondes gravitationnelles sont de masse faible c’est-à-dire de quelques dizaines de masse solaire et c’était une première. De là, s’interroger sur l’existence d’un réseau de trous noirs, dits primordiaux puisque formés juste après le big bang, ayant une masse encore plus faible et non encore détectés est légitime. Si la réponse était positive cela permettrait d’identifier la source du supplément de force gravitationnelle que l’on recherche pour rendre compte de la dynamique observée des différentes structures de l’univers (galaxies, amas de galaxies, superamas de galaxies). Plusieurs techniques sont utilisées pour tenter d’inférer l’existence de ces trous noirs dans le ciel de notre univers. J’en décrirai quelques-unes ci-après mais préalablement j’indique qu’il y a déjà controverse sur la validité de l’interprétation des résultats partiels actuellement obtenus.

            Je cite l’article du 1/10 sur le site de Physics.aps.org : ‘La controverse continue à propos des trous noirs qui constitueraient la matière noire’ ; ‘Controversy Continues over Black Holes as Dark Matter’.

            Premièrement, en tant qu’indice, il faut prendre en compte que les trous noirs détectés par Ligo-Virgo avaient une masse (autour de 30 masses solaires) supérieure – et leur vitesse de rotation plus lente – que celles attendues à partir du modèle stellaire, donc de nombreux théoriciens ont commencé à considérer une origine primordiale. Précisons que cette hypothèse met en cause l’observation et l’interprétation dominante du fond diffus cosmologique. Des théoriciens ont expliqué qu’il y avait un détour possible sans remise en cause avec l’hypothèse de l’inflation hybride (sic). « Celle-ci prédit que l'univers primitif a recraché un grand nombre de trous noirs primordiaux avec un large éventail de masses. García-Bellido dit que ces trous noirs pourraient résoudre plusieurs problèmes ouverts en cosmologie. Par exemple, la fusion de certains de ces trous noirs primordiaux pourrait expliquer le nombre élevé de trous noirs supermassifs observés à de grandes distances dans les études de rayons X. Les trous noirs primordiaux peuvent également jouer un rôle dans la génération des fluctuations mesurées dans le fond infrarouge cosmique… Selon le modèle de García-Bellido, la voie lactée devrait nager dans une mer d'environ mille milliards de trous noirs. » ; « Des calculs récents ont montré que si la matière noire était composée de trous noirs pesant entre 10 et 300 masses solaires, alors Ligo aurait dû détecter des centaines fusions supplémentaires dans sa première phase de détection. Argumenter autrement les trous noirs de masse multi-solaires ne peuvent représenter que pour environ 1% de la matière noire. » Donc… !

            Sur le même site et le même jour a été publié un autre article relatant des observations et des déductions des plus récentes du ciel de notre cosmos : ‘l’étude de supernovas abat la théorie de la matière noire’ ; ‘Supernoa study dampens dark matter theory’ :

            « La recherche d’effet lentille gravitationnelle sur des supernovas par des trous noirs s’annonce vide, conduisant les chercheurs à conclure que les trous noirs ne peuvent pas constituer toute la matière noire. » L’analyse des chercheurs ayant effectué ce travail arrive à la conclusion que tous les trous noirs (s’ils existaient) avec des masses supérieures à 0,01 fois celle de notre soleil ne pourraient représenter au plus que 40% de la matière noire de l'univers. Les trous noirs primordiaux, formés obligatoirement avant les premiers atomes, sont sans disque et complètement noirs. Donc pour les détecter l’effet lentille gravitationnel est un moyen unique. Les deux chercheurs ont analysé le signal lumineux de plus de 1300 supernovas réparties dans l’hémisphère Nord et ils n’ont observé aucune amplification de celui-ci. « En supposant différentes abondances de trous noirs, ils ont également calculé la probabilité qu'un trou noir, dans la plage de masse détectable dans l'expérience, passe au hasard entre la terre et l'une des supernovas dans le laps de temps des mesures. Sur la base de ce calcul, ils concluent que la masse cumulative de ces trous noirs ne peut représenter que 40% de la matière noire. » ; « Mais la possibilité reste que les trous noirs pourraient constituer une petite fraction de la matière noire, le reste provenant d'une autre source potentielle comme les particules massives faiblement interactives (WIMP), les neutrinos stériles, ou axions. »

            Complémentairement je vous propose de lire trois articles dans le numéro d’Octobre de ‘La Recherche’ : « Matière Noire : Les 3 théories ». Le premier article consiste en un interview de Françoise Combes : « Avec le problème de la matière noire l’astronomie vit une crise » et je privilégie les extraits suivants que je vous suggère de méditer, p.41 : « Ne restent que les trous noirs primordiaux, qui seraient apparus durant la première seconde de l’univers. Leur existence demeure très spéculative (sic). Beaucoup se seraient évaporés aujourd’hui, et des observations comme les microlentilles gravitationnelles, ont mis des contraintes très fortes : seulement moins de 0,001% (sic) de matière noire pourrait être fait de trous noirs primordiaux. » ; p.42 : « En effet, les simulations avec la matière froide prédisent un pic de matière noire au centre de galaxies qui n’existe pas en réalité (sic). Elles prédisent aussi l’existence de milliers de galaxies satellites à la voie lactée quand on n’en voit que quelques dizaines (re-sic). » ; « Un autre problème rencontré par MOND est que ce modèle n’explique pas les observations du fond diffus cosmologique, ni la formation des grandes structures de l’Univers, contrairement au modèle standard de la cosmologie. Malgré ses limites, la majorité des physiciens ne sont donc pas prêts à abandonner le modèle standard de la cosmologie. En résumé, d’un côté, la matière noire froide expliquerait très bien les données cosmologiques, mais moins bien les données galactiques, et surtout, elle reste introuvable. De l’autre, la modification de la gravité expliquerait très bien les observations galactiques mais pas celles cosmologiques. Avec le problème de la matière noire, l’astronomie vit une crise. Et nul ne peut dire d’où viendra la solution. »

            Le deuxième article consiste à rappeler la recherche de WIMPs depuis quelques décennies sans succès. Nous avons beaucoup réfléchi sur ce sujet donc je n’y reviens pas (voir articles du 29/01/2015 : ‘Bilan de la recherche de la matière noire’ et celui du 29/07/2016 : ‘Abandonner l’hypothèse de la matière noire.’). Il y a, par contre page 49, une variante à base de matière noire qui se comporterait comme un superfluide, ce qui montre que des physiciens ont une imagination suffisante pour proposer des mécanismes sur mesure, ad hoc, permettant de conserver un cadre conceptuel qui s’avère stérile plutôt que de se concentrer sur un nouveau cadre simple et pertinent.

La superfluidité est un phénomène que nous connaissons bien en laboratoire. Exemple, l’hélium liquide quand il est à 3 degrés au-dessus du zéro absolu, il subit un changement d’état, il devient superfluide. Ce changement d’état est de nature quantique, et dans cet état l’hélium doit être considéré comme un système unique : « condensat de Bose-Einstein ». Les auteurs de cette version considèrent que ces condensats peuvent exercer une force à distance. Dans l’hypothèse de matière noire obéissant aux critères de condensat la force à ajouter à la force de gravitation est émergente suivant la température. Dans les galaxies la température est plus froide que dans les amas de galaxies et c’est ainsi que l’on expliquerait que l’on n’a pas besoin de modifier la loi de Newton dans les amas de galaxies contrairement à ce que la théorie MOND préconise dans les galaxies pour établir un bon accord entre ce que l’on observe et les équations de Newton modifiées.

Ce paragraphe assure la transition avec l’article 3 : « Et s’il fallait modifier les lois de la gravité ? » Là encore je ne rentre pas dans les détails car nous avons déjà beaucoup exposé sur ce sujet. Par contre ce qui est intéressant ce sont les arguments des pro-MOND et des anti-MOND car c’est ainsi que le rude[1] ‘dialogue’ s’est instauré dès le début des années 1980 :

            Page 52 : de Stacy McGaugh : « Considérer l’hypothèse de la matière noire comme acquise, c’est accepter de faire de la physique sans cadre ni contraintes ; reconnaître aussi qu’on peut changer les paramètres à notre guise, pour les adapter à nos besoins. Cela ne correspond pas à l’idée philosophique que je me fais d’une théorie scientifique. Pour être validée, celle-ci doit subir toute une série de tests critiques, faire des prédictions qui sont vérifiées. Or l’hypothèse de la matière noire n’a jamais prédit quoi que ce soit ! » Ce que nous dit S. McGaugh est juste, l’hypothèse de la matière noire s’est imposée pour préserver le modèle standard de la cosmologie et surtout préserver l’hypothèse du big bang, ainsi que le mécanisme post big bang conçu pour rendre compte de la première image de l’univers obtenue, 380.000 ans après, par WMAP et PLANCK.  McGaugh nous dit encore à juste raison : « Le modèle de la matière noire fonctionne bien à l’échelle cosmologique, parce qu’on a adapté la quantité de matière noire pour que cela se passe ainsi. Mais on ne pourra pas prendre ce résultat pour une évidence tant qu’on n’aura pas pesé la même quantité de matière noire avec une autre méthode. » On n’oublie pas de réfléchir au fait que la matière noire conduit à prédire que les grandes galaxies doivent avoir beaucoup de galaxies satellites, parfois des milliers. Pourtant, nous n’en avons trouvé qu’une cinquantaine pour la voie lactée. Alors ! Le débat ne sera pas tranché sans une véritable rupture théorique.

 

[1] Voir articles du 15/01/2016 : ‘A chacun sa tranchée’ et celui du 31/03/2015 : ‘L’objectivité scientifique exclut qu’elle soit parasitée par des problèmes de doctrine’.

 

Partager cet article

Repost0
28 septembre 2018 5 28 /09 /septembre /2018 09:44

Qu’est-ce que la réalité et le progrès scientifique ?

Ceci est le titre d’un article sur le site de ‘Pour La Science’ datant du 22/09/2018. Il consiste en un interview de Michela Massimi, philosophe (lauréate de la médaille Wilkins-Bernal-Medawar, exerçant actuellement à l’université d’Edimbourg), qui défend la science contre ceux qui pensent qu’elle ne peut plus rendre compte de la réalité physique à une époque où des théories physiques invérifiables fleurissent (exemple la théorie des cordes ou le Multivers, la théorie de la supersymétrie, etc…). ‘Pour La Science’ a traduit l’article original de ‘Quanta Magazine’ qui a pour titre ‘Questioning Truth, Reality and the Role of Science’, ‘Questionnement de la Vérité, Réalité et Rôle de la Science’. Dommage que ‘Pour La Science’ ait supprimé le terme de Vérité car selon moi, comme j’aurai l’occasion de le rappeler, la notion de Vérité est très importante à l’occasion de certaines étapes correspondant à l’adhésion à une loi, à l’explication d’un phénomène en physique. Les étapes de cette vérité sont des étapes génératrices d’avancées significatives de connaissances tangibles.

L’article sur le site est à lire dans sa totalité, il est évidemment très intéressant et il reprend en partie des thèmes que j’aborde et traite sur le Blog. Il permet de confirmer ou de relativiser ceux que je privilégie. Ainsi quand il est écrit que : « La philosophe soutient qu’aucune de ces deux disciplines (la philosophie des sciences et la science) ne devrait être jugée en termes purement utilitaires et qu’au contraire elles devraient être alliées pour défendre l’intérêt intellectuel et social de l’exploration sans fin du monde physique… Nous avons perdu l’idée, qui remonte à la Renaissance et à la révolution scientifique, que la science fait partie de notre histoire culturelle plus large… la science est utile à l’humanité au sens large. En tant que philosophes, construisons des récits sur la science. Nous examinons minutieusement les méthodologies scientifiques et les pratiques de modélisation. Nous nous intéressons aux fondements théoriques de la science et à ses nuances conceptuelles. Et nous devons cette enquête intellectuelle à l’humanité. Elle fait partie de notre patrimoine culturel et de notre histoire scientifique. » Je me permets de privilégier ces propos de M. Massini car il est essentiel que la plus grande partie de l’humanité soit informée et participe d’une façon ou d’une autre à l’enquête intellectuelle constituée par la volonté de décrypter les propriétés de la nature. C’est pour le plus grand nombre un chemin de liberté – c’est mon utopie – et il est certain que cette enquête doit être objectivement pensée comme faisant partie du patrimoine culturel de l’humanité. Ces propos indiquent aussi que les scientifiques et ici plus particulièrement les physiciens ont la responsabilité essentielle de diffuser en direction du plus grand nombre les nouvelles connaissances qui émergent pour contribuer à l’enrichissement culturel du plus grand nombre. De fait depuis une dizaine d’années des journaux généralistes, grand public, consacrent une fois par semaine des pages sur ces sujets et les articles écrits par des scientifiques sont de très haute tenue et pédagogiques.

Il est utile de rappeler que dans le domaine de la science physique le découplage entre science : matière à penser et matière à produire des résultats finalisés, s’est produit surtout   après le début des années 1940, peut-être que cela coïncide à l’époque où un ou plusieurs physiciens diffusé(s) dans les laboratoires en direction de leurs thésards la consigne suivante : ‘Tais-toi et calcule !’. A juste raison Massini rappelle dans l’interview :

« Au début du XXe siècle, de nombreux scientifiques étaient férus de philosophie, notamment Einstein, Bohr, Mach et Born. Ce temps est-il révolu ? »

« Oui, je pense que ce que nous avons perdu, c’est une façon différente de penser la science. Nous avons perdu l’idée, qui remonte à la Renaissance et à la révolution scientifique, que la science fait partie de notre histoire culturelle au sens large.

Au début du XXe siècle, les pères fondateurs de la théorie de la relativité et de la mécanique quantique ont été formés à la philosophie. Et certains des débats les plus profonds de la physique de l’époque avaient un caractère philosophique. Quand Einstein et Bohr ont débattu de la complétude de la mécanique quantique, ce qui était en jeu était la définition même de la « réalité physique » : comment définir ce qui est « réel » en physique quantique ? Peut-on attribuer à un électron une position et une impulsion « réelles » en mécanique quantique, même si le formalisme ne nous permet pas de saisir les deux en même temps ? C’est une question philosophique profonde.

Aujourd’hui, il est rare d’être confronté à de tels débats en physique, et cela pour de nombreuses raisons. Les physiciens modernes ne s’intéressent pas toujours à d’autres disciplines que la leur à l’université ou ne reçoivent pas au préalable une éducation très pluridisciplinaire. De plus, les grandes collaborations scientifiques favorisent aujourd’hui une expertise scientifique plus pointue et plus ciblée. Plus généralement, c’est toute l’éthique de la recherche scientifique – reflétée par les pratiques institutionnelles d’incitation, d’évaluation et d’attribution des financements – qui a changé. Aujourd’hui, la science doit être utile à un groupe bien identifié, ou elle est jugée inutile.

Mais tout comme pour la philosophie, nous avons besoin de recherche fondamentale en sciences (et en sciences humaines) car cela fait partie de notre patrimoine culturel et de notre histoire scientifique. Cela fait partie de ce que nous sommes (sic). »

            Il est certain que ceux qui ont étudié les échanges entre des scientifiques comme Einstein, Bohr, Heisenberg, Born, Von Weizsäcker, etc… c’est vraiment édifiant et puissant. On saisit comment grâce à une ouverture intellectuelle assumée au-delà de la science physique cela conduit à dépasser les schémas classiques pour rendre compte de ce que la nature laissait entrevoir comme nouvelles propriétés à cette époque. Cela m’avait conduit à créer un cours intitulé : « Les préalables philosophiques à la création scientifique » dans lequel je commentais à quel point les préalables philosophiques des physiciens qui ont compté dans l’histoire du développement de la physique sont à la source de sauts qualitatifs fondamentaux. J’ai constaté qu’exposer ainsi les grandes étapes des découvertes et en conséquence restituer de fait la dimension humaine et non pas purement calculatoire de la production scientifique cela rassurait les étudiant(e)s et cela leur donnait envie d’étudier plus loin la physique. J’ai même observé que des étudiant(e)s de formation essentiellement littéraire s’appropriaient à une vitesse incroyable les concepts et les raisonnements purement scientifiques et en conséquence les équations.

            Ensuite l’article aborde le sujet des réalistes/antiréalistes et Michela Massimi propose sa conception d’un réalisme subjectif. Je cite la partie qui fait référence à ce sujet et je commente selon mon point de vue.

            « Vous dites qu’il y a un débat entre les visions réalistes et antiréalistes de la science. Pouvez-vous préciser votre pensée ? »

« Ce débat a une longue histoire, et il porte essentiellement sur un positionnement philosophique vis-à-vis de la science. Quel est son but primordial ? La science vise-t-elle à fournir une représentation à peu près vraie de la nature, comme le réalisme le voudrait ? Ou bien doit-elle plutôt se contenter de rendre compte des phénomènes observables sans nécessairement chercher à s’approcher de la vérité, comme le prétendent les antiréalistes ?

Cette question a été un enjeu crucial dans l’histoire de l’astronomie. En effet, pendant des siècles, l’astronomie de Ptolémée a été capable de décrire les mouvements apparents des planètes en recourant à des épicycles et des déférents (des mouvements circulaires imbriqués), sans prétendre expliquer la réalité. Lorsque l’astronomie copernicienne est apparue, la bataille qui a suivi – entre Galilée et l’Église romaine notamment – a finalement consisté à savoir si le modèle copernicien décrivait le « vrai » mouvement des planètes, ou s’il se contentait de proposer une explication cohérente aux phénomènes observables.

Nous pouvons poser exactement les mêmes questions sur les concepts des théories scientifiques actuelles. La « couleur » des quarks est-elle réelle ? Ou est-ce simplement un concept de la chromodynamique quantique permettant d’expliquer l’interaction forte observée expérimentalement ? Qu’en est-il du boson de Higgs ? Et de la matière noire ? »

« Vous avez plaidé en faveur d’une nouvelle vision de la science, appelée réalisme subjectif. Qu’est-ce que c’est ? »

« Le réalisme subjectif dérive pour moi de la vision réaliste, en ce sens qu’il prétend (du moins dans ma propre version) que la recherche de la vérité est primordiale en science. Nous ne pouvons pas nous contenter uniquement d’expliquer les phénomènes observables et de construire des théories qui ne tiennent compte que des preuves disponibles. Cependant, le réalisme subjectif diffère du réalisme car il reconnaît que les scientifiques n’ont pas une vision omnisciente de la nature : notre capacité d’abstraction, nos approches théoriques, nos méthodologies et notre technologie passent par le filtre de notre culture et de notre passé. Est-ce que cela signifie pour autant que nous ne pouvons pas atteindre la vraie connaissance de la nature ? Certainement pas. Cela signifie-t-il que nous devrions abandonner l’idée qu’il existe une notion universelle de progrès scientifique ? Absolument pas. »

Je commente : En ce qui concerne la problématique de la vérité, il faut préciser que c’est une production et une reconnaissance humaine qui est bien souvent provisoire jusqu’à ce qu’elle soit déplacée par une autre vérité qui l’englobe ou bien la récuse. Ainsi la vérité Copernicienne, quand elle a fini par s’imposer, a récusé la vérité millénaire de Ptolémée. Par contre la vérité toujours en cours de la Relativité Générale a englobé la vérité multiséculaire Newtonienne. Le sujet de la vérité dans les sciences a déjà été abordé dans deux articles du 12/04/2016 et du 23/04/2016 à l’occasion de la sortie d’un livre d’Aurélien Barrau : ‘De la Vérité dans les Sciences’. Je considère que la corrélation affirmée par l’auteure : « …sans nécessairement chercher à s’approcher de la vérité, comme le prétendent les antiréalistes ? », est erronée car il n’y a aucune raison de considérer que la problématique de la vérité contribue à différencier les réalistes des antiréalistes.

Il n’y a de vérité en science physique que lorsqu’il y a consensus sur un niveau de compréhension et d’explication rationnelle sur une loi ou un phénomène de la nature jusqu’à ce qu’il soit possible d’aller au-delà en termes d’interprétations. C’est une étape très importante car elle favorise au sein de la communauté scientifique un ‘penser-ensemble’ sur la base d’un même référentiel de concepts et d’interprétations de résultats. Ainsi l’effort de la réflexion collective si essentiel est favorisé. Il est certain que c’est grâce à l’observation de la nature et/ou grâce à l’action sur des objets de la nature que la communauté scientifique rencontre ces étapes historiques consensuelles mais ce sont des étapes construites qui correspondent à l’état de l’art de la pensée collective des physiciens et comme le précise Massimi cela correspond à : « Notre capacité d’abstraction, nos approches théoriques, nos méthodologies et notre technologie passent par le filtre de notre culture et de notre passé. »

Comme je l’ai plusieurs fois précisé dans des articles antérieurs, je préfère que l’on se réfère à la notion de vérité plutôt qu’à la notion de réalité. Comme je l’ai indiqué à la fin de l’article précédent (15/09/2018), une nouvelle découverte ou une nouvelle compréhension, doit être considérée comme un sujet (à creuser) et non pas vouloir placer prioritairement, au foyer de cette découverte, un objet. Prenons l’exemple de la matière noire et faisons le bilan de la multitude des fausses pistes depuis près de 40 ans du fait que l’on ait voulu que le phénomène constaté soit ipso-facto explicable par la présence d’objets invisibles dans l’espace, sans vraiment s’interroger sur le sujet à creuser des fondements des lois qui régissent le modèle standard, sans vraiment s’interroger sur la conception de notre univers qui serait fermé, sans interaction avec ce qui pourrait être un/d’autres univers, ou encore sans penser à un au-delà de ce que nous considérons comme étant les bords de notre univers.

M. Massimi interroge : « Est-ce que cela signifie pour autant que nous ne pouvons pas atteindre la vraie connaissance de la nature ? » Je considère que cette question est superflue car la vraie connaissance de la nature nous ne pouvons pas la connaître a priori, c’est ce que nous cherchons à connaître et c’est la source inépuisable de notre dynamique intellectuelle. L’auteure se contredit car dans l’interview au tout début elle dit : « … elles devraient être alliées pour défendre l’intérêt intellectuel et social de l’exploration sans fin du monde physique. » Selon moi, c’est effectivement sans fin, une connaissance finale n’est pas à prévoir, et elle n’est pas envisageable car cela mènerait à l’immobilité intellectuelle et à la fin de ce que nous sommes. Le problème de la vraie connaissance de la nature, de la réalité de la nature, est un faux problème et collimater notre pensée avec la perspective qu’il y aurait une vraie connaissance absolue, qu’il y aurait in fine une réalité finale, c’est procéder à une réduction rédhibitoire de notre faculté de penser. Bref je considère que la problématique d’une réalité effective constitue un faux ami et parasite la pensée en physique. Ce n’est pas par hasard si mon leitmotiv est résumé ainsi : Au sein d’une éternité, parmi tous les possibles, Anthrôpos ne cesse de creuser sa connaissance sans fin de l’univers…

Enfin pour terminer l’article je cite, sans avoir besoin de commenter, puisque si appropriée, la réponse à la question suivante : « Quel a été le point de départ de votre réflexion ? » :

« Tout a commencé un jour en 1996 alors que je parcourais de vieux numéros poussiéreux de Physical Review dans le sous-sol de la bibliothèque de physique de l’université de Rome. Tout à coup, je suis tombée sur le célèbre article d’Einstein-Podolsky-Rosen (EPR) de 1935 (« La description que donne la mécanique quantique de la réalité physique peut-elle être considérée comme complète ? » ; le premier article à avoir abordé le phénomène aujourd’hui appelé intrication quantique). J’ai été frappée par la notion de « critère de réalité physique » qui figurait sur la première page. Il était expliqué que si, sans perturber d’aucune façon un système, on peut prédire avec certitude la valeur d’une grandeur physique, alors cette grandeur correspond à une réalité physique. Je me suis alors demandé pourquoi un article de physique commençait par une prise de position en apparence très philosophique sur la « réalité physique ». Quoi qu’il en soit, me suis-je dit, que peut bien représenter un « critère » de la réalité physique ? Celui proposé est-il pertinent ? Je me souviens avoir lu la réponse de Niels Bohr à cet article, qui a résonné dans mon esprit avec des affirmations plus modestes et plus concrètes sur la façon dont nous en sommes venus à appréhender ce que nous savons sur la réalité du monde. J’ai compris que j’avais trouvé là un véritable trésor philosophique, qui n’attendait que d’être exploré. »

Partager cet article

Repost0
15 septembre 2018 6 15 /09 /septembre /2018 11:24

                        Transhumanisme, Posthumanisme, Aujourd’hui, Demain.

Dans le livre de Pascal Picq[1] : ‘Le Nouvel Âge de L’humanité’ : les défis du transhumanisme expliqués à une lycéenne. Editions Allary, mai 2018, il y a de quoi réfléchir à des perspectives d’évolutions de type darwinienne et au-delà de Darwin de l’être humain. Avec P. Picq les réflexions sur ces perspectives sont étayées par ses connaissances accumulées en tant que paléoanthropologue évolutionniste[2] c’est-à-dire qu’elles sont corrélées avec une compréhension actuelle acquise de l’évolution de l’humain depuis les profondeurs du temps correspondant au bas mot à 2 millions d’années. Je ne peux que vous recommander de lire pour étude ce livre. Pour ma part, je privilégierai en premier lieu ce qui fait référence à ma thèse[3] – celle dont ont connaissance les lecteurs de mes articles – concernant l’être de la nature et l’être dans la nature avec au cours du temps le développement de l’être dans la nature qui, au fur et à mesure, réduit les contraintes de l’être de la nature, sachant qu’une telle émancipation est obtenue grâce à la compréhension (à une intellectualisation) des lois de la nature dont celles que met en évidence les physiciens. P. Picq le spécifie page 175, « surtout depuis un siècle, ne serait-ce qu’en raison de la coévolution, les avancées récentes des technologies ont modifié nos caractères biologiques (ceux-là concernent l’être de la nature) et cognitifs (ceux-là concernent l’être dans la nature). Bien sûr que dans ce propos il fait référence à une étape spécifique dont, collectivement, nous avons toujours en mémoire la trace mais évidemment ceci vaut depuis au moins 2 millions d’années. Toutefois, présentement, les vitesses de ces modifications s’accroissent d’une façon tellement fulgurante que cela en est en même temps troublant voire inquiétant. En 4e de couverture : « Cet essai vif et érudit permet à chaque lecteur de prendre conscience que nous vivons un moment décisif de l’histoire de l’humanité. »

            Ce livre est sur le plan pédagogique de très grande qualité et le sujet est tellement bien traité qu’il n’est pas possible de se dire – pour se rassurer – on verra cela plus tard. Je cite : « Plus qu’un choc culturel entre le Nouveau et l’Ancien Monde, est annoncée une révolution anthropologique. Grâce à la magie de la fée numérique, il devient possible de libérer les humains de leur condition de chenille bipède encore engluée dans les fils de l’évolution. Cette promesse s’inscrit dans un programme : le transhumanisme[4]. Celui-ci affiche un but : le posthumanisme, ou le déploiement du génie créatif des hommes pour dépasser leur condition. Après le Paléolithique, le Néolithique, les âges des métaux et les révolutions industrielles, le numérique nous fait entrer dans un nouvel âge de l’humanité. » ; « Le transhumanisme est certes l’aboutissement de millions d’années d’évolution, mais le posthumanisme annonce une rupture. »

            Le livre est conçu sur la base d’un dialogue entre Pascal Picq (P.P.) et une lycéenne, africaine de terminale d’un pays d’Afrique francophone, Adamo Amo (A.A.)

Page 174 : P.P. « Je vous propose, dans un premier temps, de regarder les principaux sujets qui intéressent les transhumanistes ainsi que les posthumanistes et, dans un second temps, de faire un état des lieux des changements actuels de l’humanité et de nos sociétés. Pour être encore plus précis, on tentera d’évaluer en quoi le transhumanisme entend modifier les facteurs biologiques nécessaires à toute adaptation et, ensuite, de cerner les changements d’environnement naturels et humains auxquels ils seront confrontés. C’est dans les interactions entre ces deux types de facteurs, le premiers dits internes et les seconds dits externes, que se joue l’évolution en train de se faire. »

L’auteur considère que la contribution des techniques est trop souvent négligée voire sous-estimée en tant que facteur de changements d’environnements naturels et humains contribuant aux grands changements de l’Histoire. Je cite, page 276 :

« Je vais même être un peu brutal, en termes matérialistes au sens de Karl Marx, les nouveaux outils, les nouveaux modes de production et les nouveaux modes d’échanges de biens et d’informations façonnent de nouvelles croyances séculières, idéelles et spirituelles. Les grands monothéismes ont germé avec les inventions des agricultures et, depuis plus de deux mille ans, s’efforcent de suivre les évolutions techniques et sociétales, le plus souvent en s’y opposant, parfois en les accompagnant. Il en va de même avec les humanistes… Aujourd’hui, le même processus historique opère à nouveau, un processus très bien décrit par Leroi-Gourhan (1911-1986) pour la Préhistoire, J. Cauvin pour les inventions des agricultures, M. Godelier pour l’anthropologie culturelle, G. Simondon pour la philosophie des techniques… »

A.A. « Il n’y a donc pas que les grandes idées qui guident l’Histoire (sic) »

P.P. « Les techniques et leurs usages changent les moyens d’agir et de comprendre le monde (sic) tout comme les idées et les moyens de les diffuser. À force d’avoir trop négligé, voire méprisé, les outils, les techniques et leurs usages comme de simples solutions matérialistes, nous nous trouvons bousculés, et parfois désemparés, face à la révolution numérique. Si les historiens et les philosophes de l’Histoire perpétuent cette tradition idéologique, les préhistoriens ont mieux compris que, du premier silex taillé au smartphone, ce sont les mêmes processus matériels et idéels qui participent aux transformations des sociétés. Si les idées et les représentations du monde guident les actions des hommes, ce sont les techniques qui les façonnent depuis l’invention du feu et des bifaces. Le concept de synthèse créatrice, c’est-à-dire d’une nouvelle construction idéelle du monde après en avoir perçu les facteurs de changement, questionne la croyance en une histoire des hommes fondée sur la seule prééminence des idées. Je vous accorde que les transhumanistes ont, dans leur majorité, tendance à mettre les moyens avant les buts. Cependant, le reproche qu’on leur fait d’être des solutionnistes/matérialistes pour le futur de l’humanité nous amène à prendre conscience qu’on a négligé l’importance des outils et des techniques au cours de l’histoire humaine, trop longtemps perçus comme des solutions et non pas comme un processus de coévolution. Je ne vous cache pas que je trouve très plaisant que la Préhistoire soit plus à même dans ses concepts de comprendre le transhumanisme que l’Histoire. Vive l’anthropologie évolutionniste ! »

A.A. « Au risque de vous accuser de matérialisme évolutionniste. »

P.P. « Il en a toujours été ainsi dans l’Histoire avec des innovations technologiques de rupture modifiant la diffusion des connaissances et des idées comme le codex et la Bible au début de la chrétienté, l’imprimerie de Gutenberg avec la Réforme et les humanités à la Renaissance, les journaux pour les révolutions du XIXe siècle, la radio et la télévision pour le XXe siècle, aujourd’hui le numérique. En fait, et n’en déplaise aux idéalistes, ce sont des innovations techniques qui portent les idées et qui scandent la marche des civilisations. Il serait grand temps qu’on relise l’évolution et l’Histoire sous l’angle des échanges et des flux d’informations. »

Je cite longuement et exhaustivement cet échange parce qu’il me semble que P. Pick suit une mauvaise route en privilégiant ainsi les techniques, il faut, selon mon point de vue, qu’il y ait de la pensée qui soit préalablement active et placée car ce n’est pas la technique qui projette initialement dans l’avenir et encore moins, comme le prétend Pick, elle ne permet de comprendre le monde. C’est certain elle le façonne et j’ajouterai que la technique, qu’elle soit choisie ou bien purement contingente, réduit la possibilité de comprendre le monde dans toute son ampleur car la technique : produit des sciences de l’ingénieur, nous met en contact, parmi tous les possibles, avec seulement la partie du monde avec laquelle elle interagit.

Je trouve étonnant ce parti pris, qui d’ailleurs est assez chancelant du point de vue argumentaire car il écrit : « … ce sont des innovations techniques qui portent les idées. », et ce point de vue est juste, parce que de fait les idées qui façonnent une certaine compréhension du monde et qui provoque la volonté de s’y projeter sont déjà là pour être portées. Pensée, imaginaire, d’un côté et innovations techniques de l’autre ne peuvent pas être placés sur un même plan sans hiérarchie.

Ceci étant mis en exergue, il vaut la peine de relire l’article du 05/01/2018 : ‘Turing or not Turing’ dans lequel je cite S. Dehaene : « La pensée géométrique est assez ancienne. Il est très intrigant de voir que, il y a 1.6 à 1.8 millions d'années les hommes, façonnaient déjà des objets aux propriétés mathématiques élaborées, notamment des pierres en forme de sphère, comme s'ils possédaient la notion d'équidistance à un point. On connaît également des dizaines de milliers de bifaces, ces outils pourvus de deux plans de symétrie orthogonaux : ils ont le même degré d'ancienneté, et leur perfection géométrique démontre une recherche délibérée de la géométrie, au-delà de la simple utilité fonctionnelle. Dès lors, je me demande si la capacité de représentation symbolique et récursive n’est pas apparue, dans un premier temps, indépendamment du langage, avant tout comme un système de représentation rationnelle du monde.

Le cerveau d'Homo erectus avait peut-être déjà atteint la compétence d'une machine de Turing universelle (sic), capable de représenter toutes les structures logiques ou mathématiques possibles. Peut-être est-ce une illusion, mais pour l'instant, notre espèce a réussi à comprendre l'organisation des structures du monde à toutes les échelles de l'Univers. Dans un deuxième temps, il y a environ 100.000 ans, on observe une explosion culturelle qui suggère un langage, une communication... On peut donc se demander s'il n’y a pas d'abord la mise en place d'un système de représentations mentales enchâssées, puis l'apparition d'une capacité à communiquer ces représentations. »

Ces points de vue si différents, nous amènent à réfléchir car on devine qu’il y a beaucoup de chemins à parcourir avant de saisir, si cela est un jour accessible, pourquoi et comment une intelligence aussi spécifique que l’intelligence humaine, que je ne qualifie pas d’universelle et loin s’en faut, a pu s’établir dans un monde naturel de tous les possibles.

Je reviens sur les propos de notre auteur car précédemment page 250, P. Pick écrit :

« Nous avons cohabité avec eux (les Néandertaliens) pendant plus de 50000 ans, puis il ne reste plus que nous (depuis 30000 ans), les Sapiens, partout sur la Terre. Ce qui a fait la différence ne tient pas à des avantages biologiques, cognitifs ou techniques de « rupture », comme on dit dans le monde économique actuel. En fait, cela provient de leur imaginaire, d’une autre façon de comprendre le monde et d’agir sur le monde. »

A.A. « En quoi cela consiste-t-il ? »

P.P. « On ne sait pas grand-chose de ses contenus. Cependant, on constate l’explosion de l’art sous toutes ses formes. C’est une révolution symbolique qui confère aux Sapiens des organisations sociales plus efficaces et de nouvelles représentations du monde (sic) – et là, c’est considérable – qui les entraînent à marcher et à naviguer vers d’autres mondes : Australie, Océanie et les Amériques. Or on ne va pas vers des mondes absolument inconnus sans imaginaire. »

Dans cet échange avec A.A., je suis en accord avec Picq, étant entendu qu’il n’y a pas d’imaginaire sans pensée bien que celle-ci puisse ne pas être aussi formulée comme on veut bien l’entendre actuellement ou que celle-ci puisse être formulée par des codes dont nous avons perdu la trace. De toute façon Pick fait référence à un ou à des imaginaires collectifs qui circule(nt) entre les êtres Sapiens et motivent ceux-ci à se mettre en mouvement, ils marchent et naviguent vers d’autres mondes…

La problématique de la primauté de la technique qui déplacerait d’autant la primauté de la pensée, de la réflexion, jusqu’à d’une certaine façon, prendre le pas sur celles-ci, nous l’avons rencontré dans l’article précédent du 01/09/2018. Je l’ai évoqué aussi dans l’article ‘Perspectives’ du 26/02/2017 parce que F. Combes ne considérait comme ‘perspectives’ qu’une liste d’instruments à construire et à développer pour résoudre l’impossibilité multi-décennale rencontrée par les astrophysiciens et les cosmologistes à résoudre les inconnues considérables à propos de ce que l’on appelle notre univers.

Tous ceux-là qui se considèrent comme les héritiers d’Einstein et des grands penseurs théoriques du début du 20e siècle, malencontreusement, propose de plus en plus de déléguer à des machines le soin de combler l’impossibilité actuelle de comprendre. Ce qui ressemble à un affaissement de la pensée des physiciens est, selon mon point de vue, dû, entre autres, à une adoption acritique de ce qui constitue un des aspects notables de l’héritage d’Einstein[5], c’est-à-dire l’héritage d’une croyance que les bonnes lois de la physique sont celles qui décrivent le monde réel, tel qu’il est. Cela mène à la croyance qu’un résultat concret (c.à.d. accord entre calcul théorique et observation) obtenu par des physiciens constitue un élément participant à l’édifice réel du monde. Croyant que ce résultat a été obtenu, alors on passe à autre chose et on essaie de découvrir la pièce prochaine du ‘puzzle-monde’.  

Cette interprétation du travail du physicien est à mon avis erronée. On doit plutôt considérer qu’un résultat obtenu par des physiciens est un apparaître parmi tous les possibles de ce monde qui résulte d’une adéquation significative entre la capacité actuelle de scrutation des physiciens et un des aspects du monde avec lequel on interagit. L’erreur consiste donc à passer à autre chose car, selon mon interprétation, un résultat obtenu est surtout la preuve d’une pensée en éveil, en mouvement, qui ne tarit pas ce qui doit être considéré comme le sujet (en opposition à objet) d’une découverte. En croyant qu’ils ont découvert des objets, qui composent le monde réel, les physiciens ont accumulé des éléments hétéroclites qui se choquent plus qu’ils ne s’assemblent dans des modèles dits standards.

 

[1] J’ai déjà fait référence aux travaux de P. Picq dans un article du 21/09/2016 : ‘P. Picq l’annonce, S. Dehaene l’illustre.’ À la relecture on pourra apprécier une évolution de sa réflexion.

[2] Dixit P. Picq : « l’anthropologie évolutionniste est la seule science multidisciplinaire qui intègre les sciences de la vie, de la Terre et de l’espace ; les sciences économiques, sociales et humaines ; la médecine ; la philosophie ; les religions et même l’art et la mode. Evidemment, aucun anthropologue ne maîtrise toutes ces disciplines et leurs corpus de connaissances. Mais l’anthropologie évolutionniste possède la méthode et l’épistémologie nécessaires. »

[3] L’auteur n’aborde pas directement et explicitement ce qui est compris dans ma thèse mais des recoupements sont significatifs. En effet je développe ma réflexion sur le plan du rapport entre le développement des capacités intellectuelles de l’être humain et le développement des capacités de décryptage des lois physiques de la nature. Mes désaccords avec l’auteur sont aussi très enrichissants et j’espère être capable de vous les faire partager pour que vous puissiez vous forger une opinion personnelle.

[4] P. 273 : « En tant qu’anthropologue évolutionniste, j’ai longtemps nourri un profond scepticisme sur les propositions des transhumanistes… Ils proposent une ultime libération de l’homme par les voies sacrées de la technologie… Si les transhumanistes prétendent apporter des solutions techniques à ce qu’ils considèrent comme des fléaux désormais inacceptables par l’humanité (la vie, les maladies… etc. la mort), il n’en demeure pas moins que leurs penseurs nous incitent à réfléchir sur notre condition humaine non plus en tant que mortels, mais comme des amortels potentiels… Il faut donc penser l’homme et l’humanité faits par les hommes et pour les hommes dans une nouvelle conception de l’avenir (sic).

Je commente : Ici il est prétendu que l’être de la nature est (sera bientôt) totalement réduit, aboli, sans influence, seul l’être dans la nature serait acteur de l’avenir. Je ne crois pas à ce débranchement car dans ce cas, et je suis radical, il n’y a plus d’Être.

[5] Avec la citation qui suit on constate que l’héritage assumé n’est que partiel : « La science est une création de l’esprit humain aux moyens d’idées et de concepts librement inventés… L’expérience peut, bien entendu nous guider dans notre choix des concepts mathématiques à utiliser, mais il n’est pas possible qu’elle soit la source d’où ils découlent. […] C’est dans les mathématiques que réside le principe vraiment créateur. En un certain sens, donc, je tiens pour vrai que la pensée pure est compétente pour comprendre le réel, ainsi que les Anciens l’avaient rêvé. » (Conférence d’Oxford, 1933)

 

Partager cet article

Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens