Overblog
Suivre ce blog Administration + Créer mon blog
5 octobre 2016 3 05 /10 /octobre /2016 10:33

NOW

‘NOW’

Préambule : jusqu’en 2013, j’ai connu la solitude de celui qui proposait l’hypothèse de ‘l’instant Présent’ et ‘TpS’, puis effectivement, en 2013, solitude rompue et accueil enjoué de la toute nouvelle réflexion de L. Smolin, article : ‘Bienvenu au ‘Moment Présent’ de Lee Smolin’. Ensuite, il y eut un nouvel accueil : ‘Bienvenu au ‘Temps créatif’ de N. Gisin, le03/06/2016. Vient de sortir un nouveau livre : ‘Now’ mais je ne lui réserve aucun accueil particulier. Lire ci-dessous.

Maintenant, la physique du temps’ est le titre d’un livre qui vient de sortir aux Etats-Unis dont j’ai lu une première critique dans un article de Phys.org du 21/09/2016. A vrai dire, bien qu’il traite d’un sujet sur lequel j’investis beaucoup, je n’avais pas envie a priori de m’exprimer sur l’article du livre. Quelques jours après, le 29/09 il y eut un article dans ‘Nature’ sur le même sujet. Sans enthousiasme, je me suis senti obligé de prendre la plume. Sans enthousiasme parce qu’il est navrant de mesurer combien certains physiciens ont une pensée recroquevillée sur des idées et des concepts qui ne peuvent plus nous ouvrir des horizons nouveaux pour vaincre les obstacles théoriques sur lesquels nous butons. Le physicien en question, auteur du livre, Richard A. Muller, nous dit : « Le temps a été la pierre d’achoppement à notre compréhension de l’univers. » La nouvelle idée de Muller est : « Le temps connaît une expansion parce que l’espace connaît une expansion. Le nouveau principe physique qu’il énonce est que l’espace et le temps sont liés (voir relativité restreinte et générale) ; quand vous créez de l’espace nouveau, vous créerez du temps nouveau. »

Muller est un suiviste d’Einstein, et il considère que toutes les considérations sur l’univers et son expansion sont réalistes ce qui l’autorise à affirmer : « l’espace n’est pas la seule chose qui augmente ; l’espace-temps augmente. Et nous surfons sur la crête de la vague, ce que nous appelons ‘Maintenant’ », « A chaque instant, l’univers devient plus grand, et il y a un peu plus de temps, et cela fonde en permanence ce rebord en avant du temps que nous qualifions de : maintenant. », « Le futur n’existe pas encore, il est en voie d’être créé. », « Parce que le futur n’existe pas encore, nous ne pouvons voyager dans le futur. Le retour dans le temps est aussi impossible puisque l’univers ne se replie pas. »

Il est étonnant que le réalisme de Muller qui veut rester au plus près des idées Einsteinienne reste muet sur la très grande contradiction que véhicule son hypothèse. En effet Einstein exclut toute idée du ‘maintenant’ : cela s’impose évidemment dès qu’on exploite les équations de la relativité restreinte. Verbalement citons ce qu’il en pense, dixit Th. Damour : « Le fait que le passage du temps (le maintenant) ne corresponde à rien dans la réalité physique » comme le dit Einstein : « la séparation entre passé, présent et avenir, ne garde que la valeur d’une illusion, si tenace soit-elle. »

La conception aveuglément réaliste de Muller l’amène à dire : « Et nous surfons sur la crête de la vague, ce que nous appelons ‘Maintenant’ ». Ainsi, selon ce schéma, l’être humain créateur de la connaissance en cours qui fonde notre Univers n’est, ipso facto, qu’un pantin surfant sur la crête de la vague… Le propre de la croyance des réalistes est de déresponsabiliser, d’effacer l’être humain des connaissances qu’il met en relief, puisque celui-ci, au bas mot, ne peut être que le lecteur passif de ce qui est. (En ce qui le concerne, A. Einstein lucide écrivit[1] : « …j’ai fui en me vendant corps et âme à la Science : j’ai fui le JE et le NOUS pour le IL : du il y a. »)

Dans mon schéma : la compréhension des lois de la nature entretient une dynamique de réduction des déterminations de l’être de la nature qui nous habite, (cf. la théorie de l’évolution), et cette émancipation progressive enrichit les perspectives de l’horizon de l’être dans la nature. Ainsi l’être humain ne peut être in fine qu’un être en devenir, ce devenir est en perpétuel renouvellement, il y a là, avec cette perspective, matière à l’engendrement d’une irréversibilité et partant d’une flèche du temps.

Le deuxième article du 29/09 dans ‘Nature’ relate surtout le scepticisme de A. Jaffre, auteur de l’article ‘Trouver le temps’. « Parfois, je suis convaincu que ‘Now’ est un non-problème. Une fois que la mécanique quantique et la thermodynamique ont donné la direction du temps, ‘now’ n’est pas physique, mais il est une combinaison de la flèche du temps avec la psychologie et la physiologie. Le passé est ce qui est encodé dans notre mémoire. A un rocher, un électron ou une galaxie, il n’y a pas de ‘now[2]’ (sic). Mais occasionnellement, je me demande si cela est suffisant (sic). »

Enfin il conclut : « Désolé, je n’adhère pas aux arguments : que ‘now’ ne soit pas ou soit un non-problème, l’idée de Muller est de mon point de vue une non-solution.(sic) »

En 1994, A. Connes et C. Rovelli ont publié un article de 17 pages de calcul qui s’attelait au problème suivant :

L’algèbre des automorphismes de Von Neumann et la relation du temps thermodynamique avec les théories quantiques généralement covariantes.

Abstract. Nous considérons l’ensemble des problèmes soulevés par les relations entre la notion de temps, la théorie de la gravitation, la théorie quantique et la thermodynamique ; en particulier nous nous adressons au problème de relier ‘l’intemporalité’ à l’hypothétique, fondamentale, ‘ théorie quantique des champs généralement covariante’ avec ‘l’évidence’ du flux du temps. En utilisant la formulation algébrique de la théorie quantique, nous nous donnons une perspective d’unification de ces problèmes en nous basant sur l’hypothèse que dans une théorie quantique généralement covariante, la flèche du temps physique n’est pas une propriété universelle de la théorie mécanique, mais plutôt qu’elle est déterminée par l’état thermodynamique du système (‘hypothèse du temps thermique’). Nous intégrons cette hypothèse en utilisant une propriété structurelle clé des algèbres de Von Newmann : le théorème de Tomita-Takesasi, qui permet de dériver un flux du temps, nommément un groupe d’automorphismes à un-paramètre de l’algèbre des observables, à partir d’un état physique thermal générique…

Conclusion, après 17 pages de calcul :

Les difficultés de trouver une interprétation consistante d’une covariance générale de la théorie quantique des champs sont multiples. Dans ce travail nous avons pointé une de ces difficultés : le problème de relier l’intemporalité de la théorie fondamentale avec l’évidence du flux du temps. Nous avons tenté d’introduire un ingrédient pour solutionner ce problème, sous la forme d’une relation générale entre l’état thermique d’un système et le groupe à un-paramètre d’automorphismes de l’algèbre des observables, interprété comme le flux du temps. Du fait que nous n’avons pas proposé une définition précise du ‘temps physique’, si ce n’est son identification avec un temps non relativiste et avec les temps de Lorentz dans la limite relativiste non-(générale), nous avons délibérément laissé une dose d’indéfinition dans la formulation de l’hypothèse du temps thermique… En dépit de cette incomplétude, nous avons trouvé que le nombre de faits indépendants qui sont connectés à l’hypothèse du temps thermique suggère que cette hypothèse pourrait constituer un ingrédient à la fondamentale théorie quantique généralement covariante : toujours pas découverte. »

Depuis 1994, rien de nouveau. Je n’ai pas eu l’occasion de constater des citations de cette publication, qui n’aurait donc pas fructifié. Je n’ai pas eu, non plus, l’occasion de lire une suite à ce travail.

Dans l’abstract les auteurs nous disent qu’ils cherchaient une voie d’unification entre le flux du temps qui n’est pas une propriété universelle puisque asymétrique (irréversible) avec une théorie quantique généralement covariante donc obéissant à des propriétés de symétries. Dans leurs conclusions, ils nous disent qu’ils ont rencontré une difficulté majeure : comment relier l’intemporalité de la théorie fondamentale avec l’évidence du flux du temps ?

Il faut rappeler que l’intemporalité est un préalable à la pensée d’Einstein lorsqu’il conçoit la théorie de la Relativité Générale : ‘Dans un Univers immuable les bonnes lois de la physique sont celles qui sont invariantes étant donnés les points de vue des différents observateurs’. Sauf que ce raisonnement n’élimine pas l’observateur, mais relativise son point de vue et la valeur de la covariance générale n’a sa consistance qu’avec la présence d’observateurs dans le dispositif. Ici donc, s’impose une source inaliénable d’un flux du temps. Ainsi vouloir relier mathématiquement l’intemporalité de la théorie fondamentale avec l’évidence du flux du temps est condamné à l’échec. Il y a une hétérogénéité radicale entre ce qui est de l’ordre de la nature et ce qui est de l’ordre de l’observateur : le sujet pensant. L. Smolin a intuité ce problème sans penser plus loin, c’est-à-dire sans franchir le Rubicond, et c’est dommage, pourtant il a considéré que la mathématisation de la physique pouvait avoir des limites. Voir article du 02/05/2013.

A ce niveau de la réflexion, on doit se préoccuper d’une forme de stérilité dans laquelle s’enferre les physiciens qui est dû à une croyance que les bonnes connaissances sont celles qui satisfont uniquement aux contraintes de la logique mathématique, c’est-à-dire les leurs. Cette conception étriquée et bornée est une source de réduction et d’aveuglement et le reflet de beaucoup de mépris à l’égard d’autres domaines de connaissances comme il m’est arrivé en maintes occasions de le regretter. Ainsi, on peut s’interroger, pourquoi Connes et Rovelli ignorent cette pensée remarquable, rigoureuse, vivante, et in fine objective, qui nous parle tant, du linguiste E. Benveniste (natif d’Alep) : « On pourrait croire que la temporalité est un cadre inné de la pensée. Elle est produite, en réalité, dans et par l’énonciation. De l’énonciation procède l’instauration de la catégorie du présent, et de la catégorie du présent naît la catégorie du temps. Le présent est proprement la source du temps. Il est cette présence au monde que l’acte d’énonciation rend seul possible, car, qu’on veuille bien y réfléchir, l’homme ne dispose d’aucun autre moyen de vivre le ‘maintenant’ et de le faire actuel que de le réaliser par l’insertion du discours dans le monde. » E. Benveniste : Problèmes de linguistique générale, vol 2, Paris 1974.

Le propos de Benveniste, qui pour moi a la valeur d’une démonstration, confirme que nous devons considérer qu’il y a un temps de la physique c’est celui que nous plaçons dans les équations, il peut être rapporté au temps du discours du physicien générique mais en conséquence il n’y a pas de temps physique à proprement parler contrairement à ce qu’ont à nouveau affirmé A. Connes et C. Rovelli : « l’hypothèse que nous avons mis en avant dans cette publication est que le temps physique a une origine thermodynamique. »

A cause de l’échec de la tentative d’A Connes et de C. Rovelli, je considère que ma conception métaphysique de la dynamique des avancées de la connaissance en science physique : « Au sein d’une éternité, parmi tous les possibles, l’anthrôpos creuse sans fin sa conception de l’univers. » est confortée. Vers l’éternité qui est la somme de tous les possibles, et qui n’est qu’un horizon, il est normal que nous y projetions une perspective (cela fait de nous des êtres humains qui se différencient de tous les êtres vivants) ; ceci explique en quoi, la pensée einsteinienne est particulièrement originale et puissante. Mais l’anthrôpos creuse sans fin, et cette activité du creusement détermine la direction d’une flèche du temps. La flèche du temps thermique, en fait le processus de l’intangible irréversibilité est une conséquence, une apparence, un ersatz, de celle-ci.

Enfin, je reviens sur l’article de ‘Nature’ du 29/09 car il y a un commentaire pertinent qui nous signale que R. Muller dans son livre ‘Now’ renie la Relativité d’Einstein par inadvertance. En effet Muller affirme : « Parce que le futur n’existe pas encore, nous ne pouvons pas voyager dans le futur. » Pour contredire et s’opposer à cette assertion, le commentateur fait référence à un article de Th. Damour dans http://www.bourbaphy.fr/damourtemps.pdf : « Le paradigme de la R.R. bouleverse la conception usuelle du temps avec le paradoxe des jumeaux. Faisons la remarque frappante que la possibilité de la dilatation du temps prouve que le voyage dans le temps (vers le futur) est concevable. En tant qu’expérience de pensée (si on néglige quelques détails tels que les technologies nécessaires pour atteindre des vitesses comparables à celle de la lumière, le coût du fuel et la capacité du voyageur de supporter des accélérations très élevées), il montre qu’un être conscient peut sauter, ‘en une minute’ (de son temps ressenti) arbitrairement loin dans le futur, disons 60 millions d’années en avant, et voir, et être partie de, ce qui (adviendra) se produit sur la planète terre. Ceci est une voie claire pour comprendre que le futur ‘existe déjà’ (que nous pouvons expérimenter en une minute). »

Il est clair pour moi que cette proposition d’expérience de pensée énoncée par Th. Damour n’a pas de valeur car dans mon schéma le ‘TpS’ est un invariant absolu, quel que soit le référentiel auquel le sujet pensant est attaché, par rapport à un autre sujet pensant en mouvement dans un autre référentiel. La loi de la dilatation d’un intervalle du temps ne s’applique effectivement que pour des opérations techniques et des mécanismes. Par ex : l’intrication, si dans un référentiel O, ∆ti<TpS, l’observateur considère que les deux objets sont intriqués et si dans un autre référentiel O’ relativiste, ∆t’i = ϒ∆ti>TpS, en conséquence l’intrication n’est plus effective pour l’observateur dans O’. Cela peut être plus qu’une expérience de pensée car matériellement on peut (on pourra) probablement envisager une vérification expérimentale de mon hypothèse de ‘Temps propre du Sujet’ : TpS.

[1] « Je crois, avec Schopenhauer, écrit-il, que l’un des motifs les plus impérieux qui conduit les hommes aux arts et à la science est la fuite de la vie quotidienne avec sa douloureuse cruauté et sa sécheresse sans espoir. » Mais aussi, si je peux me permettre, leitmotiv pour la personne intime, quand Einstein écrit à son ami H. Broch : « Ce livre me montre clairement ce que j’ai fui en me vendant corps et âme à la Science : j’ai fui le JE et le NOUS pour le IL du il y a. » Le livre en question était la ‘La Mort de Virgile’, cadeau offert par cet ami, H. Broch, et Einstein exprimait à la fois, dans une lettre de remerciement, la fascination et la résistance acharnée suscitées par la lecture de l’œuvre. On pourrait rappeler avec une dose raisonnable d’ironie qu’un individu, un sujet, qui fuit, résiste, est toujours extrêmement là, présent,… à son insu, à son corps défendant… Marie-Antoinette Tonnelat : scientifique et femme de lettres, avait qualifié avec indulgence et poésie, « ce troc de l’irisation du ‘je’ et du ‘nous’ par le dépouillement du ‘il y a’, Einstein a conscience du choix inhérent à cette éthique », mais selon elle, il fallait aussi en payer le prix. D’après son expérience, en guise de conclusion, elle n’hésite pas à affirmer : « Cette propulsion négative est, néanmoins, certainement beaucoup plus fréquente qu’on ne le dit. »

[2] Cet argument signifie que la ‘Présence’ du sujet connaissant est un non-problème, est dérisoire pour ce physicien, c’est à égalité d’intérêt avec l’existence d’un caillou, d’un électron…

Partager cet article
Repost0
21 septembre 2016 3 21 /09 /septembre /2016 09:14

P. Picq l’annonce, S. Dehaene l’illustre.

Lorsque nous découvrons des nouvelles lois et propriétés dictées par la Nature, c’est autant de connaissances qui provoquent une distinction entre ce qui est de l’ordre de notre ‘être de la Nature’ et ce qui est notre ‘être dans la Nature’. Exemple, avec Newton, l’humanité accède à la connaissance que nous sommes physiquement constitués de matière et le poids de cette matière naturelle que nous mesurons résulte de l’effet de l’interaction avec la matière de notre planète Terre, identiquement naturelle. Ainsi sur ce plan, notre matière constitutive fait de l’humanité des êtres de la nature et le fait de connaître notre interaction matérielle avec la Terre et hiérarchiquement avec celle du reste du monde, nous place sur un promontoire qui nous autorise à nous distinguer partiellement de la nature et donc d’avoir un regard extérieur, intelligent, et in fine d’accroitre notre statut d’être dans la nature.

A la fin de ce processus qui accroît ce qui nous est extérieur et affine ce qui nous est intrinsèque il est évident de considérer que le sujet pensant de l’après ce processus n’est plus le même que celui de l’avant ce processus. Ce processus est sans fin et c’est un propre de l’homme. Pour s’en convaincre, il suffit de se rappeler qu’il y a un peu plus d’un siècle, pour projeter sa conception basique de la loi de la Relativité Générale, Albert Einstein avait (comme tous les physiciens de l’époque) une compréhension de l’Univers, étriquée, concentrée, qui s’appuyait sur une connaissance très imparfaite de la Voie Lactée. Nous pouvons mesurer le chemin parcouru depuis (grâce, essentiellement, au développement des outils d’observation de plus en plus sophistiqués) et éprouver une sorte de vertige quand on se rend compte de la vitesse exponentielle avec laquelle on éclaire ce chemin. Nous devons intégrer aussi l’idée que depuis une bonne trentaine d’années nous émettons l’hypothèse que la matière qui physiquement nous constitue n’est pas universelle. Elle ne représenterait que 16% de la matière composant notre univers. Y a-t-il un tropisme qui s’ensuit ? Pouvons-nous disposer naturellement d’une capacité d’identification de cette autre matière dite : noire ? Personnellement j’en doute ! Un résultat (positif ou négatif, mais scientifique), ne pourra être obtenu que par un dépassement conceptuel qui de fait sera un véritable saut conceptuel et probablement mettra en évidence ce tropisme aujourd’hui imperceptible.

Dans le dossier ‘Pour la Science’, juillet-septembre 2016, ‘INTELLIGENCE. Notre cerveau a-t-il atteint ses limites ?’, Pascal Picq écrit dans son avant-propos : ‘Le roman des intelligences’ : « Pour appréhender toute la diversité et la richesse des intelligences dans leur dynamique (évolutive ou individuelle), nous devons nous défaire d’une conception dualiste qui oppose humain et animal. C’est aussi essentiel pour que demain nous puissions cohabiter au mieux avec les nouvelles formes d’intelligence. »

Nous défaire d’une conception dualiste qui oppose humain et animal est une condition essentielle pour entendre ce que je propose avec la dynamique évolutive : être de la nature/être dans la nature. Il est possible que sur la base de ce que nous dit P. Picq, d’autres cheminements de réflexions soient proposés mais, selon moi, se défaire de la conception dualiste est une condition première. La partie être de la nature de l’être humain sera toujours réductible mais ne sera jamais déracinable sinon ce n’est plus de l’être humain dont il s’agira. C’est la conquête de l’intelligence des lois physiques gouvernant la Nature qui contribue à l’épanouissement de l’être dans la nature en réduisant les déterminations héritées de l’être de la nature. A ce point de la réflexion il est évident que nous avons envie de nous poser la question : « Quand situer l’origine de ce processus de l’évolution du rapport être de la nature/être dans la nature ? sachant que dès que cette hypothèse est affirmée, il y a le corolaire induit : au tout début il n’y aurait que de l’être de la nature. »

Est-ce que les prémices du processus d’émancipation des lois de la nature s’est engagé, il y a 12 millions d’années, avec le premier des hominoïdes, ou il y a environ 7-8 millions d’années lorsqu’il y a eu divergence avec, entre autres, les gorilles, les chimpanzés, et que la lignée humaine (hominines) apparaît dans la nature ? Faut-il situer les débuts de cet avènement avec le surgissement des premiers Homo, (Homo habilis, Homo erectus, Homo ergaster, …), il y a quelques 2 millions d’années ? Enregistrons avec un grand intérêt que les paléoanthropologues ont acquis ces derniers temps des connaissances suffisantes pour affirmer : « La taille du cerveau a triplé entre 2,6 millions d’années et 200 000 ans, pendant une période charnière pour l’évolution de l’espèce humaine. » Ajoutons à ce constat, celui énoncé par Yves Coppens et qui nous concerne directement : « L’homme est né d’un changement climatique. » Voir ‘La Recherche’, hors-série : mars-avril 2016.

Dans la citation de P. Picq que je privilégie, il est écrit : « … C’est aussi essentiel pour que demain nous puissions cohabiter au mieux avec les nouvelles formes d’intelligence. » Selon l’auteur, nous ne sommes pas à une quelconque apogée et l’être dans la nature va continuer de dépasser les déterminations héritées de l’être de la nature et ainsi continuera de conforter et d’élever le promontoire sur lequel l’intelligence humaine sur la nature gagnera en acuité.

A la fin de son avant-propos, P. Picq analyse : « La première coévolution concerne tous les organismes vivants et leurs interactions. La deuxième se met en place avec les premiers hommes (Homo erectus) avec des innovations techniques et culturelles comme la cuisson et la taille des outils qui modifient et sélectionnent nos organismes, des gènes aux capacités cognitives. La troisième se manifeste depuis le début du XXIe siècle (sic) avec l’impact des NBIC (nanotechnologies, biologie naturelle et de synthèse, sciences informatiques et cognitives).

Mais contrairement aux sirènes du transhumanisme qui postulent que l’évolution est arrivée à son terme et que nos technologies doivent prendre le relais, il faut penser notre avenir en fonction des interactions de ces trois coévolutions ; l’émergence, en quelque sorte, d’une nouvelle intelligence. Car, fondamentalement, c’est quoi l’intelligence ? Essentiellement des interactions. »

Aujourd’hui grâce à l’imagerie cérébrale on commence à acquérir des compréhensions significatives à propos du fonctionnement de notre cerveau. Empiriquement nous découvrons des mécanismes et des organisations physiques propres à notre cerveau qui sont en jeux lorsque nous cogitons (état permanent, que nous soyons éveillés ou pas). A partir de ces observations on peut mieux comprendre ce qui est de l’ordre de l’apprentissage et comment celui-ci, lorsqu’il a correctement abouti, devient un donné permanent libérateur qui favorise l’émergence de nouvelles tâches et de nouvelles inférences

Récemment des travaux de Stanislas Dehaene ont permis d’imager ce qui se passe, dans le cerveau de mathématiciens professionnels comparativement avec celui de non-mathématiciens mais ayant un niveau général académique identique, lorsqu’on pose des questions à propos du vrai ou du faux concernant des déclarations mathématiques et non-mathématiques. Chez les mathématiciens professionnels, l’imagerie cérébrale montre clairement que les zones du cerveau activées sont les mêmes que celles correspondantes aux nombres, aux calculs et aux représentations dans l’espace, tout autant pour des questions en algèbre, en analyse, en topologie, en géométrie. Aucune zone identifiée à celle du langage n’est active pendant cet interrogatoire. Ceci laisse voir que les professionnelles cogitent les mathématiques abstraites en utilisant les mêmes zones que celles de l’apprentissage basiques des mathématiques (après automatisation des tâches mathématiques les plus simples). Les mathématiques de haut niveau recyclent des fonctions cérébrales anciennes du point de vue de l’évolution de la personne.

A partir de ces constatations, sur le plan scolaire, il est légitime de considérer que si l’apprentissage élémentaire des mathématiques est correctement fait cela permet aux enfants de comprendre les mathématiques au-delà du simple calcul algébrique. Dans ce domaine, et dans d’autres, ces observations donnent de l’espoir aux enseignants d’exercer leur métier avec un taux de réussite plus élevé, cela s’appelle la neuro-éducation.

Etant donné la valeur des résultats récents publiés par M. Almaric et S. Dehaene, in PNAS en ligne le 11 avril 2016 : ‘les origines des réseaux cérébraux pour les mathématiques avancées chez les mathématiciens experts.’, on peut considérer que l’imagerie cérébrale a atteint un niveau de maturité tel, que ce domaine d’observation et d’interprétation fait maintenant autorité. Aussi, je réitère ma proposition d’expérience qui pourrait lever un coin du voile en mécanique quantique à propos du principe de superposition qui est un principe général en M.Q. mais que je propose de traiter en particulier en ce qui concerne la complémentarité onde/particule. Comme dans l’exemple précédent, il faut choisir deux catégories d’observateurs. Des observateurs physiciens professionnelles et des observateurs non-professionnelles de la physique, ceux-là surtout ignorant de ce qui constitue le domaine de la physique des ondes. Ensuite l’expérience consiste à placer, ces deux groupes de personnes équipées des moyens d’observation d’IRM fonctionnelle, successivement devant le même interféromètre. La 1e expérience consiste à observer les régions cérébrales qui sont activées lorsqu’un objet quantique parcourt l’interféromètre avec une information spatio-temporelle à propos de sa trajectoire. La 2e expérience est identique à la 1e sans information spatio-temporelle.

Quelles seraient les résultats possibles ?

a) Avec une information spatio-temporelle sur la trajectoire, je fais l’hypothèse que les images cérébrales seraient semblables pour les 2 catégories de personnes. Et l’apparaître de l’objet quantique serait ponctuel.

b) Sans information spatio-temporelle sur la trajectoire, je fais l’hypothèse que chacune des catégories laisserait voir des images cérébrales différentes.

Dans le cas a) je considère que le repérage spatio-temporel correspond à un apprentissage qui est acquis par tous les hommes. Les paléoanthropologues conjecturent que l’intellectualisation de l’espace et du temps s’est engagé il y au moins 2 millions d’années et elle aurait pu contribuer à la sélection naturelle. Le repérage spatio-temporel est donc une vieille histoire, il est acquis depuis longtemps (avec l’évolution, il s’est évidemment affiné) et il se pourrait que la région cérébrale active, dans ce cas, soit située dans une zone archaïque du cerveau.

Dans le cas b) les physiciens professionnels intellectuellement outillés pour pallier à l’absence d’information spatio-temporelle mettront en jeu une zone du cerveau récemment éduquée à la représentation ondulatoire. Je fais cette hypothèse parce que la représentation ondulatoire ne relève pas de la même histoire, elle est une représentation abstraite, formelle qui ne peut être spontanée. La conception ondulatoire n’est pas naturelle, c’est par l’étude qu’elle est acceptée. Historiquement, c’est une conception proposée à l’origine par Ch. Huygens (1629-1695), puis contrée par I. Newton (1647-1727), enfin devenue acceptable grâce à A. Fresnel (1788-1827).

Dans le cas b) les non-professionnelles physiciens n’auront pas d’alternative à la représentation de l’objet qui ne se laisse pas voir dans l’espace ni dans le temps de son trajet dans l’interféromètre. En conséquence, toujours selon l’hypothèse que je propose en partage, les images cérébrales qu’ils livreront seront très différentes.

Si ce que je conjecture précédemment est validé, il serait alors intéressant subdiviser le groupe de physiciens professionnelles avec d’un côté ceux qui ont été formés à la mécanique quantique et d’un autre côté ceux qui n’ont pas du tout été formés à cette discipline. Là encore on pourrait conjecturer des images cérébrales distinctes.

L’expérience que je propose peut être à juste raison controversée, elle ne résoudra pas toutes les énigmes que posent la mécanique quantique surtout celles postulées par l’Ecole de Copenhague. Les résultats de cette expérience permettront de mieux situer à partir de quel niveau se situe ou ne se situe pas notre participation à la révélation du monde des physiciens, problématique effective comme nous le rappelle Anton Zeilinger ci-après :

« Je ne suis pas un adepte du constructivisme, mais justement un adepte de l'interprétation de Copenhague. D'après cette théorie, l'état quantique est l'information que l'on a sur le monde. [...] Il s'avère finalement que l'information est la base fondamentale et essentielle du monde. Nous devons bien nous démarquer du réalisme naïf, selon lequel le monde existe seul sans notre participation et indépendamment de notre observation. »

Partager cet article
Repost0
26 août 2016 5 26 /08 /août /2016 12:02

Mécanique quantique et principe de causalité font mauvais ménage.

Après l’article définitif et historique d’A. Aspect, le 16/12/2015, validant d’une façon complète les propriétés de l’intrication sans qu’il n’y ait la moindre faille qui permettrait de remettre en cause la théorie de la mécanique quantique selon la version de l’école de Copenhague, malgré cet article approuvé par une très large majorité de la communauté scientifique on constate qu’il y a toujours une grande inertie intellectuelle ou une incapacité à en tirer des conséquences qui devraient s’imposer.

D’après l’article du 18 Août sur le site de physicsworld.com :

« La mécanique quantique fait encore plus de ravages avec les idées conventionnelles de la causalité. Une équipe de chercheurs a montré que même en autorisant que la causalité puisse être non locale – c’est-à-dire qu’un évènement à une place puisse avoir une influence sur un autre placé à distance – cela n’est pas suffisant pour expliquer comment les objets quantiques se comportent.

Sans cause et effet, la science serait impossible (sic). On ne pourra jamais utiliser une observation pour déduire quelque chose à propos du mécanisme sous-jacent qui le cause. Mais la mécanique quantique défie notre sens commun de la causalité – par exemple en impliquant que quelque chose se produise au hasard, sans cause apparente, ou bien qu’une action en un lieu puisse sembler avoir un effet quelque part ailleurs, même si les deux lieux ne peuvent pas interagir.

Ce type de non localité est devenu largement accepté en théorie quantique, grâce aux expériences réalisées sur les états intriqués. Dans ce cas, deux ou plus d’entités quantiques, telles que des photons, acquièrent des propriétés interdépendantes qui sont révélées par des corrélations constatées sur les valeurs mesurées.

Action à distance ?

Parce que les propriétés quantiques sont inhérentes à des résultats qui sont le fruit du hasard, ces corrélations sont typiquement le résultat de la moyenne de plusieurs mesures. La surprise supplémentaire c’est que la mécanique quantique semble insister que ces propriétés ne sont pas fixées tant que la mesure n’est pas effectuée. Cela semble impliquer qu’une mesure sur un photon intriqué affecte instantanément l’autre photon à travers l’espace (sic). »

Ces lignes sont extraites de l’article, cité ci-dessus, de présentation d’expériences récentes qui visaient à sauver certains aspects du réalisme, façons Einstein et Bell. La thèse de la causalité non locale ne se vérifie pas, en tous les cas une large classe de cette thèse est exclue. Un autre article sur le même sujet sur le site phys.org avec le titre : « Des corrélations quantiques n’implique pas une causalité instantanée. »

Il faut se rappeler que selon la conception traditionnelle et suivant la relativité restreinte, la chaîne de causalité ne peut pas se propager à une vitesse qui soit au-delà de la vitesse de la lumière. Il est à mon avis impropre de faire perdurer le concept de causalité à propos des propriétés de l’intrication, pas plus de causalité non locale. Quand un des auteurs de l’article écrit d’une façon définitive : « Sans cause et effet, la science serait impossible. », il met en évidence une véritable angoisse de physicien mais il ne faut pas s’arrêter à celle-ci. Par contre si l’auteur avait écrit: « Sans cause et effet notre capacité de raisonnement scientifique actuelle serait impossible. », alors il est substitué au sentiment d’angoisse, à l’idée d’une impossibilité définitive, une perspective ouverte, historique. Le principe de causalité constitue pour nous humain un support qui valide la qualité d’un raisonnement, mais nous devons le considérer comme étant un substrat de la pensée humaine et non pas le considérer comme un paradigme qui régit effectivement les propriétés de la nature, en effet il doit être considéré comme une projection. Pour nous rapprocher des propriétés observées dans la nature il nous faut donc nous émanciper de ce substrat spécifique de la pensée humaine. Comme précisé ci-dessus, le développement du principe de causalité est limité à celui de la limite de C, vitesse finie, donc à l’existence de l’espace et du temps.

Si comme je l’ai déjà conjecturé : avec la phénoménologie de l’intrication, il ne peut pas y avoir de référence ni au temps, ni à l’espace, donc il ne peut y avoir de vitesse de propagation, et en conséquence aucune référence à une telle limite. Voir article du 29/10/2015 : « L’univers n’est pas si bizarre si… », ainsi que du 9/12/2015 : « L’espace-temps a une source mais pas quantique. ». Puisque la fondation de l’espace –temps relève de sujet pensant, quand les conditions de cette fondation sur un phénomène ne sont pas réunies, dans ce cas-ci à cause de TpS, ce phénomène ne peut être décrit en termes d’espace-temps, ni en termes de grandeurs qui en dépendent.

Avec l’intrication nous sommes donc confrontés à un phénomène qui nous suggère que dans la nature toutes les propriétés ne sont pas régulées par des critères et des contraintes habituelles qui sont de fait les conséquences de déterminations du sujet pensant. En cela nous pouvons comprendre les raisons de l’inertie intellectuelle déployée puisqu‘il est particulièrement déroutant de se trouver confronté à une rupture conceptuelle qui avant tout remet en cause nos déterminations ancrées, jusqu’à présent totalement ignorées. L’espace et le temps sont des propres de l’homme, C définit notre présent horizon limite de vitesse, mais il n’est pas celui de la nature.

Il y a peut-être une autre approche semblable à celle que je préconise et qui résulte aussi d’une conjecture formulée par Maldacena et Susskind : E.R. = E.P.R, en 2013. Cette égalité dit qu’en cas d’intrication on pourrait considérer que les particules se joignent par un ‘trou de ver’. Un trou de ver permettrait de passer d’une région d’espace-temps à une autre instantanément. Ce concept a pour origine un article publié par Einstein Rosen(1935). Donc un trou de ver affranchirait la relation entre des particules de toute contrainte spatio-temporelle. Cela est une spéculation et les physiciens tournent en rond sur ce sujet parce qu’ils pensent que l’espace-temps est réel et donné, alors qu’avec ce concept, de trou de ver, l’espace-temps n’a plus de réalité et il est cout circuité.

Un autre article dans NewScientist, du 20/08, rend compte d’une expérience qui met en œuvre une ingénierie qui vise à essayer de pousser jusque dans ses ultimes retranchements les propriétés dites bizarres de la mécanique quantique. Dans cette expérience on réalise de mettre en état de superposition un événement A qui semble précéder B avec celui de B qui pourrait anticiper A. On arrive à conserver le fil d’une compréhension du résultat des occurrences après mesure, si et seulement si on se réfère au concept basique du principe de superposition des états avant la mesure tel qu’il fut postulé par N. Bohr.

By the way : ce sondage, ci-dessous, datant de 2011 présente un intérêt :

« In 2011, 33 physicists and philosophers at a conference in Austria on “Quantum physics and the nature of reality” were asked to nominate their favorites, listed below. The percentages of the delegates backing the various options do not add up to 100 – in keeping with the spirit of quantum theory, the poll allowed multiple answers.

The Copenhagen interpretation – 14 votes, 42 per cent

The information interpretation – 8 votes, 24 per cent

Many worlds – 6 votes, 18 per cent

Objective collapse – 3 votes, 9 per cent

Quantum Bayesianism – 2 votes, 6 per cent

Relational quantum mechanics – 2 votes, 6 per cent

The de Broglie-Bohm interpretation – no votes, 0 per cent

Partager cet article
Repost0
23 août 2016 2 23 /08 /août /2016 07:53

Décrire comment les humains interagissent avec la nature ? Comment ils évoluent grâce à cette interaction ?

J’ai effectivement signalé mon très grand intérêt, dans l’article du 21/06, à l’égard de la proposition de N. Gisin : « Finalement, la physique – et la science en générale – est l’activité humaine qui a comme but de décrire et de comprendre comment la Nature fonctionne. Pour cette raison on a besoin de décrire comment les humains interagissent avec la nature, comment on questionne la nature. » Selon ma thèse (voir articles du 2/11/2012 ‘Synthèse, un monde en Présence’ et ‘Un monde en Présence II’ du 1/01/2013) cette interaction entre les humains et la nature va de soi car chez l’être humain, il y a (aura) toujours une composante d’être de la nature bien que celle-ci puisse être de plus en plus réduite à cause des conquêtes intellectuelles sans fins de l’être humain qui contribuent à l’accroissement du socle de l’être dans la nature. Au questionnement original de N. Gisin, j’ajoute celui de la dynamique de l’évolution de l’être humain grâce à cette interaction. En effet lorsque l’être humain obtient une réponse (ou ce qui y ressemble) significative à la question : « comment la Nature fonctionne ? », il franchit un nouveau cap qui prend appui sur la réponse obtenue, c’est-à-dire l’être humain est un autre puisque riche d’un nouveau savoir.

A mon avis cette interaction ne peut pas évidemment être décryptée en temps réel, ni pendant des temps courts. C’est en puisant dans la profondeur des temps très longs qui correspondent à des durées significatives d’évolution jusqu’à l’émergence de l’homme moderne que nous pouvons repérer des évolutions de cette interaction avec la Nature. Aujourd’hui, la paléoanthropologie est une science suffisamment développée pour nous fournir des supports de données tangibles qui permettent de mettre en relief les différentes formes d’interaction avec la Nature. La tâche à accomplir, suggérée par Gisin, doit être menée en étroite coopération avec les paléoanthropologues. Accomplir cette tâche est maintenant nécessaire (impérative) car on ne peut plus se satisfaire de déclarations justes, mais déjà exprimées il y a 1 siècle, et sans lendemain comme je les ai pointées dans l’article du 23/04/2016 : « ‘De la vérité dans les sciences’, et après ! », à propos d’un livre d’Aurélien Barrau qui nous dit entre autres : « Nous choisissons et inventons les rapports au(x) monde(s) que nous jugeons pertinents, ils ne sont pas donnés, ils sont construits. »

A quand, un manifeste réunissant physiciens et paléoanthropologues qui proposerait de mettre en commun des résultats de recherche et des perspectives de recherches. Pour valider la justesse de cette proposition je retiens un seul exemple, celui sélectionné dans le livre de J. Guilaine : « Une seconde naissance de l’homme », page 57, titre du chapitre : « Origines : Le temps déduit de l’espace ? », je cite : « Sans doute la notion d’espace devait-elle être plus ou moins reliée à celle du temps (sic). », « Au paléolithique archaïque, aux alentours de 1.9 million d’années, l’analyse de la documentation fournie par plusieurs sites africains montre une gestion des matières premières fondée sur un certain rapport à l’espace (et donc au temps). » S’il se trouvait avérer que l’espace et le temps n’était qu’un propre de l’homme, les fruits d’un tropisme, cela modifierait sérieusement la valeur universelle que l’on prête à l’espace et au temps, à l’espace-temps. Pour mémoire je cite aussi les remarquables travaux de recherche qui viserait à montrer une très forte corrélation entre le développement (physique) du cerveau, le façonnage de la matière immédiate (le silex), la naissance de la volonté et de la nécessité du langage. Ce processus se serait engagé il y a environ 2 millions d’années.

Depuis deux décennies au moins, à la demande des physiciens, il y eut de nombreuses réunions voire des colloques entre physiciens et philosophes ainsi que des théologiens sur des sujets tels que : « A propos de l’espace et du temps. », mais je n’ai jamais constaté un éclairage significatif, original, chacun des orateurs ou des rédacteurs déployé sa conception, sa logique conceptuelle. Il n’y avait donc que des discours parallèles sans, aucun pont, aucune soudure, possibles. A mon avis ce ne serait pas le cas avec la paléoanthropologie et des points de soudure sont envisageables, ces deux corpus scientifiques peuvent développer des échanges fructueux à condition de les mettre en perspective par exemple dans un manifeste pour qu’il y ait des compétences qui interagissent de concert.

Ce que je veux croire avec la proposition de N. Gisin, c’est qu’il a une intuition qu’il me plait de cueillir parce qu’elle rejoint une idée que je laboure depuis quelques années : par exemple voir article du 21/07/2015 : ‘La seconde naissance de l’homme’, du 26/08/2014 : ‘Un authentique Big-Bang’. Je suis convaincu que ce type d’intuition, une fois qu’elle a été formulée dans un article, ne peut pas être considéré comme banal, ni marginal par l’auteur de ces lignes. Cette intuition laisse entendre qu’il ne faudrait plus considérer la physique comme une science qui fondamentalement exclurait toutes références à l’intelligence qui la pratique et la révèle. Cette intuition laisse entendre que dans toute nouvelle compréhension fondamentale de la Nature il s’y inclut aussi une nouvelle compréhension fondamentale du ‘sujet pensant’. Et dans la chaire de l’une il y a de la chaire de l’autre, bien qu’on puisse estimer qu’il n’y ait pas un rapport d’équilibre puisque la science physique est la science des lois physiques qui régirait la Nature. J’ai l’intuition que nous sommes à l’aube de l’évidence (ou de la nécessité) de la découverte d’une telle théorie inclusive et non pas exclusive et c’est pour cette raison que depuis toujours j’accepte l’idée que la physique est la première de toutes les sciences comme l’a proclamé R. Descartes en son temps. In fine, cette théorie inclusive intègrera le paradigme de la ‘Présence’ de l’être réflexif qui met en évidence les lois de la physique et qui est en conséquence inexpugnable du contenu et du formalisme de ces lois. Le ‘Sujet pensant’ avec ses déterminations relatives à l’état de son évolution physique, intellectuelle, existentielle, devra être considéré comme étant partie intégrante de la réalité de ces lois.

Nous sommes à l’aube d’une théorie inclusive parce que nous sommes de plus en plus confrontés aux conséquences du crépuscule d’un savoir physique exclusif. Il y a deux semaines nous avons été abasourdis par l’onde d’un silence abyssale qui s’est implacablement imposée à l’occasion de l’ICHEP (International Conference of High Energy Physics) de Chicago, il y aussi LUX qui fait chou blanc sur la matière noire pour la deuxième fois en deux ans malgré de notables améliorations de la sensibilité du détecteur et le très haut niveau de compétences de l’équipe de physiciens qui l’ausculte, il en est de même avec le télescope spatiale FERMI, idem pour AMS2. Alors la nécessité d’une rupture pour rebondir finira bien par s’imposer.

Dès le début des années 1930, Paul Dirac (1902-1984), en tant que disciple de Platon, affirmait que ce qui le guidait, au cours de ses cogitations de physicien, c’était la belle harmonie, la belle mélodie des propriétés de symétrie que faisaient entendre et voir ses équations théoriques. Quand, durant ses cogitations, il rencontrait cet état de grâce, il se disait assuré de dévoiler une vérité de la Nature. Ainsi, il mit en évidence l’antiélectron, et plus généralement l’antimatière, effectivement découvert dans une expérience par Anderson (1932) quelques années plus tard. Alors les physiciens de la physique des particules élémentaires se ruèrent sur ce paradigme des propriétés de symétrie dévoilée. Ce paradigme généra malencontreusement de la paresse intellectuelle puisqu’il fut considéré d’une façon définitive que là où il y a de la symétrie il y a du prix Nobel dans l’air. A force de tirer sur cette ficelle celle-ci finira par se rompre, peut-être que la rupture est déjà acquise dans la mesure où la Supersymétrie pourrait être une construction théorique de trop car toutes les tentatives d’observer la trace de son existence sont infructueuses avec comme conséquence, entre autres, de ne pas détecter la moindre trace de matière noire.

Lorsque nous serons en mesure d’entendre une nouvelle mélodie harmonieuse, elle ne sera pas de même nature que celle perçue par P. Dirac, elle proviendra du présent silence abyssale c’est-à-dire qu’il faut dès maintenant que les physiciens prêtent l’oreille, apprêtent leur cerveau, pour devenir disponibles à un nouvel entendement. Harmonie de l’interaction entre la Nature et l’être humain, qui validera que dans les lois de la Nature que nous dévoilons il y a de l’humain (contrairement à ce qu’a postulé Einstein, tandis que comme je le préconise, il y a de l’humain, certes dans une tranche de temps infiniment petite 10-25s, mais définitivement marquante parce qu’il en résulte une densité de ‘Présence’ ineffable.) et chez l’humain il y a toujours de la Nature qui projette ses déterminations (contrairement à ce que postule les dualistes). Quand cette interdépendance sera comprise, cela conduira tout autant à une découverte anthropologique majeure qu’à un nouvel envol de découvertes pour la physique. A cause de cette interdépendance cela mettra aussi en évidence la ténuité de notre existence telle qu’elle se manifeste, cela devrait aussi nous faire prendre conscience de notre responsabilité à l’égard de la Nature dont nous sommes issus et dépendant et cela ne se limite pas à l’échelle de notre planète. N’oublions pas que les acides aminés lévogyres qui sont les briques élémentaires des protéines sont forgés par la lumière dans l’espace interstellaire.

Partager cet article
Repost0
10 août 2016 3 10 /08 /août /2016 07:55

ICHEP 2016 à Chicago

Dès le premier jour des conférences ICHEP (International Conferences of High Energie Physics) du 5 au 10 Août à Chicago, il a été communiqué que le possible boson de 750 Gev peut-être entr’aperçu dans une annonce mi-décembre 2015, définitivement n’est pas. Les observations précaires de l’an passé, n’étaient que des fluctuations statistiques. Les physiciens du Cern n’avaient pas exclu cette situation à cause de la faiblesse du nombre d’événements obtenus collecté tout autant dans CMS et Atlas (mais effectivement cette conjonction pouvait faire sens).

Cela n’avait pas empêché, depuis, que plus de 500 publications soient proposées sur arXiv, publications empressées de valider théoriquement ce nouveau boson ou pour exposer quels étaient les nouveaux modèles théoriques que cela mettaient en évidence. On ne peut pas s’empêcher de penser, légitimement, que les physiciens théoriciens ont, depuis un certain temps, peu ou plus de grain à moudre. Déjà avec la découverte du boson de Higgs, il y avait eu une déconvenue très importante car cette découverte, avec les paramètres de cet objet identifiés, n’offrait aucune ouverture vers des sentiers nouveaux de recherche ou de conjectures, bien au contraire, le boson de Higgs observé, est tellement conforme au modèle standard qu’il scelle celui-ci.

Le 8/11/2011, j’ai proposé un article : « Qui se permettra de le dire ? », j’invite à le relire. En effet, j’exprime un point de vue très critique à l’égard de la théorie quantique des champs (TQC) car la boite à outils théorique qui a contribué à la fondation du modèle standard des particules élémentaires n’est qu’un mille feuilles de couches d’hypothèses empiriques. Cet empirisme, ce pragmatisme, peut se justifier mais il devient un inconvénient lorsque ce processus est oublié. Il me semble que nous sommes pris dans le marasme provoqué par cet oubli. Les 500 publications et plus, qui en quelques semaines ont proposé d’expliquer cet événement chimère est symptomatique de l’impasse dans laquelle se trouve la physique théorique des particules élémentaires.

A l’ICHEP, il a aussi été confirmé, une fois de plus, qu’il n’y a aucun indice de détection de particules supersymétriques. La supersymétrie (SUSY) est une hypothèse, qui date, et qui doit être comprise comme une extension du Modèle Standard, et l’absence d’indice non seulement cela fragilise l’hypothèse de la matière noire (voir article du 29/07), mais cela met en évidence que ce modèle standard n’a plus de valeur prédictive si ce n’est vers des voies erronées.

J’ai, aussi, toujours considéré qu’il était erroné de vouloir insérer les propriétés physiques apparentes des neutrinos dans le cadre de la physique propre au Modèle Standard alors que celles-ci bien interprétées pourraient nous ouvrir des voies d’analyses en dehors de ce carcan. Déjà commencer à considérer que leur masse pourrait être d’une autre nature que la masse d’inertie habituellement attribuée, constitue à mes yeux un début. Il faut penser avec insistance que la physique des neutrinos analysée sans a priori puisse offrir la possibilité de découvrir de nouveaux paradigmes.

Dès l’obligation de la renormalisation proposée par la TQC pour résoudre les termes divergents en électrodynamique quantique, il aurait fallu considérer que cette TQC n’était qu’une théorie effective et pas plus. C’est une autre logique qui s’est imposée caractérisée par une dynamique de la production du résultat, peut-être qu’aussi à cette époque s’est imposé le fameux : ‘Ne pense pas et calcule’, mais ce qui est certain c’est que le critère de la production de publications en nombre est devenu ‘Le’ critère de la reconnaissance d’une carrière scientifique au détriment de toutes autres considérations.

Dans ce contexte, on doit considérer que les excès constatés et provoqués par un évènement parfaitement chimère sont une illustration de dérives qui doivent impérativement refluer. Il y aussi une autre conception de la démarche scientifique qui est à l’œuvre et qu’il faudrait réfréner, c’est celle qui s’appuie sur l’idée que ce que l’on ne pense pas, finira toujours par se faire voir. En effet cette croyance est à l’œuvre car il est vrai que l’on est à même de fabriquer des instruments d’observation de plus en plus pointus, de plus en plus sophistiqués, et cela induit une forme de paresse intellectuelle collective sinon une erreur épistémologique fondamentale car il est dans ce cas a priori supposé que d’une manière ou d’une autre la Nature se laissera voir. C’est donc avec beaucoup d’inquiétude et de déception que j’ai découvert l’article du début janvier de cette année de Fabiola Gianetti Directrice générale du CERN : « Si une nouvelle physique est là, nous pouvons la découvrir, mais c’est entre les mains de la nature. » ; « If new physisics is there we can discover it, but it is in the hands of nature. » J’ai réagi a une telle affirmation, de mon point de vue, absurde et erronée en un article le 16/01 : « Et si notre pensée était mal placée ! » et j’avais indiqué que l’avenir de la compréhension de nouvelles lois régissant la nature, telles qu’elles nous apparaissent, n’est pas évidemment dans les mains de la nature mais dans le cerveau des physiciens.

Sur le site de Futura-Sciences, le 09/08/2016, Laurent Sacco a publié un article que je vous conseille de lire, intitulé : « Le LHC est triste : il n'y a pas de nouveau boson, mais y a-t-il un multivers ? ». Je pourrais partager cette interrogation si elle nous conduit à considérer d’une façon équivalente : « C’est l’univers de notre pensée scientifique qui est limité et un déploiement de celle-ci conduira à une extension de la compréhension de notre univers actuel qui intègrera ce que L. Sacco identifie comme le multivers. Ce processus d’intégration ne s’arrêtera pas pour autant à ce niveau et d’autres évidences de multivers viendront enrichir notre univers. »

Je vous joins quelques citations de l’article en question qui retiennent mon attention :

« Cependant, je reste optimiste devant les possibilités de découverte dans la physique des neutrinos (sic), bien que peut-être pas en premier au LHC. Nous ne savons toujours pas quelle est leur nature réelle, de Majorana ou de Dirac ? Comment expliquer de façon satisfaisante leur masse (sic), sachant que le mécanisme de Brout-Englert-Higgs, qui est possible pour les autres particules du modèle standard, est plus difficile à mettre en œuvre de façon satisfaisante pour les neutrinos ? Et même au LHC, nous ne sommes pas à l’abri de surprises, cette fois positives ! »

« Avant, les théoriciens avaient de bonnes raisons de prendre les signaux détectés au sérieux et on peut comprendre leur impatience à exorciser le cauchemar de l’hypothèse du désert. Mais après Moriond (en février 2016), ils auraient dû se modérer fortement alors que près de 400 articles ont été publiés. Même si un certain nombre avaient une réelle valeur ajoutée scientifiquement parlant, beaucoup étaient finalement assez artificiels. Sociologiquement, il semble probable que certains ont cédé à la tentation de faire grimper leur nombre de publications et de citations, sous la pression de plus en plus grande de la part des organismes financeurs (sic). Malheureusement, la science en pâtit (sic). »

Partager cet article
Repost0
29 juillet 2016 5 29 /07 /juillet /2016 10:50

Abandonner l’hypothèse de la matière noire ?

L’hypothèse de l’abandon, de l’hypothèse de la matière noire, devient de moins en moins prématurée. En effet le détecteur le plus sensible conçu spécifiquement pour enregistrer d’éventuelles interactions avec des composants de la matière noire sous forme de WIMPs a rendu une nouvelle fois un verdict négatif. Cette annonce négative a été communiquée à la conférence : ‘Identification de la Matière Noire’ à Sheffield ces derniers jours. Le détecteur : ‘LUX’, (Large Underground Xénon) avait déjà inhibé l’enthousiasme des chercheurs en Novembre 2013, malgré des préannonces tonitruantes. Depuis la sensibilité avait été notablement améliorée mais après 20 mois de fonctionnement optimal, rien de positif n’a été identifié.

LUX désigne un détecteur enterré dans une mine du Dakota du Sud à 1500 mètres de profondeur, comprenant une cuve contenant 350 kg de Xénon liquide à -108°C. Il est prévu qu’il y ait des flashes de lumière quand les particules de matière noire interagissent ou rebondissent (avec) sur le Xénon.

Le présent article a été précédé par celui du 29/01/2015 : ‘Bilan de la recherche de la matière noire’ qui prévoit la déconvenue éprouvée à Sheffield la semaine passée. Je conseille de le relire.

La matière noire a été nommée ainsi parce que n’émettant aucune lumière à laquelle nous sommes sensibles soit directement soit indirectement, elle fut supposée comme étant composée de constituants élémentaires qui devaient interagir très faiblement entre eux et heurter la matière ordinaire. A part son côté obscur, rien de tout cela ne peut être vérifié expérimentalement. Parmi les partisans de ces hypothèses le doute s’insinue : « Peut-être que la matière noire n’est pas sous forme de WIMPs », « Ces résultats suggèrent que les jours sont comptés pour le modèle dominant de la matière noire. » L’autre voie envisagée de détection des WIMPs, serait de les produire au LHC, mais là encore aucune indication tangible n’a été observée au cours du premier run, et il ne faut pas espérer une communication plus favorable durant les prochaines conférences à venir pendant la première quinzaine d’Août, alors qu’aux dernières nouvelles le rendement du run 2 est très performant.

« Donc si la matière noire n’est pas constituée de WIMP’s, qu’est-ce que c’est ? Il n’y a pas de pénurie d’alternatives (sic). Les particules légères appelées ‘axions’ sont une option, tandis que des très petits trous noirs primordiaux résultant du Big Bang représentent une autre. » Cette affirmation est très étonnante car ces options ne sont pas moins fragiles que les WIMP’s puisque jamais observées malgré les recherches.

Est-ce que ces absences de découverte renforcent l’hypothèse formulée depuis 30 ans par M. Milgrom en ce qui concerne sa théorie ‘MOND’ ? Si on pose la question à Milgrom voici ce qu’il répond : « Je ne suis pas du tout surpris des annonces négatives à propos des recherches de matière noire. » Mais il souhaite que les recherches continuent. Car : « Ne pas trouver de matière noire à des sensibilités de plus en plus élevées, renforcera la théorie ‘MOND’. » Il considère clairement que sa théorie est la contrepartie qui s’imposera face aux échecs de résultat de la théorie de la matière noire : « Abandonner la recherche de matière noire n’aidera pas et conduira à une impasse. »

Il est programmé de restructurer LUX qui se dénommera LZ (Z de ZEPPELIN) qui aura une sensibilité 70 fois supérieure et sera opérationnel en 2020. Les physiciens qui s’expriment ne peuvent changer leur fusil d’épaule : « Ne pas trouver de WIMPS pourrait conduire les physiciens à penser à de nouveaux candidats pour la matière noire, toutefois l’option WIMPS est la meilleure option. »

Le point de vue de ce qui constitue celui majoritaire est respectable mais démontre une réelle inertie pour ne pas dire conservatisme qui nuit aux avancées de la connaissance scientifique comme je le précise à la fin de l’article du 29/01/2015. A l’extrême cela peut mener à un aveuglement inacceptable, voir article du 31/03/2015 : ‘L’objectivité scientifique exclut qu’elle soit parasitée par des problèmes de doctrine.’

Dans les siècles passés, il fallut beaucoup de temps pour mettre au rancart la physique mécaniste de Descartes qui faisait intervenir des rouages et des tourbillons pour rendre compte de ce qui apparaissait, à l’époque, comme étant plausible. Nous sommes probablement dans une période où nous devons nous émanciper d’une conception purement ‘matiériste’ qui obstrue actuellement nos capacités de concevoir des composants de l’Univers qui, pour nous, sont de fait totalement exotiques. J’ai déjà eu l’occasion d’exprimer un doute positif semblable à propos des neutrinos depuis plusieurs années mais les choses évoluent très lentement et il faut être patient. Ainsi j’ai pu lire, pour la première fois, dans un récent article (dans le CERN COURIER de juillet-août 2016) : « Puisque les neutrinos sont électriquement neutres, il est possible que les neutrinos acquièrent de la masse via un mécanisme différent. » C’est le début de l’idée que j’ai exprimée dès l’origine du Blog : article du 8/10/2011 : « L’hypothèse que les neutrinos comme les constituants de la matière noire pourraient ne pas être contraints par la loi de la R.R. : E = mc2, puisque non chargés électriquement doit être pris en compte. »

Partager cet article
Repost0
13 juillet 2016 3 13 /07 /juillet /2016 08:49

Penser l’émergence d’une nouvelle intelligence.

En écho à l’article du 21/06/2016 : ‘Evolutions des connaissances ; évolution de l’humanité.’, la revue ‘Pour la Science’ vient de publier un N° spécial juillet-septembre : « Intelligence. Notre cerveau a-t-il atteint ses limites ? » Il y aussi un avant-propos de Pascal Picq (paléoanthropologue au collège de France), ‘Le roman des intelligences’ que je joins in extenso à la fin du présent article.

Ce numéro comprend plusieurs articles inédits que vous pouvez lire avec profit. Quant à moi, je propose de souligner ici les thèmes qui retiennent plus particulièrement mon attention étant donné notre sujet principal.

p.50, l’article de J. Fagot : « L’être humain, un primate comme les autres ? » nous rappelle l’article du 02/12/2013 : « La fin comme celle du phénix ». Lorsque l’on questionne J. Fagot : « Des premiers singes aux humains, l’évolution cognitive serait donc linéaire ? », il répond : « Après trente ans de recherches, c’est mon impression dans bien des domaines. Certaines de nos expériences le confirme bien.» … Comment alors expliquer le grand écart entre le chimpanzé et l’humain ? « Les humains ont la particularité d’avoir une culture cumulative (sic), c’est-à-dire qu’ils apprennent (de leurs parents, de leurs enseignants…) et surtout qu’ils manipulent ces nouvelles informations pour les utiliser de façon différente et éventuellement plus efficace. Ainsi, petit à petit, nous avons amélioré nos savoirs et notre technologie avant de les retransmettre à la génération suivante (voir article du 26/09/2015 : ‘Non, on ne pense pas quantique. Pas encore !). Or il y a peu de démonstrations de cultures cumulatives chez les animaux… Il manque probablement chez l’animal un processus de structuration tel que l’on observe dans le langage humain. »

p52 : « La différence entre les primates et les humains tient également en quelques particularités. Ces derniers ont par exemple une pensée tournée vers l’avenir et peuvent prévoir ce qu’ils feront demain, après-demain… dans quelques années. Chez les primates chimpanzés, ils prévoient leur comportement mais sur des échelles de temps relativement courtes, de l’ordre de la demi-journée. On peut penser que cette anticipation à long terme s’est mise en place de façon très progressive au cours de l’évolution. » Est-ce que ce constat affirmé par J. Fargot : « une pensée tournée vers l’avenir » peut être en partie cause de l’incontournable observation en physique de l’irréversibilité ? Pour l’avenir, gardons présente à l’esprit cette interrogation.

L’autre article inédit (p.69), de Dietrich Stout, que je vous recommande, a pour titre « Un cerveau taillé pour l’intelligence ». En introduction il est écrit : « Le cerveau humain est aujourd’hui l’organe le plus complexe de la Terre. Pourquoi ? Peut-être grâce à la taille des pierres en outils (sic)… Cette activité aurait favorisé le développement des capacités mentales particulières. Pour le montrer, rien de mieux que de fabriquer aujourd’hui des haches en silex ! » C’est exactement l’activité qui est menée dans le laboratoire de D. Stout par une vingtaine de personnes et cela lui permet de nous confirmer un premier résultat : « On peut reconstituer le fonctionnement mental de nos ancêtres en observant (grâce à l’IRM) le cerveau d’individus taillant des silex de la même façon. On constate alors que la taille d’outils de pierre développe précisément les zones du cerveau qui se sont renforcées au fil des millions d’années. Les meilleurs tailleurs de silex survivaient mieux que les autres : l’accroissement de leur cerveau a été sélectionné par l’évolution. »

P.72, « Nos propres recherches ont accumulé des indices qui relient la capacité à construire des outils à des systèmes cérébraux sous-tendant le contrôle de soi et la planification – en lien direct avec cette donnée sur la taille des cerveaux de plusieurs espèces. Mais ce n’est pas tout : nos ancêtres tailleurs de pierre devaient aussi communiquer. Par gestes, mais aussi verbalement. »

J’avais déjà exprimé tout mon intérêt pour ce type de découverte, à l’époque bien plus embryonnaire, dans l’article du 10/10/2013 : ‘Comment nous sommes devenus avec/dans le langage ?’ Puisque ce résultat devient de plus en plus tangible, il faut s’interroger si nous ne sommes pas toujours sous l’influence d’un tropisme qui conditionne encore notre perception et notre compréhension des choses de la Nature. Sommes-nous émancipés de ce rapport exclusif avec la matière locale ? Sommes-nous à même d’avoir une intelligibilité inconditionnelle avec tous les autres composants qui seraient dans la Nature ? L’avenir du développement de nos connaissances en physique dépend de l’acceptation par les physiciens de ce questionnement.

P. Picq : Le roman des intelligences :

« Pour appréhender toute la diversité et la richesse des intelligences dans leur dynamique (évolutive ou individuelle), nous devons nous défaire d'une conception dualiste qui oppose humain et animal. C'est aussi essentiel pour que demain nous puissions cohabiter au mieux avec les nouvelles formes d'intelligence.

Du même auteur : La ronde des bipédies ; Une évolution buissonnante ; A l’Ouest d’Homo sapiens.

Sur la fin de sa vie, Charles Darwin se lia d'amitié avec un jeune chercheur du nom de George John Romanes. Leur relation commence par une longue lettre écrite par Romanes en 1874 alors qu'il développe ses recherches sur le système nerveux et locomoteur des méduses et des échinodermes. Darwin perçoit les potentialités de son jeune ami et l'encourage à développer ses recherches sur l'extension de sa théorie de la sélection naturelle à l'évolution mentale, autrement dit, de l'intelligence.

Après une première conférence sur le sujet en 1881, Romanes publie Animal intelligence en 1882, vite traduit et édité en français en 1887. C'est l'année de la mort de Darwin et dix ans après L'Expression des émotions chez l'homme et les animaux, le livre fondateur de l'éthologie qui, initialement, devait faire corps avec La Filiation de l'Homme en relation avec la sélection sexuelle en 1871. Romanes suit à la lettre, si on peut dire, la méthode et l'épistémologie de son maître : recueillir le plus grand nombre d'observations connues parmi les espèces, dont l'homme, faire ses propres recherches et les intégrer dans une approche scientifique évolutionniste. Deux ouvrages récapitulent ses recherches : Mental Evolution in Animals dans lequel il présente le manuscrit inédit de Darwin Essay on Instincts en 1883 et Mental Evolution in Man. Origins of Human Faculty en 1888. C'est dans ce dernier qu'il affirme : « On comprend comment, partie de si haut, la psychologie du singe peut engendrer celle de l'homme ».

Romanes ne part pas de rien, comme le supposent encore trop de théories de la psychologie qui maintiennent le dogme dualiste d'une intelligence humaine dénuée de tout héritage phylogénétique. Il a à sa disposition les notes et réflexions que Darwin lui avait données. De fait, elles étaient nombreuses, car – c'est méconnu – Darwin avait beaucoup étudié ces sujets, notamment le développement de l'intelligence chez l'enfant. D'ailleurs, ses travaux annoncent ceux de Jean Piaget ; ils seront publiés tardivement dans la revue Mind en 1877. Pourquoi avoir autant attendu ?

Parce qu'il considérait que l'état des connaissances et de ses connaissances ne permettait pas d'intégrer cette question dans L'Origine des espèces au moyen de la sélection naturelle, paru en 1859. Il s'en confie à son jeune ami alors qu'il travaille à son dernier livre La Formation de la terre végétale par l'action des vers de terre, publié en 1881. Cet ouvrage porte sur un des aspects les plus fascinants de l'« intelligence écologique » de la nature : le rôle des vers de terre dans la constitution des sols sur lesquels se fondent nos agricultures et nos civilisations. Ce livre prémonitoire sur une catastrophe écologique annoncée resta longtemps ignoré par nos civilisations aveuglées de progrès qui, au fil de l'histoire, ont édifié des représentations du monde considérées d'autant plus avancées qu'elles se distanciaient de la nature.

Vers le monde indéfini des instincts...

Alors, tous les êtres considérés comme proches de la nature se sont vu rejetés dans le monde indéfini des instincts : les femmes ont subi le sexisme, les sauvages le racisme, les animaux l'espécisme… Dans le même temps, la science a forgé des outils « objectifs » pour valider cette mise à l'écart, comme le célèbre qi (quotient intellectuel), inventé par Francis Galton, cousin de Charles Darwin. Le qi est calibré de telle sorte que, par exemple, trop de personnes croient encore que les hommes de Néandertal (voir Dans la tête de Néandertal, par K. Wong, page 54) ou nos ancêtres Cro-Magnon – qui avaient tous un cerveau plus gros que le nôtre – étaient moins intelligents que nous.

Les avancées de Romanes ont été contrées par le psychologue Lloyd Morgan et son canon : « Nous ne devons en aucun cas interpréter une action comme relevant de l'exercice de faculté de haut niveau, si celle-ci peut être interprétée comme relevant de l'exercice de facultés de niveau inférieur ». Cet aphorisme est resté marqué au fer rouge sur la porte d'entrée des laboratoires de psychologie comparée pour un siècle jusqu'à l'affirmation des sciences cognitives modernes.

Ce principe épistémologique est forgé au coin du bon sens scientifique, mais il a une conséquence perverse. Sous prétexte d'éviter les dérives dites anthropomorphiques, il réhabilite de fait le dualisme cartésien pour nos qualités mentales dites supérieures, telles l'empathie, la conscience, la morale... En simplifiant, toutes les grandes écoles de psychologies qui émergent du temps de Romanes et de Morgan, comme celles d'Ivan Pavlov, John Watson, Burrhus Skinner... se basent sur le canon de Morgan.

Il faut attendre les travaux des grands pionniers de l'éthologie tels que Karl von Frisch, Konrad Lorenz et Niko Tinbergen (nobélisés en 1973) pour que les observations sur les comportements s'inscrivent dans une véritable perspective évolutionniste. On doit à Tinbergen une avancée épistémologique majeure avec ses quatre questions fondamentales de l'éthologie. Dans les deux premières, il décrit les causes proximales : comment l'individu acquiert ses caractères (ontogenèse) et comment il interagit avec l'environnement (fonction). Les deux dernières questions, ultimes ou fondamentales, s'intéressent à l'évolution (la phylogenèse) et à l'adaptation de la population. Cette grille d'analyse devrait être au cœur des réflexions à mener dans notre monde actuel envahi par les machines intelligentes au risque de sombrer dans le syndrome de la Planète des singes.

Le syndrome de la Planète des singes

C'est en effet dans la nouvelle de Pierre Boule qu'on trouve une des meilleures explications du canon de Morgan. On y apprend que les grands singes ont pris le pouvoir parce que les humains avaient inventé une civilisation dans laquelle des machines produisaient leurs besoins avec des grands singes domestiqués pour les servir. Alors, au fil du temps, les humains se dissocièrent de la nature et cessèrent d'êtres actifs physiquement et intellectuellement.

Or depuis Romanes et Morgan, les sciences psychologiques mènent une guerre de tranchée neuronale pour sauver le statut ontologique de l'homme, c'est-à-dire son statut à part du propre de l'homme. Il en va ainsi de la conscience et de la morale. D'ailleurs, c'est lors de la première John Romanes Lecture que l'immense Thomas Huxley donne une conférence séminale intitulée Evolution and Ethics en 1893. Il défend la thèse que seuls les humains sont capables de comportements moraux envers leurs congénères. Son petit-fils Julian, premier secrétaire général de l'Unesco, reprend la thèse de son illustre aïeul dans une autre Romanes Lecture exactement cinquante ans plus tard. Cette question de la morale – avec la conscience et l'empathie – se retrouve chez des auteurs actuels notamment Patrick Tort, avec son principe d'effet réversif de l'évolution, qui explique que les humains peuvent agir contre les effets néfastes de la sélection naturelle.

Ce fardeau dualiste marque profondément les recherches sur les origines et l'évolution non pas de l'intelligence, mais des intelligences. Charles Darwin était consterné par la dérive spiritualiste de son époque, notamment chez son collège Russel Wallace, le codécouvreur de la sélection naturelle. Wallace fonde le darwinisme en considérant que tous les phénomènes de la vie ne peuvent et doivent s'expliquer que par la sélection naturelle. Mais il n'arrive pas à comprendre l'émergence de la conscience et des capacités « mentales supérieures », alors il plonge dans le spiritualisme.

Si on admet l'importance du canon de Morgan et sa vertu parcimonieuse, c'est-à-dire sa propension à ne prendre en compte que le minimum de causes, il finit tout de même par heurter un autre principe parcimonieux : celui de la phylogénie. En effet, si deux espèces issues d'un même ancêtre commun manifestent les mêmes caractères, c'est qu'ils proviennent d'un ancêtre commun exclusif ou du dernier ancêtre commun. Et pour reconstituer l'arbre phylogénétique des intelligences, il faut connaître leurs formes d'expressions chez les autres espèces.

À partir de là, une tout autre perspective scientifique s'ouvre à notre entendement trop longtemps borné par les postulats dualistes et cartésiens. Certes, de Descartes à Morgan, on se félicite d'une méthode qui engage les recherches sur des éléments constitutifs de l'intelligence, qui, plus pertinemment, s'orientent vers les intelligences et, in fine, autorise le travail minutieux de la reconstitution phylogénétique, comme l'illustrent certains articles de ce Dossier. Néanmoins, le spectre dualiste à la peau dure, même si les grands auteurs comme Darwin et Romanes évitent de parler de l'homme et de l'animal en précisant de l'homme et des animaux !

Malgré l'excellence de nombreux chercheurs et laboratoires français, notre grand pays scientifique reste globalement en retard sur les études en éthologie et en psychologie comparée. Pourquoi ? À cause de notre ontologie dualiste. Pourquoi le Japon a-t-il la meilleure école d'éthologie du monde ? Parce que les Japonais sont animistes. Et l'on découvre que nos grands programmes scientifiques reposent sur nos ontologies fondamentales... De fait, en France on doit « prouver » que les chimpanzés ont de l'empathie alors qu'au Japon il faudrait « prouver » qu'ils en sont dépourvus. Et ça, c'est tout à fait humain. Mais prenons garde, ce n'est pas que des avancées des connaissances dont il est question. Notre avenir en dépend dans le monde qui se met en place, car la façon dont on perçoit les animaux est la même qui prévaut envers les robots.

Les articles réunis dans ce Dossier décrivent la diversité des intelligences dans le règne animal, leur dynamique dans les espèces humaines depuis l'aube de l'humanité ainsi que la dynamique, la complexité et le potentiel de celle que l'on veut bien nous prêter aujourd'hui.

Le « second âge des machines »

Comment situer l'intelligence humaine – qui n'est pas la seule à être munie de différents types de consciences – entre les intelligences naturelles et l'émergence des intelligences artificielles dont les algorithmes ont déjà pénétré tous les aspects de nos vies ? Le « second âge des machines » est déjà là et toutes nos formes d'intelligences associées aux capacités cognitives de notre cerveau gauche (logique, analytique, algorithmique, objectif, rationnel...) se trouvent en concurrence avec des robots et des algorithmes devenant toujours plus performants. Or, nos programmes scolaires et notre éducation privilégient ces capacités cognitives en négligeant celles de notre cerveau droit qui, pour l'instant, échappent aux machines (synthèse, holistique, émotions, artistique, intuitif...). Nous entrons dans la troisième coévolution.

La première coévolution concerne tous les organismes vivants et leurs interactions. La deuxième se met en place avec les premiers hommes (Homo erectus) avec des innovations techniques et culturelles, comme la cuisson et la taille des outils (voir Un cerveau taillé pour l'intelligence, par D. Stout, page 68), qui modifient et sélectionnent nos organismes, des gènes aux capacités cognitives. La troisième se manifeste depuis le début du xxie siècle avec l'impact des nbic (nanotechnologies, biologie naturelle et de synthèse, sciences informatiques et cognitives).

Mais contrairement aux sirènes du transhumanisme qui postulent que l'évolution est arrivée à son terme et que nos technologies doivent prendre le relais, il faut penser notre avenir en fonction des interactions de ces trois coévolutions ; l'émergence, en quelque sorte, d'une nouvelle intelligence. Car, fondamentalement, c'est quoi l'intelligence ? Essentiellement des interactions. Des vers de terre aux neurones en passant par les individus et les puces électroniques, toute intelligence est une propriété émergente des interactions.

Le syndrome de la Planète des singes est un signal. Notre humanité doit se remettre en marche. Notre cervelet possède 70 milliards de neurones connectés à l'ensemble de notre corps et de notre cerveau et des études récentes montrent que la marche, et tout particulièrement dans un bout de nature, augmente notre créativité de 60 % ; et c'est encore mieux avec les autres. Dépêchons-nous tant que les robots marchent comme des pantins et tant qu'ils n'ont pas de cerveau gauche. L'avenir déjà engagé de l'humanité se dicte ainsi : soit l'intelligence artificielle nous dépasse, soit nous devenons des humains doués d'intelligences augmentées. Il est temps que j'aille me promener dans la campagne comme ce cher Darwin... pour l'avenir de l'humanité ! »

Partager cet article
Repost0
7 juillet 2016 4 07 /07 /juillet /2016 07:39

Déterminations et limites de la mesure du temps ?

Cet article doit être considéré comme un essai puisque c’est un article d’anticipation, dans le sens où j’anticipe en proposant des corrélations nouvelles entre des phénomènes observés et connus, pour interroger jusqu’à quelle limite précise nous pouvons mesurer un intervalle de temps. Et si ces limites existent et deviennent définissables, qu’est-ce que cela implique à propos de nos capacités humaines de connaître les lois de la physique dans la Nature ?

C’est en écoutant un des exposés, réalisé à l’académie des sciences le 24 mai 2016, sur le thème : ‘Cent ans de révolutions quantiques’ et particulièrement celui de Christophe Salomon du laboratoire Kastler Brossel qui a pour intitulé : ‘La mesure du Temps, passé, présent et avenir’, que j’ai pensé me lancer dans cette proposition d’essai. La vidéoconférence est toujours accessible sur le site de l’académie des sciences.

L’auteur de l’exposé, d’emblée, rappelle à juste raison que ce que l’on mesure ce sont des intervalles de temps et non pas le temps. Et rappelle aussi, à juste raison, que la précision de la mesure de ceux-ci dépend de l’environnement gravitationnel dans lequel fonctionne les horloges. Cette dépendante étant parfaitement comprise dans la loi de la Relativité Générale et qui est schématiquement illustrée par les traits d’union de l’équivalence : R.G. = Matière-Espace-Temps

A la fin de son exposé Ch. Salomon, dans le paragraphe 4, nous dit « Les fluctuations du potentiel gravitationnel de notre planète Terre vont limiter la précision de la mesure du temps au sol à 10-18 – 10-19s : Solution pour diminuer cet inconvénient : mettre les horloges de références en orbite haute où ces fluctuations sont fortement réduites. »

« Autre possibilité, dans le futur, utiliser l’intrication pour améliorer la précision des mesures. »

Donc ce qui est dit dans cet exposé c’est que notre environnement physique actuel nous contraint à ne pouvoir réaliser, d’un point de vue instrumental, des intervalles de temps qui ne peuvent être infiniment précis. Le projet d’échapper à notre environnement physique immédiat et de placer les horloges en orbite haute n’offre pas pour autant la précision infinie hypothétique puisque les fluctuations sont réduites mais pas annulées. Ici, de fait, notre capacité de mesure d’intervalle de temps, au moyen d’un instrument, est in-fine déterminée par un environnement physique auquel on ne peut échapper et un champ gravitationnel parfaitement stationnaire est objectivement inenvisageable.

Je rappelle que mon hypothèse anthropologique essentielle considère que l’être humain ne peut être, d’un point de vue existentiel, sensible à des intervalles de temps plus petit que 10-25 – 10-26s, en-deçà il est intellectuellement et rédhibitoirement aveugle et ne peut donc plus rien concevoir. Cette détermination-ci n’est pas instrumentale mais pourrait être corroborée par ce qui est rapportée par Ch. Salomon.

Il est possible de considérer que cette détermination est intrinsèque à l’être humain et qu’elle est le fruit de son évolution au sens de Darwin. Acceptons, en premier lieu, de faire un détour suggéré par les articles tout récents qui nous disent : « Evidence possible de la découverte d’une capacité humaine de détecter le champ magnétique terrestre ». Cette évidence nous est proposée par Joe Kirschvink qui a consacré beaucoup de sa vie de chercheur à prouver ou à réfuter que l’être humain aurait une habilité à détecter et à répondre au champ magnétique terrestre. Il a montré expérimentalement des variations des ondes cérébrales de personnes volontaires installées dans des pièces avec des champs magnétiques contrôlés. Ceci est déjà longuement étudié chez les animaux et c’est ainsi que l’on explique couramment la détermination des parcours des migrations des oiseaux par exemple. Il y a le Modèle Magnétique qui est basé sur l’idée que la magnétite (oxyde naturel de fer Fe3O4, doué de magnétisme) présente dans le corps des organismes vivants serait tirée par le champ magnétique terrestre, contrôlant le circuit neuronal. Il y a aussi le Modèle du Cryptochrome qui est basé sur l’idée que les cryptochromes dans la rétine de l’œil atteignant, naturellement ou artificiellement, certains états quantiques interagissent avec le champ magnétique. C’est le premier modèle que Kirschvink privilégie chez les humains et qui s’interprète correctement selon ses expériences. Les personnes volontaires enfermées dans les pièces où est simulé le champ magnétique terrestre sont installées sur une machine EEG (électroencéphalogramme) pour mesurer les ondes cérébrales alpha. Les résultats de cette expérience réalisée à la fois en Californie et au Japon, méritent d’être consolidées mais l‘auteur est optimiste car il a prouvé que les humains sont dotés de détecteurs magnétiques.

Au-delà de cette observation, il faut en tirer une conclusion, qui est bien plus significative à mes yeux, que celle que nous serions dotés d’une capacité de détecter le champ magnétique terrestre, en fait la conclusion importante c’est que nous sommes dépendant de ce champ magnétique terrestre qui est permanent, donc l’interaction serait continue. Cela veut dire que par rapport à notre planète Terre nous ne sommes pas une île mais sur le plan de cette interaction physique nous serions au moins une presqu’île.

Il y a une interaction avec notre planète Terre qui épaissit significativement l’isthme qui nous relie à celle-ci, c’est l’interaction gravitationnelle. Celle-ci nous a physiquement, corporellement, formatés. Dans le corporel, il y aussi la matière cérébrale et sans être un spécialiste on peut dire que l’agencement des neurones a, d’une certaine façon, dépendu de cet interaction au cours de l’évolution qui a fait ce que nous sommes présentement. En 2 millions d’années, le cerveau des hominines : 600 gr, s’est développé jusqu’à 1300 gr pour l’homme moderne. Cette interaction est toujours là et nous devons y être toujours continument sensibles. C’est au point de cette constatation qu’il faut prendre en compte l’affirmation de Ch. Salomon : « Les fluctuations du potentiel gravitationnel de notre planète Terre vont limiter la précision de la mesure du temps au sol à 10-18 – 10-19s »

Dans l’ordre des choses on peut envisager que sur le plan cérébral nous devons subir d’une façon ou d’une autre ces fluctuations du potentiel gravitationnel dont nous dépendons. Ceci devrait induire une difficulté intrinsèque en tant que lecteur d’un instrument de mesure d’intervalles de temps de plus en plus petits. L’être humain étant ce qu’il est, on peut considérer qu’il est capable de sublimer, voire transcender, au moins en partie cette détermination physique mais il devrait y avoir une conséquence résiduelle. Si elle existe on devrait buter sur celle-ci d’une façon ou d’une autre.

Mon hypothèse : TpS, n’est pas de même nature puisque je la qualifie d’existentielle. Quelle est la détermination qui s’impose l’une par rapport à l’autre ? Convergent-elles ? Si oui, il y aurait alors matière à réflexions.

Si ce que je viens de proposer est crédible il faut s’interroger sur le sens qu’aurait ce que l’on appelle le temps de Planck ainsi que la longueur de même nom, etc… Il m’est arrivé plusieurs fois de qualifier ces grandeurs comme des grandeurs hors-sol. Ici ce qualificatif est approprié au premier degré. Sans minimiser les facultés intellectuelles du sujet pensant, il n’est pas possible de le penser comme un intellectuel pur, ni comme un intellectuel borné (dans le sens où il aurait atteint les bornes de sa progression). A suivre...

Partager cet article
Repost0
30 juin 2016 4 30 /06 /juin /2016 09:49

Le modèle standard de la cosmologie en questions.

Il a suffi de quelques mois depuis le début de 2016 pour que soit sérieusement considéré un questionnement important et multiple qui remette en cause la conception dominante du modèle standard de la cosmologie.

Lorsqu’il fut publié, le 11/02/2016, la première détection d’ondes gravitationnelles sur les interféromètres Virgo, il fut en conséquence, en même temps, publié l’existence dans l’univers de trous noirs de tailles intermédiaires (quelques dizaines de masse solaire). C’était aussi une première ! Alors, il fut rapidement conjecturé que ces trous noirs pouvaient être des trous noirs primordiaux et qu’il y aurait une densité non négligeable de ces objets par unité de volume de l’univers tel que nous pensons le connaître. Si cette hypothèse est avérée cela signifie qu’un taux de détection de ces trous noirs peut être projeté. Cela signifie peut-être aussi que nous avons découvert une des composantes de la partie noire dans l’univers que nous avons dénommé jusqu’à présent matière noire et qui n’a jamais été détectée en tant que telle malgré plus de 30 années de recherche. Cette hypothèse s’est imposée rapidement en mars et des publications allant dans ce sens ont été soumises à la communauté scientifique.

Toutefois ces premiers articles sont peu précis car ils évoquent l’hypothèse que ces trous noirs primordiaux pourraient être cette matière noire jamais détectée mais ils maintiennent toujours l’idée de celle-ci dans sa constitution en particules élémentaires car elle est un pilier de la genèse du cosmos post big-bang avec l’hypothèse de la formation des puits de potentiel qui assurent la formation des grumeaux de la matière baryonique. Ainsi on peut lire : « Le spectre de ces masses, et donc les abondances de trous noirs primordiaux reliques dans l’univers, dépendent des conditions de la naissance du cosmos observable. Ce spectre reste inconnu mais des contraintes peuvent être posées, par exemple en étudiant les fluctuations du rayonnement fossile, les grandes structures formées par les amas de galaxies… et la matière noire. En effet, ces trous noirs primordiaux sont des candidats naturels pour expliquer l’existence d’au moins une partie (sic) de celle-ci puisqu’ils ne rayonnent pas. » Cette hypothèse des trous noirs est viable si leurs masses sont comprises entre environ dix et cent masses solaires, ce qui semble le cas. Au-delà de cent masses solaires on estime que l’on pourrait, et que l’on aurait déjà dû les détecter grâce à leurs effets lentilles gravitationnelles. Ce qui n’a jamais été le cas jusqu’à présent.

Le 15 juin il y eut une belle coïncidence, à la fois l’annonce d’une 2e détection de la coalescence de 2 trous noirs de l’ordre de dix masses solaires, ce qui va dans le sens de ce qui est écrit ci-dessus. Mais il y eut aussi la publication d’un article « Est-ce que le détecteur d’onde gravitationnelle a trouvé la matière noire ? », dans le ‘Physical Review letters’, présentée par 8 physiciens de l’université Johns Hopkins. Dans ce papier, d’après les calculs entrepris depuis février, ces chercheurs confirment que les objets détectés par Ligo cadrent par leurs masses à ce qui est attribué à celles des trous noirs primordiaux. « Il a été considéré que les trous noirs primordiaux se seraient formés, non pas à partir d’étoiles, mais par la fusion de larges nuages étendus de gaz pendant la naissance de l’univers. Cette idée avait été laissée de côté car aucune détection de ces objets n’avait confirmé cette hypothèse. La découverte de Ligo, replace dans l’actualité cette hypothèse. Spécialement puisque les objets détectés sont conformes à la masse prédite pour la matière noire. Prédictions faites dans le passé en accord avec les conditions à la naissance de l’univers et qui auraient prévues une grande quantité de ces trous noirs primordiaux régulièrement distribués dans l’univers, se regroupant en halos autour des galaxies. Tout ceci rend crédible l’hypothèse que nous tenons de bons candidats de la matière noire. » Ici, il est proposé que cette grande quantité de trous noirs se substitue à la totalité de cette fameuse hypothétique matière noire granulaire représentant 25,9% de ce qui compose l’univers. Cela est plus net que ce qui est suggéré dans l’article précédent que j’ai cité mais les physiciens prennent une précaution : « Nous ne proposons pas que ceci est la matière noire, nous n’allons pas parier notre maison sur ce sujet, ceci est avant tout un argument plausible. »

Comme on le constate les choses évoluent à tâtons, mais une fissure importante est ouverte dans le scénario prédominant, depuis quelques décennies, du Big-Bang et de la genèse de l’univers. Une autre fissure pas du tout négligeable est nouvellement constatée et auscultée, fissure provoquée par le constat que la vitesse d’expansion de l’univers ne serait pas celle établie par l’équipe du satellite Planck et publiée en janvier 2015, soit 68 km/s/Mpc. Précisons tout de suite que cette évaluation (Planck et précédemment par WMAP) correspond à une expansion après le Big-Bang. Au début juin, une publication très fiable rend compte que l’univers a une vitesse d’expansion de l’ordre de 5 à 9% plus grande que celle évaluée précédemment. Précisons tout de suite que cette nouvelle évaluation correspond à une mesure bien au-delà du Big-Bang. Etant donné que cette nouvelle évaluation est fiable, cette découverte constitue une indication sérieuse qu’il faut proposer un scénario par lequel un raccordement de ces deux vitesses d’expansion est plausible et vérifiable. Il est extrêmement probable qu’il faut réévaluer voire remettre en cause ces énigmatiques 95% de composants sombre de l’univers, soit la matière noire et l’énergie sombre.

La première possibilité pour expliquer cette nouvelle valeur de la vitesse d’expansion, est de considérer que l’énergie sombre, présentement considérée responsable de l’accélération de l’expansion, pousserez les galaxies les unes des autres avec une force plus grande ou croissante.

La deuxième possibilité est de considérer que le cosmos contient de fait une nouvelle particule subatomique dans sa genèse primordiale et qui se déplace à une vitesse voisine de celle de la lumière. De telles particules sont désignées comme des éléments de ‘radiation noire’ et incluraient par exemple les neutrinos (sic). Plus d’énergie provenant d’un supplément de radiation noire serait a priori le plus évident pour expliquer la moindre vitesse d’expansion au tout début de l’univers.

L’accroissement de l’accélération peut aussi signifier que la matière noire possède une étrange propriété totalement inattendue.

Finalement, la vitesse plus grande d’expansion de l’univers peut aussi nous dire que la théorie de la gravité d’Einstein est incomplète.

Revenons sur cette hypothèse de radiation noire et de sa source qui pourrait être un ou des neutrino(s) différent(s) de ceux déjà identifiés. Quelle est la phénoménologie que cela induirait ? La proposition provisoire consiste à considérer que de la masse piégée à la vitesse voisine de la lumière, véhiculée par exemple par le neutrino stérile, ce serait refroidie rapidement au début de l’expansion, perdant de l’énergie et donc perdant de l’influence attractive (n’oublions pas que dans la loi de la R.G. le tenseur qui représente l’intensité de la force de gravitation est le tenseur matière-énergie). Donc en prenant en compte ce supplément d’énergie variant (diminuant) au cours de l’univers primordial on prend en compte que l’attraction gravitationnelle perd de son intensité au cours de l’expansion primordiale. Le frein à cette expansion faibli. Avec ce scénario on peut valider les deux valeurs distinctes de la vitesse d’expansion, celles-ci se raccordant progressivement au cours de l’évolution du cosmos.

De plus le neutrino stérile pourrait avoir une utilité supplémentaire concernant une autre énigme à propos du déficit de la quantité du lithium observée dans le gaz primordial. Ce déficit n’est pas négligeable (de l’ordre d’un tiers manquant par rapport à la quantité normale prévue) et pour l’expliquer on formule l’hypothèse que l’action de ce neutrino stérile serait la cause de ce déficit. Je ne développe pas plus car ce n’est pas essentiel aujourd’hui.

Que penser de cette inclusion d’un ou des neutrinos pour expliquer cette différence de la vitesse d’expansion entre des périodes de l’évolution du cosmos ? On pourrait penser que c’est une explication opportuniste car les propriétés des neutrinos sont tellement mal connues que l’on peut les caser dans de nombreux scénarios qui comblent nos ignorances provisoires. Cela me conduit à rappeler que de tout temps je prétends qu’il faut penser en terme de la physique des neutrinos et non pas de propriétés physiques des neutrinos. Selon moi, les neutrinos sont les vecteurs d’une physique à découvrir, à comprendre, et non pas vecteurs de la physique du modèle standard. Cette conception alternative est exposée dès la présentation de mon blog le 8/10/2011.

Dans les explications récentes, il est supposé qu’un neutrino serait la source de la radiation noire, cela laisse entendre que celui-ci se déplacerait à une vitesse voisine de celle de la lumière sans pour autant la dépasser. Mon hypothèse est que les neutrinos ne sont pas contraints par la relativité restreinte, ils n’ont pas de masse d’inertie et le fait qu’ils sont des particules avec une masse mais sans charge les différencient des autres particules du modèle standard. Voir article du 14/10/2015 : ‘Nouveau prix Nobel pour les neutrinos.’

En résumé, le modèle standard de la cosmologie connaît depuis peu des fissures significatives et prometteuses qui vont nous conduire vers une révision profonde de celui-ci. Ce fameux big-bang va devenir de moins en moins justifié jusqu’à ce que l’on conçoive un univers bien plus vaste, plus multiple, et la physique à comprendre des neutrinos nous fournira des clés favorables à ce déploiement. Nous allons changer de cosmogonie, celle relative au modèle standard actuel s’est appuyée sur une origine. Nous allons la dissoudre et la projeter au-delà car l’être humain a toujours besoin d’une origine pour poser sa pensée afin qu’elle se déploie et fertilise de nouvelles hypothèses et de nouvelles conclusions jusqu’à ce qu’elles deviennent contradictoires et superflues.

Partager cet article
Repost0
21 juin 2016 2 21 /06 /juin /2016 12:19

Evolutions des connaissances ; évolution de l’humanité.

Dans l’article précédent, à propos de N. Gisin, il est intéressant de retenir qu’il y a de sa part une recommandation qui mérite toute notre attention : « Finalement, la physique – et la science en générale – est l’activité humaine qui a comme but de décrire et de comprendre comment la Nature fonctionne. Pour cette raison on a besoin de décrire comment les humains interagissent avec la nature, comment on questionne la nature. » Gisin renvoie à un ouvrage de Schrödinger de 1958 : ‘Esprit et Matière’ Cambridge Univ. Press. Cette référence nous indique que cette question est posée depuis longtemps (surtout depuis l’avènement de la mécanique quantique) mais sans aucun progrès utile, significatif. Je confirme que Gisin nous fait une recommandation sans toutefois s’atteler lui-même au problème. C’est en général le type de recommandation que l’on rencontre en fin d’article, ce qui ressemble à une ponctuation intellectuelle qui a vocation à interpeller le lecteur sans que cela engage l’auteur à entreprendre la tâche. Effectivement c’est un travail ardu et qui va à contre-courant du métier entendu habituellement du physicien considérant que muni de l’équipement mathématique le plus développé, il n’a pas besoin de se mettre en jeux en tant que sujet pensant. Tout au contraire, la croyance amplement partagée est celle d’une science physique, science objective, excluant qu’une moindre composante de subjectivité imprègne le contenu de ses lois.

Dans l’article du 18/03/2015 : ‘Décrypter la physique comme une science de l’interface de l’être humain et de la Nature’, j’ai voulu signifier qu’il était maintenant possible de concevoir que la dynamique de la connaissance en physique se nourrissait d’une confrontation évolutive causée par le besoin et le désir de savoir de l’être humain. C’est donc une distanciation que je propose. L’être humain est la cause, l’acteur, et la Nature est la source. Bien évidemment l’intelligibilité de cette interface ne peut pas nous apparaitre en temps réel. En l’occurrence cette intelligibilité ne peut nous apparaitre qu’à travers une analyse historique profonde qui intègre le processus de l’évolution de l’humanité au sein de la Nature pour survivre face à sa dureté, jusqu’à forger le projet de la dominer.

La paléoanthropologie est une science qui a atteint, maintenant, un tel niveau de développement et partant de maturité que l’on peut se référer à celle-ci, pour identifier des jalons solides contribuant à valider cette hypothèse d’interface. Majoritairement les paléoanthropologues sont d’accord pour constater que les ancêtres de Homo sapiens (hominines) sont ceux qui ont survécu aux changements climatiques, qui ont su s’adapter, ont su contrecarrer, contourner, les duretés de ces changements. Les premiers Homo surgissent quand les Australopithèques disparaissent et cela remonte autour d’il y a 2 millions d’années.

Dans l’article du 21/07/2015 : ‘La seconde naissance de l’homme’, nourri de l’ouvrage du même titre, publié en 2015, j’ai puisé des références qui me permettent d’étayer mon propos, notamment pour ce qui constitue, selon l’auteur, l’assimilation intellectuelle (sic) du temps et de l’espace à travers une évaluation de l’amplitude chronologique et spatiale nécessaire à l’accès aux proies ou aux cueillettes. C’est il y a de l’ordre de 2 millions d’années que ce processus d’assimilation intellectuelle a été identifié. Quel est donc le statut que l’on pourrait attribuer à ce qui ressemble à une conception première d’un marquage par les moyens d’une composante spatiale et d’une composante temporelle pour se situer et se projeter. Le caractère extrêmement utilitaire de ce processus, nous oblige à constater la prégnance de la subjectivité. Subjectivité difficile à spécifier car elle concerne les premiers Homos dont il est difficile d’évaluer comment et avec quelle intensité il se distingue de la nature en tant que sujet pensant embryonnaire. Je cite : « « Les temps paléolithiques, dont la très longue durée (quelques 2 500 000 ans) n’avait connu, en dépit de remarquables exemples d’adaptation aux contextes environnementaux, aucun affranchissement fondamental à l’égard de ceux-ci. L’homme ne pouvait jusque-là que négocier avec la nature et gérer au mieux les ressources que celle-ci lui proposait. Elle était dominante, lui dominé. »

La composante spatiale et la composante temporelle ainsi que la synthèse spatio-temporelle sont toujours pour nous des ingrédients fondamentaux qui contribuent à notre structuration intellectuelle et contribuent à mettre en ordre notre pensée scientifique. Toutefois, l’objectivation de l’espace et du temps est toujours insaisissable. Le sera-t-elle un jour ? Après tout, étant donné ce que nous disent les paléoanthropologues, est-ce une quête impossible voire erronée ? L’espace et le temps, l’espace-temps, sont tellement constitutifs de ce que nous sommes qu’il est vain voire absurde de vouloir les penser et a fortiori de les concevoir hors-de-soi. Privilégier la fondation du temps et de l’espace par le sujet pensant comme je le propose me semble l’hypothèse la mieux appropriée. Ceci n’a jamais été un principe, c’est de moins en moins un postulat et ce serait donc de plus en plus un fait.

Maintenant, je me réfère à un livre nouveau, mai 2016, « Origines de l’humanité : les nouveaux scénarios », édit : la ville brûle. Je ne peux que recommander de le lire, je vais surtout proposer d’attirer votre attention sur les questions qui concernent le rapport avec les objets de la nature, leur appropriation pour les façonner et tenter de décrypter l’évolution intellectuelle que cela suppose afin de s’émanciper de cette Nature.

Le chapitre : « Quels sont les liens entre évolution biologique et culturelle entre -2 et -0,2 millions d’années ? » :

p.105 : « les populations d’Homo erectus ont manifestement été capables de s’adapter à des environnements très différents dans toute l’Eurasie. Que nous apprennent ces traces archéologiques de leur mode de vie ? Elles nous apprennent que leur adaptation s’est probablement faite au départ sans aucune maîtrise du feu : aucune trace de maîtrise – voire même d’utilisation du feu – n’a été trouvée dans les gisements des sites les plus anciens. L’adaptation se fait avec des systèmes de production d’éclats de pierre très simples. Et il va se passer quelques centaines de milliers d’années avant d’arriver à un système plus complexe : la fabrication d’outils et de supports d’outils bifaciaux, qui marque l’entrée dans l’Acheuléen en Europe. (Les premiers bifaces sont vieux de près de 500 000 ans en Europe alors qu’ils sont vieux de près de 1,7 millions d’années en Afrique.) » Sur ce sujet de la taille volontaire de la pierre pour instrumentaliser celle-ci, je renvoie à la lecture de l’article du 10/10/ 2013 : ‘Comment nous sommes devenus avec/dans le langage’, qui cite un article précisant qu’il y aurait une concomitance sérieuse entre le début du développement du langage et la capacité à travailler le silex pour fabriquer des outils. Ceci a été confirmé dans une publication plus récente. Ce serait donc, grâce à l’intercession du besoin de façonner des objets de la nature immédiate que Homo Ergaster ce serait engagé dans la voie extraordinaire de l’être de langage. De là, tenter d’imaginer un parallélisme entre donner forme et volume à du silex et donner sens et volume aux sons qui sortent de la bouche, il y a, à coup sûr, bien des étapes à franchir au cas où cette thèse aurait du sens.

« Le feu serait réellement domestiqué et clairement imbriqué de manière récurrente dans le mode de vie des hommes à partir de -400 000 ans en Europe… Le feu et ses conséquences sur l’alimentation (cuisson potentielle des aliments, de la viande mais aussi d’un lot de tubercules par exemple) ont sans doute eu des répercussions sur l’évolution de l’Homme en ce sens que la viande cuite fournit davantage d’énergie et présente donc des avantages métaboliques… Il semble que la cuisson assure une plus grande diversité alimentaire, offre de nouvelles solutions pour conserver les aliments et épargne à l’organisme un coûteux travail digestif, ce qui pourrait constituer une coévolution entre les pratiques alimentaires et des traits biologiques comme le développement de l’encéphale. » Ainsi, comme il est précisé, p.114 : « L’encéphalisation, l’ontogenèse et la durée de l’immaturité des spécimens sont liées. Ainsi, en considérant que les fossiles d’Homo Dmanisi avaient une capacité crânienne de 650 cm3, les Homo erectus les plus récents étant plus jeunes d’un million d’années devaient avoir une capacité crânienne d’environ 1200 cm3. »

Parallèlement : « En ce qui concerne les traditions techniques, les outillages, il y a sur le temps long une tendance vers des formes moins aléatoires, plus standardisées ou stéréotypées, ou en tous cas pensées à l’avance (sic). De manière caricaturale, on va passer des traditions d’éclats et galets aménagés du monde Oldowayen (-2,6 et -1,8 millions d’années), où l’on recherche un tranchant et où chaque éclat est de forme relativement variable, au monde Acheuléen avec le biface, qui a une structure symétrique (déjà cette symétrie naturelle qui concentre et éveille la pensée) beaucoup plus complexe, qui est beaucoup plus difficile à confectionner et d’utilisation plus élaborée puisque certains bifaces sont pareils au principe des couteaux suisses et incluent plusieurs outils en un, certaines zones de l’objet pouvant servir à couper, d’autres à racler… »

« Du point de vue cérébrale, deux modifications se produisent, la partie gauche du cerveau n’est pas le reflet exacte de la partie droite… Les humains de cette période ont un cerveau qui devient disproportionné par rapport à la taille de leur corps. Il y a de plus en plus de matière cérébrale produite pour une taille corporelle qui reste à peu près équivalente à celle des prédécesseurs. »

Notre cerveau continue à évoluer, peut-être plus en ce qui concerne son volume sauf s’il y a encore des possibilités d’accroissement et d’approfondissement des plis au sein du cortex. L’évolution que l’on peut véritablement évoquer est celle qui correspond à la multiplication des connexions entre les neurones dont 1/3 des 60 milliards sont disponibles. Par exemple, grâce au développement de nos capacités techniques illustrées par notre capacité à réaliser des instruments de plus en plus ingénieux pour sonder notre Univers, il s’ensuit, grâce à cette conquête d’un au-delà toujours plus vaste, que notre potentiel intellectuel pour concevoir de prochains savoirs s’enrichit d’une façon que l’on peut qualifier d’exponentiel. On peut faire l’hypothèse que l’extension de notre filet intellectuel permet le développement de nos capacités d’inférer et cela prépare le terrain à de nouvelles conquêtes. Peut-être que dans 100 000 ans, ou avant, les paléoanthropologues de cette époque pourront mesurer cette (r)évolution.

Bien que j’utilise ce type de référence, qui sont les nôtres actuellement, je n’ai pas du tout la volonté de minimiser le processus bien plus terre à terre par lequel nos ancêtres se sont dégagés de l’emprise de la Nature et j’ai la conviction que ce serait une erreur cruciale car nous sommes dans cette lignée. Ainsi on peut lire p.142 : « Effectivement, les Hommes modernes du Paléolithique supérieur eurasiatique témoignent d’un tout autre rapport aux animaux et à la nature en général que leur prédécesseurs néanderthaliens. L’animal voit ses propres armes naturelles, les bois des cervidés en l’occurrence, se retourner contre lui. C’est en effet principalement aux dépens de bois de rennes que les aurignaciens et leurs successeurs du Paléolithique supérieur vont confectionner de redoutables pointes de sagaie, qu’ils pouvaient aussi armer de petits morceaux de silex standardisés pour augmenter le pouvoir pénétrant de ces armes. On saisit ici combien l’Homme se défait alors des griffes de la nature, s’en émancipe en la « dominant » de manière symbolique. »

Quand on sait que nous avons pu envoyer des satellites ou des sondes dans l’espace en sachant à la fois vaincre la gravitation naturelle de la terre et utiliser celle des autres objets célestes pour les projeter bien plus loin, ou les satelliser, on peut s’interroger si au bout du compte nous ne sommes pas toujours en cours d’exploiter le même paradigme ?

Il y a toujours des griffes de la nature qui nous enserrent. Nous nous libérons de leur étreinte quand nous levons le voile sur des nouvelles propriétés et lois physiques. Cette dynamique s’est engagée il y a 2 millions d’années. Ainsi, l’Être dans la Nature continue de consolider le socle qui favorise son surplomb et concomitamment l’Être de la Nature continue de perdre de son épaisseur et de sa prépondérance.

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens