Overblog
Suivre ce blog Administration + Créer mon blog
15 septembre 2017 5 15 /09 /septembre /2017 10:28

Découverte d’une ultime horloge interne élémentaire.

Cette découverte annoncée le 11 septembre, sur le site Phys.org, est intéressante parce qu’elle précise horloge interne, donc endogène à l’être humain. Le titre complet est : ‘Découverte d’une ‘horloge interne’ au sein d’une cellule vivante humaine’. Article complet ci-joint, en anglais, en dernière page.

Ci-joint je cite une partie de cet article, avec traduction, correspondant au propos que je souhaite développer présentement :

« It's long been established that the shape and size of the cell nucleus change dramatically during a cell's life. Unknown, however, was whether or not the nucleus changes its shape over short periods of time. This was largely due to technical limitations of carrying out such measurements in living cells.

The researchers discovered that the human cell nucleus has a previously undetected type of motion: its nuclear envelope flickers, or fluctuates, over a period of a few seconds. Notably, the amplitude of these changes in shape decreases over time during the cell cycle. Moreover, this motion marks the first physical feature that systematically changes with the cell cycle. Therefore, this process can serve as an internal clock of the cell,”

« Il est établi depuis longtemps que la forme et la taille du noyau de la cellule change radicalement pendant la durée de vie d’une cellule. Mais, était inconnu si oui ou non le noyau change sa forme pendant des courts intervalles de temps. Cette ignorance était largement due à cause de limitations techniques pour extraire de telles mesures de cellules vivantes.

Les chercheurs ont découvert que le noyau d’une cellule humaine a un type de mouvement auparavant indétectable : l’enveloppe de son noyau vacille, ou varie durant une période de quelques secondes. Notablement, l’amplitude de ces changements de forme diminuent avec le temps durant le cycle cellulaire. De plus, ce mouvement marque la première caractéristique physique qui change systématiquement avec le cycle cellulaire. En conséquence, ce processus peut servir d’horloge interne de la cellule… »

L’annonce de cet article et sa lecture m’ont conduit à consulter à nouveau le livre de A. Goldbeter : ‘La vie oscillatoire au cœur des rythmes du vivant’, 2010, O. Jacob, dont je me suis toujours étonné du peu d’écho réservé à ce livre, pourtant de très belle facture et riche d’informations scientifiques. Avant d’aller plus avant, je cite de ce livre un extrait page 29 : «… Le fait que des oscillations entretenues se produisent dans de telles conditions démontre la nature endogène du phénomène périodique… Les oscillations sont donc produites par le système lui-même et non par son environnement. Dans ce dernier cas, le rythme serait d’origine exogène. Savoir si l’origine des oscillations est endogène ou exogène est une question qui se pose chaque fois qu’un rythme est observé en biologie. Cette question s’avère fondamentale. En effet, il n’y a rien d’étonnant à ce qu’un système biologique se comporte de manière rythmique s’il est soumis à un environnement périodique. La question du mécanisme d’un tel rythme exogène ne se pose pas, l’origine du rythme étant évidente. Par contre, trouver l’origine d’un rythme endogène est chaque fois un défi, comme nous le verrons au fil des chapitres de ce livre. »

Dans cette dernière phrase se situe la jonction entre le livre et la teneur de l’article tout récent. De plus les chercheurs de l’université de New York ont mis en évidence une horloge interne des plus élémentaires en ce qui concerne le monde vivant et ceci ne peut que nous concerner. Etant donné mon vœu de décloisonner les connaissances et ses différentes sources je cite la quatrième de couverture du livre de Goldbeter pour vous donner envie de le lire ou de le relire : « L’auteur présente dans ce livre la première synthèse des connaissances sur les rythmes observés aux différents niveaux de l’organisation biologique et médicale… De l’horloge qui contrôle le cycle de division cellulaire (sic) jusqu’aux oscillations qui assurent le succès de la fécondation et du développement embryonnaire[1]. Du cerveau qui produit des rythmes neuronaux (voir le livre tout récent de D. Buonomano) et sécrète des hormones de manière pulsatile jusqu’aux troubles bipolaires… Par-delà les différences de mécanisme et de période l’auteur met en lumière la profonde unité des rythmes du vivant. »

A propos des rythmes du vivant un autre résultat très significatif nous a été fourni par S. Dehaene : le cerveau ne perçoit pas instantanément les événements du monde extérieur. Il lui faut au moins 1/3 de seconde, et souvent bien plus, avant qu’une information sensorielle élémentaire accède à la conscience. Voilà une nouvelle scansion factuelle, au plus haut niveau du vivant, celui du cérébral, qui nous dit qu’il y a comme un battement d’horloge endogène à l’œuvre rythmant le processus de la prise de conscience effective d’une image ou encore d’un concept. (Voir articles du 14/10/2014 et du26/05/2015). Des horloges endogènes habitent l’être humain du niveau le plus élémentaire de ce qui fait de lui un être vivant au niveau le plus élaboré qui fait de lui un être vivant, conscient, pensant. Alors pourquoi ne pas considérer que l’être humain serait le fondateur du temps, et que le temps serait inhérent à l’homme ?  C’est l’hypothèse que je fais depuis longtemps, mais celle-ci provoque une telle rupture avec ce qui est communément pensé par les physiciens que même une articulation objective entre les connaissances de différents domaines scientifiques comme je le propose dans cet article ne saurait suffire à provoquer une volonté de concevoir les choses autrement.

Une des conséquences de l’hypothèse d’une scansion endogène du temps chez l’être humain c’est qu’il y aurait un point aveugle de l’intelligence humaine, ce point aveugle aurait une durée correspondant à l’intervalle de temps entre deux battements de la scansion que j’ai estimé de l’ordre de 10-25s et que je désigne :  Temps propre du ‘Sujet Pensant’ (TpS). Il serait quand même difficile de postuler que le fonctionnement par intermittence avérée de la conscience du ‘sujet pensant’ conduise, malgré tout, à un fonctionnement intellectuel, observationnel, absolument continu du sujet. Si en l’occurrence mon hypothèse (TpS) se vérifiait alors… ce serait un chamboulement copernicien à l’envers. Je l’ai rappelé dans l’article du 09/09 à propos de l’impossibilité d’attribuer une dimension à l’élémentaire électron, et il se trouve que l’’internationale conférence on high energie physics (ICHEP)’, aura lieu à partir du 21 septembre, et généralement bien avant, il y a des rumeurs sur les nouveautés qui seront présentées. Jusqu’à présent aucune rumeur dans l’air. Est-ce que, comme l’an passé, ce sera la morosité, la déception, à cause de l’absence d’annonce significative qui serait en perspective ? Dans l’article du 10/08/2016, concernant la précédente ‘ICHEP’ à Chicago, j’avais évoqué l’idée, étant donné les niveaux d’énergie en jeux au LHC, que nous étions à la limite de ce TpS. Si cette année le même black-out se renouvelle, il faudra qu’une prise de conscience s’installe. Je n’affirme pas que mon hypothèse est définitivement la bonne hypothèse mais il faudra bien qu’elle soit prise en compte.

Considérer que l’être humain soit contraint dans son fonctionnement intellectuel par une détermination, telle que TpS, annule d’une façon rédhibitoire toute faculté de transcendance, d’atteindre la compréhension et l’expression des lois universelles de la nature. L’activité de penser subirait l’effet d’une contrainte qui serait indépassable. Hypothèse extrêmement difficile à prendre en compte, surtout pour les physiciens qui seraient a priori directement affectés, limités dans leur faculté d’ausculter la Nature, plus avant. Sauf que s’ils découvrent que cette situation est, est un fait déductible devenant mesurable et objectif, alors cela deviendra une connaissance, cela indiquera la voie du dépassement.

Ces vingt dernières années les physiciens théoriciens ont été très actifs pour organiser des conférences réunissant philosophes et physiciens, conscients qu’ils devaient peut-être dialoguer avec d’autres catégories d’intellectuelles que ceux qui creusent dans le même domaine de connaissance. Je n’ai jamais eu l’occasion d’entrevoir le moindre jaillissement d’une idée nouvelle de ce type de confrontation pour la simple raison qu’il n’y avait jamais de confrontation mais des additions, des juxtapositions passives, de ce que chacun des intervenants pensait dans son domaine. Comme si le savoir des philosophes et celui des physiciens ne pouvaient se rencontrer et s’éclairer. Pour illustrer mon propos je prends l’exemple d’un livre publié en 2008 : ‘On space and Time’ de Cambridge University Press, qui réunissait les spécialistes les plus pointus et reconnus dans leur domaine : deux mathématiciens, un philosophe, un physicien théoricien, un théologien, un astrophysicien. Lorsque j’ai tourné la dernière page j’ai constaté n’avoir rien appris de nouveau.

Je profite de l’occasion pour citer un livre d’un auteur : un philosophe, Francis Kaplan qui a publié en solo en 2004 le titre : ‘L’irréalité du temps et de l’espace’, édit. Du Cerf. Je n’ai pas souvenir qu’il fut une référence, dommage car avec sa compétence de philosophe l’auteur développa un travail très sérieux que les physiciens théoriciens devraient lire s’ils ne l’ont pas encore fait. Effectivement je partage le constat de l’irréalité de l’espace et du temps, toutefois je veux préciser que selon mon hypothèse l’espace et le temps ne sont pas donnés dans la Nature (= irréalité), mais fondés par l’être humain (vecteur d’une horloge endogène), en ce sens selon les réalistes ils sont irréels, mais selon moi la réalité de la ‘Présence’ du sujet réflexif est une vérité première, une réalité première, indubitable, qui ne peut être gommée, sinon il n’y a pas de science physique pensée possible. Je livre ci-dessous quelques réflexions de l’auteur qui sont exposées en quatrième de couverture :

« La mécanique quantique, la cosmologie et la simple expérience psychologique semblent nous faire aller plus loin et nous faire accéder à une réalité non temporelle (qui ne s’inscrit pas dans le temps) et non spatiale, mais là encore, d’une manière ambiguë et seulement négative. Si alors, au lieu d’interroger la réalité, nous interrogeons le temps et l’espace eux-mêmes, nous constatons qu’ils sont essentiellement subjectifs comme le sont les sensations, c’est-à-dire qu’ils ne sont pas plus l’image de la réalité que la sensation du rouge produite par un coquelicot n’est l’image du coquelicot réel. Il est vrai qu’à la sensation du rouge correspond une onde électromagnétique. Quelque chose dans la réalité correspond nécessairement au temps et à l’espace, mais tandis que nous connaissons ce qui correspond dans celle-ci aux sensations, nous ne pouvons le faire en ce qui les concerne, faute d’un accès positif à une réalité absolument non temporelle et non spatiale. Ce qui nous oblige à vivre en double registre – sur le mode de la réalité du temps et de l’espace et sur le mode de leur irréalité. »

J’ai déjà indiqué comment on peut sortir de l’ambiguïté du double registre. Si TpS est une bonne hypothèse, il authentifie l’hypothèse de la ‘Présence’ en surplomb du ‘Sujet Pensant’ donc l’hypothèse du maintenant présent, de l’instant présent, source du Tic-Tac primordiale qui scande le temps fondé par l’être humain. Cette hypothèse avec ses conséquences est exactement à contre-pied des réalistes avec comme chef de file : A. Einstein car selon lui, il n’y a pas de maintenant : « Pour nous physiciens, la séparation entre passé, présent et avenir, ne garde que la valeur d’une illusion, si tenace soit-elle… La physique ne connaît que des différentes valeurs du temps, elle n’a pas d’expression ni pour ce qui est maintenant, ni pour ce qui est passé, ni pour ce qui est à venir… Le maintenant est éliminé de la construction conceptuelle du monde objectif et s’il n’y a pas de maintenant, le temps n’existe pas réellement. » Cette certitude Einsteinienne résulte de la conception d’un univers-bloc qui émerge de la loi de la relativité générale. Récemment deux physiciens : L. Smolin et N. Gisin ont intuité que cela mené la pensée des physiciens dans une impasse aveuglante. Mais comme je l’ai indiqué, ils n’ont pas pu franchir le Rubicon. Aujourd’hui encore si on ne se dit pas disciple d’Einstein, on ne peut exister comme physicien.

 

‘Researchers find 'internal clock' within live human cells. 11 September 2017

A team of scientists has revealed an internal clock within live human cells, a finding that creates new opportunities for understanding the building blocks of life and the onset of disease.

"Previously, a precise point of a cell in its life cycle could only be determined by studying dead cells," explains Alexandra Zidovska, an assistant professor of physics at New York University and the senior author of research, which appears in the latest issue of the journal Proceedings of the National Academy of Sciences (PNAS). "However, with this discovery, which shows that the nucleus exhibits rapid fluctuations that decrease during the life cycle of the cell, we can enhance our knowledge of both healthy and diseased human cells."

The study, which also included Fang-Yi Chu, an NYU doctoral candidate, and Shannon Haley, an NYU undergraduate, sought to expand our understanding of the cell nucleus during the cell cycle.

It's long been established that the shape and size of the cell nucleus change dramatically during a cell's life. Unknown, however, was whether or not the nucleus changes its shape over short periods of time. This was largely due to technical limitations of carrying out such measurements in living cells.

To capture this dynamic, the scientists used a state of-the-art fluorescent microscope that enables them to see extremely small and very fast shape changes of the cell nucleus in living cells.

The researchers discovered that the human cell nucleus has a previously undetected type of motion: its nuclear envelope flickers, or fluctuates, over a period of a few seconds. Notably, the amplitude of these changes in shape decreases over time during the cell cycle. Moreover, this motion marks the first physical feature that systematically changes with the cell cycle.

"Therefore, this process can serve as an internal clock of the cell, telling you at what stage in the cell cycle the cell is," explains Zidovska. "We know that structural and functional errors of the nuclear envelope lead to a large number of developmental and inherited disorders, such as cardiomyopathy, muscular dystrophy, and cancer. Illuminating the mechanics of nuclear shape fluctuations might contribute to efforts to understand the nuclear envelope in health and disease."

  More information: Fang-Yi Chu el al., "On the origin of shape fluctuations of the cell nucleus," PNAS (2017). www.pnas.org/cgi/doi/10.1073/pnas.1702226114

  Provided by New York University

APA citation: Researchers find 'internal clock' within live human cells (2017, September 11) retrieved 12 September 2017 from https://phys.org/news/2017-09-internal-clock-human-cells.html

 

[1] Page 241 : « L’un des plus beaux exemples de rythme cellulaire récemment découvert est celui de l’horloge de segmentation qui contrôle l’expression périodique de gènes impliqués dans la somitogenèse, c’est-à-dire la formation des somites (unité anatomique de certains animaux), précurseurs des vertèbres. Ce processus représente un exemple d’émergence d’une structure périodique au cours de l’embryogenèse. La structuration spatiale du corps chez les vertébrés est ainsi liée de manière étroite à l’existence d’une structuration temporelle. Elle marque en quelque sorte la trace spatiale de cette structuration dans le temps. (A titre personnel, je trouve que c’est émouvant tellement c’est merveilleux)

Partager cet article

Repost0
9 septembre 2017 6 09 /09 /septembre /2017 16:45

Enigme sur l’élémentaire !

            Aussi étrange que cela puisse paraître, un nouveau questionnement semble s’imposer à propos d’un objet physique si prépondérant et si ausculté, donc si bien connu, que serait l’électron. En fait le questionnement a toute son ampleur à propos des leptons dont fait partie l’électron (e-) en tant que particule de matière chargée en compagnie du muon (µ-) et du tau (τ-) dont l’antiparticule respective à chacun d’entre eux a une charge positive. Ce questionnement me convient car les trois autres leptons sont les neutrinos avec des saveurs attachées dont j’ai la conviction que l’on ne doit pas corseter leurs propriétés physiques dans le cadre du modèle standard de la physique des particules élémentaires.

            Deux articles ont été publiés, il y a quelques jours :

Dans le NewScientist (NS), ci-joint en fin d’article : ‘What if the diminutive electron isn’t as small as it gets ?’ ; ‘Quoi, si le minuscule électron n’est pas si petit qu’il ne le paraît ?’

Sur le site du ‘Pour la Science’ : (PlS), du 04/09, ci-joint en fin d’article : ‘L’électron défie-t-il le modèle standard ?

Dans le NS, il est dit : “As far as we can tell, electrons are points with precisely zero size that obey the strange rules of the quantum world. One of these particles can influence another through a spooky property called entanglement, for example. Electrons can also tunnel from one place to another without existing in between”. Soit plus particulièrement : « … les électrons sont des points avec une dimension précisément égale à zéro qui obéit aux lois étranges du monde quantique… » Il n’est pas cohérent d’affirmer que l’électron a une dimension égale à zéro, sans être alerté par ce propos. Effectivement l’électron ne peut pas être de dimension égale à zéro car dans ce cas, physiquement il ne serait rien. Il est par contre possible de dire : il nous apparaît comme étant strictement ponctuel mais cela est dû à nos limites de détection, de perception. La dernière fois que j’ai lu une estimation de la dimension d’un électron (il y a 10 ans) c’était 10-18m, soit mille fois plus petit que le proton = 1 fermi. De fait il nous est impossible d’évaluer sa dimension comme je l’ai déjà indiqué car selon mon hypothèse nous sommes limités par un point aveugle TpS, soit 10-18m / C = de l’ordre de 10-26s.

Pour l’auteur de NS il y a interrogation sur le fait que l’électron a deux frères plus lourds. Pourquoi ? Depuis des décennies les physiciens n’ont pas de réponses. Si les anomalies décelées par plusieurs accélérateurs de particules sont prises en compte il devrait y avoir un monde bourdonnant sous la surface de l’électron (sic) – dans ce cas cela nous forcerait à repenser toute la structure constitutive fondamentale de la matière.

Analysons l’autre article publié en français et tentons de retenir l’essentiel de ce qui est annoncé : L’électron défie-t-il le modèle standard ?

« Des indices provenant de trois expériences différentes suggèrent que les électrons et d'autres particules de la même famille violent certaines règles du modèle standard de la physique des particules (sic). Le problème viendrait des électrons (mc2 = 0.5 MeV, on dit couramment et par extrapolation de masse : 0.5MeV, alors que m = 0,911×10-27g) et de ses cousins plus massifs, les muons (105 MeV) et les leptons tau (1776 MeV). D'après le modèle standard, ces trois particules devraient se comporter comme un triplet de particules identiques ne différant que par la masse. Or trois expériences indépendantes ont mis en évidence des indices que ces particules se comportent différemment en raison d’une influence qui reste encore inconnue. Ces conclusions ne sont pas certaines, mais si elles sont confirmées, « cela serait une révolution », explique Mark Wise, de l’institut de technologie de Californie.

La première surprise venant des leptons est apparue dans les résultats obtenus en 2012 par l’expérience BaBar du Centre de l'accélérateur linéaire de Standford (SLAC) en Californie. L'expérience BaBar accélère et fait entrer en collision des électrons avec leurs antiparticules, les positrons. Ces collisions produisent un grand nombre de particules composites, très lourdes mais très instables : elles durent quelques fractions de nanosecondes avant de se décomposer en particules plus petites, et ainsi de suite. Les particules finales sont observées par les détecteurs, ce qui permet aux scientifiques de reconstruire toute la chaîne de désintégration des particules et de remonter aux particules initiales. Si le modèle standard est juste, deux chaînes de désintégrations observées par BaBar devraient produire des particules tau à hauteur de 25 à 30 % du nombre d'électrons, car ces derniers sont plus légers et donc plus faciles à produire. Mais ce n’est pas ce que l’équipe a observé. Les taus étaient beaucoup plus nombreux que prévu, ce qui sous-entend l'existence d'une différence, autre que la masse (sic), entre les leptons taus et les électrons.

Si les différents leptons interagissent vraiment de façon différente, la seule explication serait l’existence d’une force jusqu’ici inconnue. Dans le cadre du modèle standard, les particules massives se désintègrent en leptons (et autres particules) sous l’action de la force faible, cette même force qui est à l’origine de certaines désintégrations radioactives. Mais la force faible agit de la même façon sur tous les leptons. Ainsi, si l’on obtient plus de leptons taus ou muons par rapport à ce que la force faible devrait produire, c’est qu’une autre force inconnue, associée à une particule médiatrice encore inconnue, doit expliquer la désintégration des particules massives de façon à favoriser les particules tau et muons. Prouver l’existence d’une telle force serait une découverte aussi fondamentale que celle de l’électromagnétisme, même si les conséquences sur notre vie quotidienne seraient bien moins importantes. « Cela constituerait clairement, en exagérant à peine, une révolution de la physique », explique Hassan Jawahery, physicien de l’université du Maryland, aux Etats-Unis, et membre de la collaboration LHCb. »

Ces résultats qui interpellent, à juste raison, devraient être aussi questionnés à partir de la connaissance que nous avons des processus de désintégrations des cousins de l’électron, processus qui font intervenir les neutrinos et c’est peut-être à ce niveau que se situe l’étrangeté qui se révèle. En effet voici les différents canaux possibles des désintégrations :

  1.     τ-  →  µ- + anti νµ + ντ    ou 2)  τ-  →  e- + anti νe + ντ
  2.     µ-  e- + anti νe + νµ

La durée de vie moyenne du tau = 290×10-15s et celle du muon = 2×10-6s. Les désintégrations 1) et 2) sont presque équiprobables moyennant un faible écart : 1) = 17,39% et 2) = 17,82% car le muon est plus lourd que l’électron. La désintégration 3) est quasi 100%.

            Or ce que nous connaissons des neutrinos est très limité voire biaisé parce que jusqu’à présent on a voulu définir leurs propriétés physiques dans le cadre du modèle standard, ce qui est à mon sens une erreur, notamment en ce qui concerne la nature de leur masse respective avec le postulat que celle-ci serait encapsulée par la relation E = mc2 (voir introduction du blog). En effet la relation concerne la masse d’inertie, or, il n’est pas possible de qualifier celle des neutrinos comme telle, pas plus évidemment d’un point de vue gravitationnelle.

            A partir de ces considérations, il est compréhensible que ce soit l’ensemble de la famille des leptons qui soit affecté par ce type de postulat erroné. Partant, c’est l’ensemble de l’édifice des particules de matière auquel appartient les leptons qui devra être reconsidéré. Dans les deux articles l’accent est mis sur le fait que l’électron, la particule la plus stable, la plus commune, la mieux connue…? serait intrinsèquement concernée, renforce selon les auteurs l’étrangeté et le caractère inattendu d’une remise en question. Cela est dû au fait que les physiciens ont en général besoin de stabilité théorique pour prolonger le chemin de leurs découvertes, bien qu’ils sachent que cette stabilité est construite, si elle fertilise en partie, ils n’ont plus l’intention de repenser en arrière le bien-fondé du caractère construit. Il me semble que la physique des neutrinos ne doit pas être réduite aux propriétés physiques des neutrinos pensées dans le cadre du modèle standard, ce qui est pourtant toujours le cas présentement. Affaire à suivre puisqu’il y a du chambardement annoncé dans l’air.   

(Article du NewScientist)What if the diminutive electron isn’t as small as it gets?

We thought electrons and their two mysterious siblings were fundamental particles. Now there are hints that we need to go smaller still to understand matter.

ONE in three people reading these words will do so on a device powered by electrons. To make that possible, we go to incredible lengths: generating electrons in vast power stations, stringing cables across the countryside to bear them to us, and installing sockets in the walls of every room. In short, we depend on them – which makes it a shade embarrassing that we don’t fully grasp what they are.

It’s not just that our best theories paint a strange picture of their nature, although that is true. As far as we can tell, electrons are points with precisely zero size that obey the strange rules of the quantum world. One of these particles can influence another through a spooky property called entanglement, for example. Electrons can also tunnel from one place to another without existing in between.

What is the universe made of? Learn more about particle physics in our expert talk at New Scientist Live in London

But the truly inexplicable thing about the electron is that it has two heavier siblings. The universe would tick along fine without these particles, which never hang around long anyway. So why do they exist? And why are there three siblings, not four or 104?

For decades, physicists have had no answer to these questions, but at last we may be edging towards an understanding. If anomalies at particle accelerators across the globe are to be believed, there may be a hidden world buzzing beneath the surface of the electron – one that would force us to rethink all the fundamental building blocks of matter.

The electron was our first…”

L’électron défie-t-il le modèle standard ? (Article de ‘Pour la Science’)

Des indices provenant de trois expériences différentes suggèrent que les électrons et d'autres particules de la même famille violent certaines règles du modèle standard de la physique des particules. 

Depuis des décennies, les physiciens cherchent des signes de comportements étranges chez certaines particules, qui trahiraient des failles subtiles dans le modèle standard de la physique des particules, la théorie dominante décrivant les éléments fondamentaux de l’Univers. Même si l’accord remarquable du modèle standard avec les observations n’est plus à prouver, les scientifiques savent depuis longtemps que des ajustements seront nécessaires. Dans un article publié dans la revue Nature, les chercheurs rapportent des observations qui semblent défier la théorie, mais ces comportements anormaux ne sont pas tout à fait ceux auxquels s’attendaient les théoriciens.

Le problème viendrait des électrons et de leurs cousins plus massifs, les muons et les leptons tau. D'après le modèle standard, ces trois particules devraient se comporter comme un triplet de particules identiques ne différant que par la masse. Or trois expériences indépendantes ont mis en évidence des indices que ces particules se comportent différemment en raison d’une influence qui reste encore inconnue. Ces conclusions ne sont pas certaines, mais si elles sont confirmées, « cela serait une révolution », explique Mark Wise, de l’institut de technologie de Californie.

Des signes alléchants 

Un bouleversement dans le modèle standard serait un événement spectaculaire. Cette théorie est la matrice de la recherche en physique des particules depuis son développement durant la seconde moitié du XXe siècle. Elle décrit l’Univers avec seulement douze particules élémentaires qui forment toute la matière, plus des particules médiatrices des quatre forces fondamentales de la nature (par exemple, la force électromagéntique correspond à un échange de photons). Malgré son succès, cependant, le modèle standard échoue à expliquer la gravitation ou la matière noire (qui représente 25 % du contenu de l’Univers). Pour concilier la physique des particules avec ces observations à grande échelle, les théoriciens ont proposé toutes sortes de « nouvelles physiques » – des théories qui ajoutent des particules ou des forces au zoo du modèle standard. Mais pour l’instant, la plupart des expériences concordent avec les prédictions du modèle standard avec une précision impressionnante et aucun indice de ces hypothétiques particules ou forces n’a pu être mis en évidence.

Cependant, depuis 2012, des signes de comportements anormaux de certaines particules ont commencé à émerger d'une partie moins étudiée du modèle standard surnommée « l’universalité leptonique ». Les leptons sont une classe de particules de moment angulaire intrinsèque (ou spin) 1/2 et non sensibles à l'interaction forte, qui comprend les électrons, les muons et les leptons tau (ou tauons). Selon le modèle standard, ces trois espèces devraient interagir de la même façon entre-elles et avec les autres particules à l'exception des différences attribuables à leurs masses distinctes. Cette similitude correspond à l’universalité leptonique.

La première surprise venant des leptons est apparue dans les résultats obtenus en 2012 par l’expérience BaBar du Centre de l'accélérateur linéaire de Standford (SLAC) en Californie. L'expérience BaBar accélère et fait entrer en collision des électrons avec leurs antiparticules, les positrons. Ces collisions produisent un grand nombre de particules composites, très lourdes mais très instables : elles durent quelques fractions de nanosecondes avant de se décomposer en particules plus petites, et ainsi de suite. Les particules finales sont observées par les détecteurs, ce qui permet aux scientifiques de reconstruire toute la chaîne de désintégration des particules et de remonter aux particules initiales. Si le modèle standard est juste, deux chaînes de désintégrations observées par BaBar devraient produire des particules tau à hauteur de 25 à 30 % du nombre d'électrons, car ces derniers sont plus légers et donc plus faciles à produire. Mais ce n’est pas ce que l’équipe a observé. Les tauons étaient beaucoup plus nombreux que prévu, ce qui sous-entend l'existence d'une différence, autre que la masse, entre les leptons taus et les électrons.

Les résultats de l’expérience BaBar n’étaient qu’un début. Deux autres expériences, LHCb au LHC en Suisse, et Belle, au Japon, ont étudié les mêmes chaînes de désintégration et ont obtenu des résultats similaires en 2015. Belle, comme BaBar, scrute des collisions d’électrons et de positrons. Mais l'expérience LHCb observe des collisions protons-protons à des énergies plus élevées, avec d’autres méthodes de détection. Ces différences dans les dispositifs rendent moins probable que les résultats ne soient que le fruit d’erreurs expérimentales, étayant ainsi la possibilité que cette anomalie soit bien réelle.

En outre, l’expérience LHCb avait aussi mis en lumière des indices de la violation de l’universalité leptonique lors de l’étude d’une autre chaîne de désintégration produisant des leptons. Et il y a quelques mois,, l'équuipe a annoncé avoir mesuré des anomalies potentielles dans  une quatrième chaîne de désintégration. Une disparité similaire entre les électrons et cette fois-ci les muons a également été découverte le mois dernier. Tous ces indices démontrent que quelque chose ne tourne pas rond dans le modèle actuel. « Si ces déviations se confirment », explique Michael Roney, porte-parole de l’expérience BaBar et professeur à l’université de Victoria, « cela serait très étrange qu’elles ne soient pas liées entre elles. » 

Une révolution... si les faits sont avérés

Si les différents leptons interagissent vraiment de façon différente, la seule explication serait l’existence d’une force jusqu’ici inconnue. Dans le cadre du modèle standard, les particules massives se désintègrent en leptons (et autres particules) sous l’action de la force faible, cette même force qui est à l’origine de certaines désintégrations radioactives. Mais la force faible agit de la même façon sur tous les leptons. Ainsi, si l’on obtient plus de leptons taus par rapport à ce que la force faible devrait produire, c’est qu’une autre force inconnue, associée à une particule médiatrice encore inconnue, doit expliquer la désintégration des particules massives de façon à favoriser les particules tau. Prouver l’existence d’une telle force serait une découverte aussi fondamentale que celle de l’électromagnétisme, même si les conséquences sur notre vie quotidienne seraient bien moins importantes. « Cela constituerait clairement, en exagérant à peine, une révolution de la physique », explique Hassan Jawahery, physicien de l’université du Maryland, aux Etats-Unis, et membre de la collaboration LHCb.

Les enjeux sont si importants que les physiciens réclament des preuves irréfutables – et ceux qui réalisent les expériences en ont pleinement conscience. Greg Ciezark, auteur principal de l’article paru dans Nature et post-doctorant à l’institut national Nikhef de physique subatomique, à Amsterdam, précise que les violations de l’universalité « font partie des affirmations extraordinaires », ce qui implique, selon l’adage, des preuves extraordinaires. Pour l’instant, Michael Roney résume bien le scepticisme ambiant : « on ne parie pas contre le modèle standard. »

Aujourd’hui, les indices commencent à devenir consistants. Quand on combine toutes les données, la probabilité que les déviations dans la production de particules taus et d’électrons soient uniquement dues au hasard est d’environ un pour 10 000. Pour n’importe quelle question de la vie quotidienne, cela serait plus que suffisant. Mais les physiciens des particules aiment être très prudents : ils ne considèrent une découverte comme confirmée que s'il y a moins d'une chance sur 3,5 millions que ce soit une fausse alerte. Comme certains scientifiques « expérimentés » peuvent en témoigner, ils se sont déjà fait avoir plusieurs fois, explique Zoltan Ligeti, professeur en physique théorique au laboratoire américain Lawrence Berkeley : « nous avons déjà observé des fluctuations similaires apparaître puis s'évanouir par le passé ».

Cette découverte est d’autant plus étonnante que l’universalité leptonique n’est absolument pas le secteur du modèle standard où les scientifiques s’attendaient à trouver des failles. « Il y a une sorte de fil conducteur auquel les théoriciens se rattachent », explique Mark Wise, et « ceci ne fait pas partie du déroulement anticipé ». Pire encore, les explications proposées pour le comportement des leptons semblent ad hoc et peu satisfaisantes. « À première vue, le type de modèle qui peut reproduire les anomalies n’explique... rien d’autre », précise Zoltan Ligeti. « Par exemple, il ne nous aidera pas à comprendre ce que peut être la matière noire. »

Il ajoute cependant que « c’est la nature qui nous dit ce qu’elle est ». Faire des expériences est donc la clé. Les physiciens observent de plus en plus d’indices de violations au sein du modèle standard et proposent de nouvelles explications. Les expérimentateurs, mais aussi les théoriciens, essaient aussi de réduire les incertitudes qui existent encore dans les différentes mesures. Il faudra probablement attendre les nouvelles données de l’expérience LHCb et celles de la version améliorée de l’expérience Belle. Les physiciens sont optimistes et pensent que d'ici cinq ans environ, nous saurons si l’effet observé est réel et nous connaîtrons son origine. « S’il existe une nouvelle particule médiatrice », explique Svjetlana Fajfer, une théoricienne de l’université de Ljubljana en Slovénie, « elle devrait avoir une masse à la portée du LHC ». En d’autres termes, l’accélérateur de particules devrait être capable de produire cette particule et de l’identifier. Pour beaucoup de physiciens, la possibilité de tester cette idée est séduisante. « Cela rend la chose très excitante. Si je fais quelque chose, cela pourra être confirmé ou réfuté. Dans un sens comme dans l’autre, l’affaire sera close », conclut Zoltan Lige

 

 

 

 

Voir les commentaires

Partager cet article

Repost0
6 septembre 2017 3 06 /09 /septembre /2017 14:57

L’intrication : conséquence de notre incapacité d’abandonner la théorie classique ?

Le titre de l’article que je propose correspond à une modification du titre de l’article publié le 1e septembre sur le site Phys.Org, ci-joint en original à la fin. En effet originalement : « Entanglement is an enivetable feature of reality. », soit : « L’intrication est une propriété inévitable de la réalité. » A part le fait que les auteurs indiquent clairement que leur référence d’évaluation est la réalité comme si cela ne pouvait pas être un leurre pour les physiciens, je propose d’indiquer ci-après ce qui dans cet article éveille mon intérêt.

« Traditionnellement nous étudions comment le monde classique émerge à partir du monde quantique (c’est couramment juste), mais, dans l’article, nous présentons le renversement de ce raisonnement pour observer comment le monde classique forme (conditionne) le monde quantique. En procédant ainsi nous montrons qu’une de ses propriétés étranges : l’intrication, n’est pas du tout surprenante. Ceci montre que ce qui fait l’étrangeté apparente de la théorie quantique est une conséquence inévitable de penser au-delà de la théorie classique, ou peut-être même une conséquence de notre incapacité à abandonner la théorie classique. »

Il est utile de rappeler que la thèse énoncée : notre incapacité à abandonner la théorie classique, a été dès le début de l’avènement de la mécanique quantique explicitée par N. Bohr (1937), : « Il importe de façon décisive de reconnaître que, d’aussi loin que les phénomènes puissent transcender le domaine de l’explication physique classique, la description de tous les résultats d’expérience doit être exprimée en termes classiques. » Ce point de vue caractérise l’école de Copenhague (Heisenberg, Born, etc…) mais hérisse les réalistes avec Einstein comme chef de fil. Personnellement, j’insisterai sur l’affirmation de Bohr en énonçant : « la description de tous les résultats d’expérience ne peut être exprimée, présentement, qu’en termes classiques. »

Présentement le fait que l’un des auteurs de l’article : Jonathan Richens, émette l’hypothèse qu’après tout nous serions incapables d’abandonner la théorie classique, la conception classique, c’est-à-dire la pensée qui a comme référence encore incontournable du monde classique, me convient très bien. En effet dans l’article du 29/08, j’ai à pas compté proposé d’expliquer pourquoi jusqu’à présent nous ne pouvons pas penser les phénomènes quantiques, notamment l’intrication, autrement qu’en se référant au schéma de la physique classique. A pas compté parce que ma proposition peut être jugée a priori scandaleuse (ce qui est spontanément, de fait, mon cas) puisqu’elle rabat la faculté de la pensée humaine et particulièrement celle du physicien sur des déterminations qui le rende sur le plan intellectuel partiellement aveugle. Même si je prétends que cette détermination sera transcendée : « Non, on ne pense pas quantique. Pas encore ! », voir article du 26/09/2015, cela n’allège pas le poids du rejet d’une telle assertion bien qu’elle s’appuie sur la prise en compte du processus reconnu de l’évolution naturelle par laquelle l’être humain a été façonné.

Dans une certaine mesure, lorsque par un raisonnement tout autre que le mien il y a in fine l’expression d’une hypothèse semblable à la mienne, il est juste de penser que c’est une convergence qui renforce son sens, augmente sa crédibilité. Effectivement si des constats de convergences finissent par s’ajouter à celle-ci le bien-fondé s’amplifiera et finira peut-être par vaincre toutes les formes d’inertie. L’article de Phys.Org intervient quelques jours après le mien, donc l’optimisme n’est pas abusif. Patience donc !

Je rappelle succinctement que la pensée classique qui noue encore le caractère impératif du recours à un espace-temps : fondé par le sujet pensant, et donc non donné dans la nature, donc irréel, pour situer et décrire des phénomènes physiques est une conséquence de notre disposition cérébrale fixée, dans son actuel état, qui en impose encore à notre disposition intellectuelle qui est en perpétuelle développement.

 

 

Entanglement is an inevitable feature of reality

1 September 2017, by Lisa Zyga

 (Phys.org)—Is entanglement really necessary for describing the physical world, or is it possible to have some post-quantum theory without entanglement?

In a new study, physicists have mathematically proved that any theory that has a classical limit—meaning that it can describe our observations of the classical world by recovering classical theory under certain conditions—must contain entanglement. So despite the fact that entanglement goes against classical intuition, entanglement must be an inevitable feature of not only quantum theory but also any non-classical theory, even those that are yet to be developed.

The physicists, Jonathan G. Richens at Imperial College London and University College London, John H. Selby at Imperial College London and the University of Oxford, and Sabri W. Al-Safi at

Nottingham Trent University, have published a paper establishing entanglement as a necessary feature of any non-classical theory in a recent issue of Physical Review Letters.

"Quantum theory has many strange features compared to classical theory," Richens told

Phys.org. "Traditionally we study how the classical world emerges from the quantum, but we set out to reverse this reasoning to see how the classical world shapes the quantum. In doing so we show that one of its strangest features, entanglement, is totally unsurprising. This hints that much of the apparent strangeness of quantum theory is an inevitable consequence of going beyond classical theory, or perhaps even a consequence of our inability to leave classical theory behind."

Although the full proof is very detailed, the main idea behind it is simply that any theory that

describes reality must behave like classical theory in some limit. This requirement seems pretty obvious, but as the physicists show, it imparts strong constraints on the structure of any non-classical theory.

Quantum theory fulfills this requirement of having a classical limit through the process of decoherence. When a quantum system interacts with the outside environment, the system loses its quantum coherence and everything that makes it quantum. So the system becomes classical and behaves as expected by classical theory.

Here, the physicists show that any non-classical theory that recovers classical theory must contain entangled states. To prove this, they assume the opposite: that such a theory does not have entanglement. Then they show that, without entanglement, any theory that recovers classical theory must be classical theory itself (sic)—a contradiction of the original hypothesis that the theory in question is non-classical. This result implies that the assumption that such a theory does not have entanglement is false, which means that any theory of this kind must have entanglement.

This result may be just the beginning of many other related discoveries, since it opens up the possibility that other physical features of quantum theory can be reproduced simply by requiring that the theory has a classical limit. The physicists anticipate that features such as information causality, bit symmetry, and macroscopic locality may all be shown to arise from this single requirement. The results also provide a clearer idea of what any future non-classical, post-quantum theory must look like.

"My future goals would be to see if Bell non-locality can likewise be derived from the existence of a classical limit," Richens said. "It would be interesting if all theories superseding classical

theory must violate local realism. I am also working to see if certain extensions of quantum theory (such as higher order interference) can be ruled out by the existence of a classical limit, or if this limit imparts useful constraints on these 'post-quantum theories.'"

More information: Jonathan G. Richens, John H. Selby, and Sabri W. Al-Safi. "Entanglement is

Necessary for Emergent Classicality in All Physical

Theories." Physical Review Letters. DOI: 10.1103/PhysRevLett.119.080503

© 2017 Phys.org

APA citation: Entanglement is an inevitable feature of reality (2017, September 1) retrieved 2 September

2017 from https://phys.org/news/2017-09-entanglement-inevitable-feature-reality.html

This document is subject to copyright. Apart from any fair dealing for the purpose of private study or research, no

part may be reproduced without the written permission. The content is provided for information purposes only.

 

 

Partager cet article

Repost0
4 septembre 2017 1 04 /09 /septembre /2017 08:02

Au sein de l’Eternité, Espace et Temps se confondent.

 

Il m’est arrivé assez fréquemment de terminer un article en exprimant en quelques phrases quelle était la métaphysique qui guidait ma réflexion dans le cadre d’une physique prospective. Ici dans ce présent article, je l’exprime tout de go, parce que les deux articles de ‘Pour la Science’ de Septembre, que je vais commenter, proposent des arguments en faveur de cette métaphysique qui rend compte de la dynamique de l’investissement intellectuel du ‘Sujet Pensant’ et que je rappelle : « Au sein d’une Eternité, parmi tous les possibles, Anthrôpos ne cesse de creuser sa compréhension de la physique de l’univers. Cette compréhension est sans fin car, concomitamment, à chaque étape du dévoilement de la nature de l’univers, Anthrôpos développe des nouvelles capacités de décryptement. Cette dynamique ne peut se tarir car rejoindre l’Eternité : là où l’espace et le temps infinis se confondent, ne peut être pour Anthrôpos qu’un horizon. »

Dans le premier article en question : ‘Le multivers quantique’, page 26, on peut lire en introduction : « LA COSMOLOGIE LAISSE PENSER QUE NOTRE UNIVERS N'EN SERAIT QU'UN PARMI D'INNOMBRABLES AUTRES. ET SI CETTE MULTIPLICITÉ D'UNIVERS COÏNCIDAIT AVEC L’IDÉE DES MONDES MULTIPLES AVANCÉE (par Hugh Everett en 1957) IL Y A DONC SOIXANTE ANS POUR COMPRENDRE LA PHYSIOUE QUANTIOUE ? »

« Pour de nombreux cosmologistes, ce que nous pensons être l'Univers dans son intégralité ne serait qu'une infime partie d'un ensemble bien plus vaste : le multivers. Selon ce scénario, il existerait une multitude d'univers, dont l’un serait celui où nous vivons. Et chacun de ces mondes serait régi par des lois différentes ; ce que nous pensions être les principes fondamentaux de la nature ne serait plus si absolu. Ainsi, les types et propriétés des particules élémentaires et de leurs interactions pourraient varier d'un univers à l'autre. 

L’idée du multivers émerge d'une théorie suggérant que le cosmos primordial a subi une expansion fulgurante, exponentielle. Au cours de cette période d’inflation cosmique, certaines régions de l'espace auraient vu leur expansion rapide prendre fin plus tôt que d'autres, formant ce qu'on appelle des : ‘univers-bulles’, un peu comme des bulles dans un volume d'eau bouillante. Notre univers correspondrait à l'une de ces bulles, au-delà de laquelle il y en aurait une infinité d'autres. »

Avec ma métaphysique, l’Univers que j’évoque, in fine, est un tout infini, parménidien, qui d’ailleurs avait occupé l’esprit d’Einstein pour penser l’invariance dans la loi de la Relativité Générale, alors que : Yasunori Nomura, l’auteur de l’article que je cite, avance l’idée d’infinité d’univers-bulles cloisonnés. Ce que je pense c’est que ce cloisonnement va, au fur et à mesure, se dissiper pour accéder à la sommation de tous ces univers-bulles. Le cloisonnement énoncé est corrélé au cloisonnement de notre capacité actuelle de penser plus en avant les lois de la physique. Cette étape avant-gardiste de Nomura, est encore à son balbutiement, il est même possible qu’elle soit erronée tout au moins partiellement mais ce qui est significatif : c’est de commencer à projeter l’idée que ce que l’on repère comme notre seul univers est étriquée. C’est la fin du principe anthropique. Penser d’autres univers possibles implique de penser : « Et chacun de ces mondes serait régi par des lois différentes ; ce que nous pensions être les principes fondamentaux de la nature ne serait plus si absolu. », que nous avons encore des lois physiques à découvrir. C’est une illustration de la dynamique que je relate avec ma métaphysique (je rappelle que pour moi métaphysique signifie : de la physique en gestation).

Quand Nomura écrit : « Ainsi, les types et propriétés des particules élémentaires et de leurs interactions pourraient varier d'un univers à l'autre. »  Je n’exclus pas, comme je l’ai souvent explicité que le neutrino (voir dès l’article d’introduction du blog) soit une particule qui circule dans notre univers mais qui soit aussi un messager d’au moins un autre univers et à ce titre soit vecteur de propriétés de cette autre.  Lorsque l’on décryptera correctement les propriétés du ou des neutrino(s), du même coup on sera en mesure de penser la fusion de ce que l’on appelle notre univers avec cet autre, qui au moins ne feront plus qu’un.

Ainsi nous atteindrons une illustration de ce que nous dit l’auteur :

« L’idée que notre univers ne représente qu'une petite partie d'une structure beaucoup plus vaste n'est pas aussi bizarre qu'il y paraît. Après tout, à travers l'histoire, les scientifiques ont appris à maintes reprises que le monde ne se résume pas à ce qui en est visible. » Pour dire plus justement, je dirais : ne se résume pas à ce qui est présentement visible, parce que dès qu’une pensée juste est démontrée son objet devient visible d’une façon ou d’une autre, même si la visibilité n’est qu’intellectuelle et rigoureusement cohérente. Et quand le : présentement visible, est atteint, c’est l’au-delà de ce présentement : c’est ce qui reste à venir, qui devient l’instigateur de la perpétuelle quête intellectuelle. Pour l’être humain physicien il y aura toujours un reste… à venir. (Voir article avec D. Buonomano du 19/07)

Dans la suite de l’article, l’auteur propose d’expliquer la nouveauté de son point de vue de physicien par rapport à celui des pères étant à l’origine du Big-Bang et de la théorie de l’inflation : A. Guth, G. Gamow, A. Linde, P. Steinhardt… « Selon la théorie de l’inflation éternelle, il se forme une infinité de bulles d’espace où l’expansion exponentielle a ralenti. Chacune de ces bulles correspond à un univers ayant ses propres conditions initiales et physiques. Et l’un des mondes serait notre univers. Dans un univers éternellement en inflation, tout ce qui peut arriver, arrive ; en fait, tout arrive un nombre infini de fois » … « Plus précisément, (selon l’auteur), le scénario cosmologique d’un univers en éternelle inflation serait mathématiquement équivalent à l’interprétation des « mondes multiples, de la physique quantique (Everett). Cette idée est très spéculative (idée qui s’appuie plus sur une appréciation intuitive que sur de la démonstration), mais, comme nous le verrons, une telle connexion entre les deux théories donne des pistes pour résoudre (sic) le problème des prédictions, mais pourrait aussi révéler des informations surprenantes sur l’espace et le temps (sic)».

La suite est en grande partie consacrée à démontrer l’équivalence mathématique des deux théories. Je vous recommande évidemment de l’étudier dans la revue même.

Je reprends à partir de la page 34, là où il exprime son essentielle conviction : « Le multivers et les mondes multiples quantiques sont en réalité une seule et même chose ; ils correspondent simplement au même phénomène (la superposition d’états) qui se produit à des échelles complètement différentes. »

Ensuite, l’auteur indique quels sont les pistes qui permettraient de tester les conclusions de sa conviction. La mesure d’une petite quantité de courbure négative dans notre univers, serait selon lui une belle signature ou bien les vestiges d’une « collision » de notre univers-bulle avec un autre (souvenons-nous de l’énigme de la tache obscur dans le rayonnement fossile).

A propos du temps il conjecture : « Le temps est un concept émergent, quelque chose qui surgit d’une réalité plus fondamentale et qui semble n’exister que dans les branches locales du multivers. » Cette assomption me convient car la réalité plus fondamentale qu’il faut prendre en compte dans notre univers c’est l’émergence d’une intelligence. (voir mes articles précédents).

En conclusion Y. Nomura écrit : « Beaucoup des idées que je viens de présenter sont encore très spéculatives, mais il est passionnant que les physiciens soient en mesure de réfléchir à ces grandes et profondes questions sur la base des avancées théoriques actuelles. Où ces explorations nous mèneront-elles ? Il semble clair en tout cas que nous vivons une ère exaltante dans laquelle nos explorations scientifiques vont au-delà de ce que nous pensions être le monde physique entier – notre univers - pour atteindre un domaine potentiellement sans limites au-delà. » (D’accord avec Nomura, à condition de considérer que ce domaine potentiellement sans limites au-delà est pour nous, selon ma métaphysique, un horizon dont on peut s’approcher sans jamais l’atteindre, puisque c’est la condition de la mobilité permanente de notre pensée.)

A ce propos, puisqu’avant tout, avec ma métaphysique, nous sommes au sein d’une Eternité, effectivement il n’y pas de Big-Bang et j’ai toujours indiqué que celui-ci avait une fonction utilitaire mais pas plus. En effet l’anthrôpos a toujours besoin de poser sa pensée sur une origine qui ne peut être que provisoire, jusqu’à ce que le développement de sa pensée lui permette d’éliminer l’ancienne par une nouvelle qui annonce une nouvelle cosmogonie.

Il y a peu, le 15 août un article a été publié : ‘Loop quantum cosmology and singularities’ : ‘Cosmologie quantique à boucle et singularités’, in ‘Scientific Reports 7, Article number : 8161 (2017)’ et dans cet article très exhaustif il est affirmé que la théorie en question ne fait pas apparaître de Big-Bang ni de Big Crunch d’ailleurs, ces deux singularités ne sont pas nécessaires pour que la théorie soit cohérente. C’est la première fois que je lis un tel article et c’est un signe. De fait, de part en part, la fragilisation du modèle standard de la cosmologie est engagée depuis quelques années. Le 21 juin, il y avait un article qui avait pour titre : ‘Big Bang : le modèle de Hartle-Hawking est-il faux ?’ dans Futura science. Mais précédemment le 15 juin, un article explicite annonçait : ‘No Universe without Big Bang’ in Physical Review D (2017). DOI: 10.1103/PhysRevD.95.103508. Ce mouvement de balancement théorique va continuer à se produire jusqu’à ce que des mesures probantes finissent par stabiliser le curseur sur une configuration d’univers qui englobera le soi-disant nôtre exclusif actuel dans un monde plus vaste et plus riche en propriétés.

Le deuxième article que je veux citer dans le même N° de ‘Pour la Science’ a pour titre : ’L’inflation cosmologique reste le scénario le plus satisfaisant.’

Ci-joint une citation d’une partie de l’interview qui dit beaucoup sur la fragilité de ce scénario. Cette fragilité m’autorise à penser que ma métaphysique est tout autant légitime et fertile que la théorie de l’inflation.

Pourquoi certains physiciens sont-ils pessimistes quant à la possibilité de tester l'inflation ?

Certains considèrent que l'inflation est une idée impossible à tester par les observations, ce qui est un critère essentiel pour une théorie scientifique. Ils ajoutent que la diversité des scénarios inflationnaires et leur flexibilité face aux contraintes empêchent le paradigme inflationnaire d'être réfutable.

Une polémique à ce sujet est récemment née d'un article paru dans Scientific American et cosigné par Paul Steinhardt. Ce chercheur de l’université de Princeton est l'un des pères de la théorie de l’inflation, mais il se montre aujourd'hui très critique. Il est sain que des scientifiques mettent le doigt sur des difficultés que les autres n'ont pas vues, cela fait partie du processus normal de la recherche. C'est en essayant de répondre à ce genre de critiques que l'on améliore une théorie ou, au contraire, que l'on se rend compte qu'elle n'est pas satisfaisante. Un article virulent de Paul Steinhardt a été mal accueilli par la communauté et une trentaine de scientifiques lui ont répondu dans une lettre ouverte. Les critiques de Paul Steinhardt sont multiples ; il évoque notamment la non-testabilité de l'inflation et le problème de l'inflation éternelle.

De quoi s'agit-il ?

L’inflation éternelle est l'idée que si un champ scalaire provoque l'inflation, cette phase d'expansion ne peut pas prendre fin, parce qu'elle est alimentée par des fluctuations quantiques. Cela avait été découvert en 1983 par Paul Steinhardt et d'autres. L’expansion exponentielle ne s'interromprait que dans des régions limitées, où se formeraient des univers analogues au nôtre. Ces bulles forment un multivers. Le problème, pour Paul Steinhardt, c'est qu'à chaque « univers-bulle » correspondront des conditions initiales arbitraires, puisque les fluctuations ayant conduit à la formation de cet univers-bulle sont aléatoires. Il est alors impossible de prédire les propriétés de notre propre univers. C'est un cadre qui se prête à de nombreuses réflexions théoriques. Par exemple, Yasunori Nomura utilise cette idée d'inflation éternelle et de multivers pour dresser un parallèle avec l’interprétation de la mécanique quantique proposée par Hugh Everett en 1957 (voir l’article : page 26 à 34). La plupart des cosmologistes pensent que la question de l'inflation éternelle est probablement importante sur le plan conceptuel, mais que ses conséquences pratiques sont limitées. C'est peut-être une erreur, mais au quotidien, on n'utilise pas cette notion d'inflation éternelle lorsqu'on cherche à résoudre les problèmes de l'inflation dans notre univers.

Le problème du réchauffement, par exemple ?

Oui, mais pas seulement. J'ai récemment publié un article qui, je pense, sera important pour étudier des scénarios inflationnaires réalistes. Jusqu'à présent, nous nous sommes uniquement concentrés sur la forme du potentiel. Mais j'ai montré que nous avons omis une autre propriété importante. Dans une théorie à plusieurs champs scalaires, la dynamique de ces derniers est soumise à la géométrie de l'espace interne dans lequel vivent ces champs et ne dépend donc pas uniquement du potentiel. L’une des conséquences de ce nouveau facteur

est que l’inflation peut s'interrompre de façon prématurée. Pour chaque modèle donné, les limites de compatibilité des données observationnelles sont alors modifiées. On le voit, il y a encore beaucoup de chemin à faire pour comprendre vraiment l’inflation.

Existe-t-il des alternatives à l'idée d'inflation ?

Il y en a quelques-unes. Je n'en suis pas spécialiste, mais le consensus scientifique est qu'elles présentent toutes des problèmes plus importants que l’inflation. L’univers avec rebond, par exemple, décrit un univers qui se contracte puis repart en expansion. L’idée est séduisante dans la mesure où elle évite la singularité initiale du Big Bang. Selon Paul Steinhardt, ce modèle ne présente pas certains problèmes de conditions initiales de l’inflation. Mais aucune théorie physique ne permet à l'heure actuelle de réaliser de manière satisfaisante un tel rebond.

L’inflation cosmique reste aujourd'hui le scénario le plus satisfaisant sur les plans théorique et observationnel. Mais les physiciens adorent les surprises et guettent la nouvelle idée qui fera progresser notre compréhension du monde - même si elle doit détrôner l'inflation !

Propos recueillis par Sean Bailly

Partager cet article

Repost0
29 août 2017 2 29 /08 /août /2017 10:34

Comment les humains interagissent avec la Nature ? Comment nous questionnons la Nature ?

Ces interrogations, je les ai lues dans un article de N. Gisin et à l’instant de leurs lectures je me suis intéressé à la suite que l’auteur allait accorder à ce territoire interrogatif qu’il envisageait d’explorer. Après deux années, j’ai eu confirmation qu’il n’irait pas au-delà d’une ouverture interrogative. Cette situation me rappelle celle constatée à la lecture du livre de L. Smolin : « La Renaissance du Temps ; Pour en finir avec la crise de la Physique. », (programme ambitieux, légitime, nécessaire et selon moi particulièrement prioritaire), qui réalise une analyse de très grande qualité de la loi de la relativité générale conduisant à la mise en évidence de l’univers bloc bornant l’intelligence humaine dans un univers bloc totalement déterminé, et donc soustrayant la moindre faculté fondatrice à cette intelligence qui n’aurait effectivement aucun horizon par lequel elle pourrait mettre à l’épreuve sa faculté d’exercer un libre arbitre arc-en-ciel. Enfin Smolin formule un diagnostic crucial : « Mais l’univers réel a des propriétés qui ne sont pas représentables par un quelconque objet mathématique. L’une de celles-ci est qu’il y a toujours un moment présent… » (voir article du 2/05/2013). Depuis, plus une pensée publiée sur ce sujet, dommage qu’il soit resté sur le seuil d’un tel chantier que j’ai considéré comme très prometteur et à mon sens l’est encore. Pourtant dans son livre vacille une petite lumière qui ne me laisse pas indifférent : les lois de la physique pourraient évoluer, à la manière des lois de l’évolution en biologie. Petite lumière à laquelle je prête la clarté suivante : les possibilités de découvertes des lois de la physique évoluent concomitamment avec les lois de l’évolution qui concernent l’être humain depuis son émergence.

Je ne veux pas appesantir cet article avec trop d’interrogations mais on peut se demander pourquoi il y a des flashs d’idées percutantes mais sans germinations. Les deux auteurs que je cite ont accumulé suffisamment de pratiques réflexives et d’obstacles au cours de leur carrière pour, en relevant leur regard prospectif, intuiter valablement les défaillances des corpus théoriques en question. Ils ont aussi intuité l’aspect trop étriqué, prétendument autosuffisant, des critères et postulats qui prévalent au raisonnement en science physique. Malgré cela une sorte de ‘surmoi’ (il serait celui de la communauté scientifique) interdit de franchir le Rubicon. En effet, les grands ancêtres : Galilée, Descartes, Newton, ont verrouillé et jeté les clefs de l’enclos qui délimite ce qui est propre à la pensée en physique.

            C’est le thème, que mettent en relief les questions en titre de cet article, que je reprends ci-dessous. Reprise parce que ce thème est déjà en partie développé dans ses balbutiements par les articles précédents récents. Comme toute nouveauté, surtout de cette nature, il faut revenir plusieurs fois sur le chantier de son élaboration, quitte à ce qu’au cours de son développement il faille rebrousser chemin, si des incohérences, des incongruités finissent par s’imposer. J’espère que la réflexion que je vous propose ne se fait pas trop fastidieuse car vous avez remarqué, je suis convaincu qu’il est nécessaire d’emprunter de nouveaux chemins d’investigations car les physiciens sont depuis de très (trop) nombreuses années face à des impasses, c’est-à-dire dire confrontés à des phénomènes qu’ils ne peuvent expliquer. Ce chemin que je vous propose ci-après, est tout nouveau pour moi et je n’ai pas encore rencontré une prospection réalisée avant que j’en ai l’intuition (elle existe peut-être) si ce n’est que c’est la lecture du livre de D. Buonomano qui a contribué à fournir les éléments déclencheurs.

Donc les interrogations de N. Gisin, je les reprends mais j’y ajoute : quels sont les dispositions actuelles de l’être humain pour questionner la Nature ?

Selon mon point de vue, elles seraient double :

  1.      Dispositions cérébrales ;
  2.      Dispositions intellectuelles.

Les dispositions cérébrales sont celles qui sont établies grâce à un câblage empirique, établi, de nos neurones, correspondant et révélant l’histoire de notre évolution en tant qu’être humain.

Les dispositions intellectuelles sont celles qui permettent un dépassement des dispositions cérébrales, (actuellement façonnées lesquelles s’activent naturellement), et qui établissent et établiront des nouveaux câblages parce que notre évolution est toujours en cours. Voir article du 20/06/2017, page 3 : « L’évolution ne s’arrête pas, nous évoluons encore et toute la différence, entre les premiers sapiens et nous, tient probablement dans l’organisation interne du cerveau, sa connectivité. Malheureusement… »

On peut considérer que les dispositions cérébrales reflètent l’évolution du genre humain qui a été générée par la confrontation aux lois de la nature qui valent à l’échelle classique : confrontation pour la survie. Echelle classique : échelle de la sensibilité de nos sens, nos instruments de perception, naturels Grâce aux dispositions intellectuelles, qui se développent et ne cessent de s’amplifier, s’acquière la faculté de dépassement de cette confrontation à l’échelle classique et le regard intelligent au-delà et en deçà de cette échelle (grâce à la conception matérielle d’instruments de perception dans une gamme de plus en plus riche) constitue actuellement le challenge des physiciens fondamentalistes.

Dans une certaine mesure les conséquences de la confrontation à l’échelle classique sont toujours extrêmement prégnantes, puisqu’elles s’inscrivent sur une très longue période (pas moins de 2 millions d’années) et en conséquence les dispositions cérébrales sont encore la référence (la grille d’interprétation) pour l’être humain donc pour les physiciens. Il en résulte que l’ensemble des dispositions cérébrales constitue un facteur d’inertie intellectuelle qui est en cours de réduction mais pas encore dépassée malgré un siècle de pratique de la mécanique quantique. Toujours présentement, je prête donc aux physiciens le rôle d’avant-garde, de précurseurs, d’acteurs de ce qui conduira à de nouvelles dispositions cérébrales. Les données et les phénomènes obtenus avec la conquête intellectuelle en cours du corpus de la mécanique quantique sont toujours interprétés, décryptés à l’aune des dispositions cérébrales pas encore dépassées. C’est pourquoi pour l’essentiel nous sommes confrontées aux ‘bizarreries’ de la mécanique quantique qui révèlent des frictions entre l’inertie cérébrale et la capacité d’avancée de l’intellectuelle. A l’évidence, il y a encore des sauts conceptuels à effectuer pour que ce que nous nommons bizarreries (voir article du 05/08), terme qui reflètent notre inintelligibilité actuelle, perde ce statut et que des propriétés intelligibles rendent compte des lois qui prévalent dans l’interaction Homme-Nature à l’échelle correspondante.

Il me faut expliquer pourquoi je prête aux physiciens fondamentalistes le rôle d’avant-garde aux conquêtes intellectuelles qui provoqueront les nouvelles dispositions cérébrales. A mon sens le souverainisme des lois de la physique dans cette affaire est encore prépondérant. Il suffit de reprendre l’arborescence chronologique de la diffusion des concepts quantiques dans les autres sciences de la nature pour s’en rendre compte. Jusqu’au point, et d’une façon hasardeuse, ceux-ci furent aussi testés dans les sciences humaines.

Cette prépondérance des concepts de la physique diminuera dans l’avenir parce que l’être humain dépendra de moins en moins d’une confrontation aussi univoque avec la Nature. Son émancipation en se développant avec son évolution en devenir l’amènera à bâtir de nouveaux savoirs sur la base de ce qu’il librement voudra dépasser, du point de vue de son Être en tant que tel, devenant ainsi de plus en plus autonome vis-à-vis de son Être de la Nature dont il est originaire.

Comme vous pouvez le constater à ce moment de la fin de la lecture : tous les arguments exploités ont été exposés dans les articles précédents mais en les assemblant d’une façon nouvelle et toujours logique (à mon sens), j’ai pu expliciter le concept d’inertie cérébrale et le mettre en rapport avec celui de ‘Bizarreries’ de la mécanique quantique et aussi donner plus de sens à l’article intuitif et précurseur du 26/09/2015 : ‘Non, on ne pense pas quantique. Pas encore !

Si ma proposition de considérer effectivement : dispositions cérébrales distinctes de dispositions intellectuelles, s’avérait pertinente, alors nous aurions débusqué un authentique nouveau paradigme qui par ricochet révélerait un nouveau paradigme en physique qui nous rendrait complètement intelligible les lois propres à la mécanique quantique.

Il ne peut pas nous échapper que nous serions alors témoin d’un renversement de situation puisque jusqu’à présent ce sont les découvertes des lois de la physique qui ont fait évoluer l’intelligence de l’être humain, ici ce serait la découverte des lois de l’évolution de l’intelligence humaine qui permettrait enfin de découvrir des nouvelles lois de la physique.

Partager cet article

Repost0
18 août 2017 5 18 /08 /août /2017 08:51

Présentation d’une expérience qui pourrait annuler mon hypothèse si…

Si… on considère qu’elle est exhaustive et si on considère qu’elle s’engage sur des préalables corrects d’interprétation de la mécanique quantique. Cet article date du 11/08, sur le site de phys.org, je vous en propose une traduction pour l’essentiel, ensuite un commentaire et puis finalement la version originale (sans la figure illustrative, malheureusement car impossible).

C’est une expérience relative à l’observation de franges d’interférences de particules de matière massives observables lorsqu’elles sont soumises à traverser des fentes du type appareil d’Young mais ici l’appareil (le masque) est modifié comprenant, une, deux, trois fentes à des niveaux distincts.  

« En mécanique quantique les particules peuvent se comporter comme des ondes (sic) et prendre plusieurs chemins dans une expérience. Cela requière simplement des combinaisons de paires de chemins, plutôt que trois ou plus, pour déterminer la probabilité pour une particule d’arriver quelque part. Les chercheurs de l’université de Vienne et Tel Aviv ont interrogé ce problème explicitement en utilisant les interférences d’ondes de molécules derrière une combinaison de simple, double, et triple fentes (dessinées sur un même support matériel à des niveaux distincts)

La mécanique quantique décrit comment la matière se comporte sur des échelles les plus petites du point de vue de la masse et de la longueur d’onde. Toutefois, l’absence de phénomènes quantiques dans notre vie quotidienne a provoqué une recherche des modifications minimales de la mécanique quantique, qui seraient seulement perceptibles pour les particules massives. Une piste est de rechercher l’ainsi nommé : plus haut ordre d’interférence. En mécanique quantique standard, le motif d’interférence résultant d’un nombre arbitraire de chemins ouverts non interagissant peut toujours être décrit par toutes les combinaisons des paires de chemins.

Tout autre motif restant serait dû à des ordres plus élevés d’interférences et serait indicateur éventuel d’une nouvelle physique.

Tandis que cette règle a été testé précédemment avec de la lumière et du rayonnement micro-onde, les chercheurs à l’université de Vienne et de Tel Aviv ont maintenant lancé pour la première fois une expérience dédiée avec des molécules massives. « L’idée est connue depuis plus de 20 ans. Mais c’est seulement maintenant que nous disposons des moyens technologiques pour réunir ensemble tous les composants et construire une expérience capable de réaliser le test avec des particules massives. »

Diffraction d’une onde de matière avec de fentes multiples.

Dans leurs expériences, les chercheurs de Vienne préparent des molécules organiques complexes en tant qu’ondes de matière (sic). Ce but est atteint en évaporant ces molécules à partir d’un point de diffusion de l’ordre du micron et ensuite laisser évoluer celles-ci librement pendant un instant. A la suite de cet instant chacune des molécules délocalisées, se répartissent dans différents endroits immédiatement. Ceci signifie que lorsque chaque molécule rencontre le masque contenant les multiples fentes, elle peut traverser plusieurs fentes en parallèle. En comparant avec précaution la position des molécules arrivant sur le détecteur après une combinaison de simple, double, triple, fentes, les chercheurs étaient capables d’attribuer des limites correspondantes à chacun des chemins multiples empruntés.

La nano-fabrication favorisant cette technologie… »

Commentaire : L’apriorisme du dualisme onde/particule est une interprétation qui conditionne complètement la conception et le traitement des résultats obtenus. En effet, il est abusif de considérer que « En mécanique quantique les particules peuvent se comporter comme des ondes (sic) », car l’apparaître comme une onde n’est pour nous qu’une interprétation pour expliquer le résultat final de l’expérience. En aucun cas on observe le caractère ondulatoire avant l’expérience d’observation qui permettrait de constater un comportement ondulatoire réel d’une particule. Ici on est dans un schéma explicatif qui considère que la situation est : onde et particule, cela est un abus, un parti pris, un apriori qui n’a toujours pas de justification. Quant à l’interprétation que je privilégie c’est celle de : onde ou particule… c’est selon, le type d’appareil d’observation que l’on utilise et les modalités de la réalisation de l’expérience. Ainsi, l’expérience indiqué ci-dessus laisserait voir des impacts ponctuels sur le détecteur dès que l’observateur aurait l’information (par des moyens appropriés couramment utilisés) à propos de par laquelle des fentes chaque particule de matière serait passée, c’est-à-dire que l’observateur dispose de l’information spatio-temporelle du chemin suivi (résultat historiquement bien connu et reproductible). On voit, là, que le processus de l’observation conditionne le résultat final de l’expérience.

Je serais très intéressé que cette expérience soit aussi effectuée avec le protocole de mon projet d’expérience tel que je l’ai décrit dans l’article du 06/08/ : ‘Appel d’Offres’ comprenant les trois catégories d’observateurs équipés d’un dispositif de détection d’images cérébrales. Les cas a) et b) sont très concrètement réalisables dans le cas de figure exposé par les chercheurs de Vienne et permettront de produire des conditions d’observations qui seront interprétables d’une façon nette.

 

Texte original :

« Massive particles test standard quantum theory 11 August 2017

Comparing the diffraction patterns behind a combination of precisely written slits allows testing quantum mechanics with complex molecules. Credit: Group for Quantum Nanophysics, Faculty of Physics, University of Vienna; Image-Design: Christian Knobloch

In quantum mechanics particles can behave as waves and take many paths through an experiment. It requires only combinations of pairs of paths, rather (plutôt) than three or more, to determine the probability for a particle to arrive somewhere. Researchers at the universities of Vienna and Tel Aviv have addressed this question for the first time explicitly using the wave interference of large molecules behind various combinations of single, double, and triple slits.

Quantum mechanics describes how matter behaves on the smallest mass and length scales. However, the absence of quantum phenomena in our daily lives has triggered a search for minimal modifications of quantum mechanics, which might only be noticeable for massive particles. One candidate is to search for so-called higher-order interference. In standard quantum mechanics, the interference pattern resulting from an arbitrary number of non-interacting open paths can always be described by all combinations of pairs of paths.

Any remaining pattern would be due to higher-order interference and be a possible indicator for new physics.

While this rule has been tested before with light and microwave radiation, researchers at the Universities of Vienna and Tel Aviv have now run for the first time a dedicated experiment with massive molecules. "The idea has been known for more than twenty years. But only now do we have the technological means to bring all the components together and build an experiment capable of testing it with massive molecules," says Christian Brand, one of the authors of the study.

Multi-slit matter wave diffraction

In their experiments at the University of Vienna, researchers of the Quantum Nanophysics Group headed by Markus Arndt prepared complex organic molecules as matter waves. This was achieved by evaporating them from a micron-sized spot in high vacuum and letting them evolve freely for some time. After a while, each molecule delocalized, spreading across many places at once. This means that when each molecule encounters a mask containing multiple slits, it can traverse many of the slits in parallel. By carefully comparing the position of molecules arriving at the detector behind a combination of single-, double- and triple slits they were able to place bounds on any multipath contribution.

Nanofabrication enabling technology

A crucial component of the experiment is the mask - an ultra-thin membrane into which arrays of single-, double- and triple-slits were fabricated. It was designed and fabricated by Yigal Lilach and Ori Cheshnovsky at Tel Aviv University. They had to engineer a diffraction mask, where the maximum deviation in the slit dimensions was not much larger than the size of the molecules it was diffracting. The mask was integrated in the Vienna laboratory.

and the researchers studied a broad range of molecular velocities in the same experimental run. For all of them, the scientists found the interference pattern to follow the expectations of standard quantum mechanics with an upper bound in the deviation of less than one particle in a hundred. "This is the first time an explicit test of this kind has been conducted with massive particles", says Joseph Cotter, the first author of this publication. "Previous tests have pushed the frontiers with single photons and microwaves. In our experiment, we put bounds on higher-order interference of massive objects."

The study is published in Science Advances.”

 

Partager cet article

Repost0
15 août 2017 2 15 /08 /août /2017 08:00

Disposition ou Dispositions ?

En relisant l’article précédent du 05/08, j’ai réalisé qu’une logique implicite avait fini par pointer dans celui-ci alors qu’à aucun moment dans ma réflexion je ne l’avais anticipée. Cette logique laisserait entendre qu’il y aurait chez l’être humain deux dispositions, l’une serait cérébrale et l’autre serait intellectuelle. Attention ! j’ai conscience que lorsque l’on aborde ce type de sujet il faut être précautionneux car il est facile de déraper d’autant que ce que l’on pourrait appeler la science du cerveau est une science native.

            La disposition cérébrale serait une disposition réflexive, déductive, naturelle et spontanée puisque le cerveau est prédisposé à engendrer cette réflexion-déduction à cause d’un apprentissage très antérieur dans le temps. Cette prédisposition s’expliquerait par le fait que l’organisation neuronale est déjà établie (câblée) et elle est permanente. C’est ce que D. Buonomano suggère lorsque parlant de l’instinct, dans toutes ses formes, des animaux, il évoque les ‘instincts câblés’. Je cite : « La plupart des exemples de planifications apparentes de long terme chez les animaux, semblent actuellement être des instincts câblés[1]. » (Penser à l’exemple de l’écureuil qui instinctivement stocke des noisettes pour se nourrir l’hiver)

            Les câblages acquis et qui perdurent sont le fruit de l’évolution. Je vais une fois de plus me référer à D. Buonomano pour justifier mon propos : « La vérité est, bien que les humains soient bien meilleurs pour la planification à long-terme que tous les autres animaux, nous ne sommes pas particulièrement bon pour ceci. Ceci ne doit pas être une surprise. Le cerveau humain est le produit d’un processus de l’évolution qui s’est développé depuis des centaines de millions d’années (sic). Donc la plupart de notre bagage neuronal provient des animaux qui vivait, sur le plan cognitif, dans le présent immédiat. En conséquence, en tant qu’espèce, nous humains continuons d’apprendre pour perfectionner nos nouvelles compétences[2] »

La disposition intellectuelle est celle qui est à l’œuvre (nous humains, nous continuons d’apprendre) au cours de l’existence propre de chacun d’entre nous, dès le début de celle-ci. La disposition intellectuelle est corrélée à l’étude, à l’apprentissage récent ou en cours qui peut se développer aussi profondément que le peut une génération, celle-ci bénéficiant des acquis de la précédente. La disposition intellectuelle peut évidemment conduire à une émancipation à l’égard de la détermination correspondant à la disposition purement cérébrale installée. Ainsi quand je considère nous ne pensons pas quantique, pas encore, voir article du 26/09/2015, je signifie que notre rapport historique avec la Nature à l’échelle classique a provoqué un câblage cérébral qui s’impose toujours en premier lieu et un dépassement est nécessaire pour accéder à une pensée quantique sans artefact (s) : ce qui n’est pas encore le cas.

Notre pensée à l’égard de phénomènes à l’échelle quantique ne peut se développer qu’en réinitialisant sans cesse celle-ci et à chaque fois sur la base des postulats fondamentaux appris qui dictent ce qui est franchement en rupture avec la mécanique classique. Penser, justement, naturellement, quantique sera possible lorsque à force de sa pratique une organisation neuronale appropriée se mettra en place à demeure et pourra se transmettre génétiquement. Je fais l’hypothèse que cette mise en place à demeure se cristallisera lorsque de plus on mettra en évidence un ou des paradigmes de ruptures valant tout autant pour la mécanique classique que la mécanique quantique, notamment à propos de l’espace-temps et de sa source.

Dans l’expérience que je propose (voir article précédent), je souhaite pouvoir tester cette hypothèse, je le pense avec insistance en prenant aussi en compte les résultats éloquents d’autres expériences citées déjà dans l’article précédent qui révèle que « le cerveau fait plus confiance à sa propre information inventée qu’à ce qu’il voit à l’extérieur dans le monde. » Ainsi, les personnes non formées à la physique ne peuvent rien inventer[3], lorsqu’ils n’ont plus d’information spatio-temporelle de la trajectoire de l’objet quantique dans l’interféromètre. Par contre les personnes formées à la mécanique quantique[4] ont intellectuellement intégré les outils, les schémas, pour que leur cerveau conçoive une image relative à la dispersion spatio-temporelle. Ces personnes transcendent le câblage établi du repérage spatio-temporel du déplacement dans la nature immédiate de l’individu (qui ici est le correspondant de l’objet classique), établi depuis au moins 2 millions d’années. C’est-à-dire à une époque où une conscience de soi s’établit. Ce câblage est typiquement d’essence humaine. Il en résulte, selon mon hypothèse, que l’espace-temps n’est pas donné dans la Nature. Si les résultats a) et b) sont ce que je prévois, mon hypothèse sera valide, sinon elle sera invalidée.

Une disposition cérébrale serait donc une disposition qui serait acquise du point de vue des réseaux des connexions neuronales, cela constitue une potentialité et on naît avec, globalement, elle correspond à l’état de notre évolution pour l’époque considérée (évidemment, il y a à nuancer suivant les cultures, les patrimoines génétiques, etc…) C’est un héritage.  

Une disposition intellectuelle serait une disposition qui serait une aptitude à transcender ce qui s’imposerait du point de vue de la disposition cérébrale. Une disposition intellectuelle qui cogiterait pertinemment conduirait à un nouveau câblage et à une disposition cérébrale actualisée. Dans le cas de la physique une disposition intellectuelle pertinente est celle qui prédit des résultats expérimentalement vérifiés et expliqués, et qui élucide les postulats qui ont prévalus à l’origine. Ce n’est pas encore le cas des cogitations à propos de la mécanique quantique car nous sommes toujours obligés d’accepter les postulats de l’Ecole de Copenhague, sans jusqu’à présent comprendre pour autant, quels sont leurs fondements, d’où proviennent naturellement (dans la Nature) ces postulats[5]. Et puis ce n’est pas par hasard ni par habitude que sans cesse l’on évoque : l’étrangeté des propriétés quantiques, des actions fantômes, etc…

Nos capacités intellectuelles sont encore essentiellement celles qui ont comme support les capacités cérébrales qui ont été façonnées par notre confrontation aux conséquences des lois de la nature qui prévalent à l’échelle classique, parce que la principale finalité était la survie humaine physique. Ce façonnement a permis à l’humanité de passer du statut de Chasseur-Cueilleur au statut de Producteur-Créateur-Scrutateur de ressources de plus en plus conscient, c’est-à-dire prévoyant. De l’enjeu de la survie à l’échelle classique on a transité (on transite) vers l’expansion aux échelles qui se situent de part et d’autre. De plus, il y a un engendrement de dispositions intellectuelles qui s’autonomisent. C’est-à-dire dans mon schéma l’Être dans la Nature réduit sa dépendance de l’Être de la Nature.

Pour terminer cet article, je cite P. Picq, dans ‘Dossier pour la Science’ de juillet-septembre 2016, « Le roman des intelligences », page 8 : « La première coévolution concerne tous les organismes vivants et leurs interactions. La deuxième se met en place avec les premiers hommes (Homo erectus) avec des innovations techniques et culturelles, comme la cuisson et la taille des outils, qui modifient et sélectionnent nos organismes, des gènes aux capacités cognitives. La troisième se manifeste depuis le début du XXIe siècle avec l’impact des NBIC (nanotechnologies, biologie naturelle et de synthèse, sciences informatiques et cognitives)

Mais contrairement aux sirènes du transhumanisme qui postulent que l’évolution est arrivée à son terme et que nos technologies doivent prendre le relais, il faut penser notre avenir en fonction des interactions de ces trois coévolutions (sic) ; l’émergence, en quelque sorte, d’une nouvelle intelligence… Notre humanité doit se remettre en marche. Notre cervelet possède 70 milliards de neurones connectés à l’ensemble de notre corps et de notre cerveau et des études récentes montrent que la marche et tout particulièrement dans un bout de nature, augmente notre créativité de 60% ; et c’est encore mieux avec les autres. »

Tout ce qui est écrit dans cet article a à voir, selon mon point de vue, avec le sujet relatif à comment pourrons-nous penser quantique et de quelle façon cela va advenir ? Quelles en seront les conséquences ?

Descartes affirmait que de l’arbre de la connaissance, le tronc représentait : la science physique, toutes les autres sciences étaient des ramifications qui s’y rattachaient. Connaître les sciences relatives à ses ramifications permet aussi réciproquement de mieux analyser la sève centrale qui irrigue le tronc et amplifie la vigueur de l’arbre. Pour cette raison, il est vivement souhaitable que les physiciens enrichissent le domaine de leurs propres investigations des domaines qui prospectent et expliquent cette histoire et cette dynamique. Par exemple ainsi procèdent les paléoanthropologues qui intègrent maintenant, la biologie, la génétique et les neurosciences dans leur corpus d’analyse prospective. D’où mon projet d’un manifeste qui conduirait les physiciens à solliciter et provoquer un rapprochement semblable entre différents corpus.   

Je viens de découvrir qu’un livre vient d’être publié (le 07/08) aux E.U. : « Life through time and space. », « La vie à travers le temps et l’espace. » En résumé : “The origins of intelligent life: How did life, and eventually intelligent life, come into existence on Earth?” Je n’ai pas encore pu l’acquérir, dès que ce sera possible, s’il présente de l’intérêt, pour notre propos, j’en parlerais. Déjà on remarque que c’est dans le cadre de l’espace-temps que l’auteur tente de rendre compte de l’émergence de la vie intelligente. Comme s’il ne pouvait y avoir d’intelligence qui ne soit sertie dans l’espace-temps, en tous les cas à propos de celle dont nous pouvons développer un discours. Ce qui laisse possible toutes les autres formes d’intelligence mais pour nous indicible parce que hors ce cadre. Selon l’auteur si l’espace-temps est d’une nature intelligente, pour le moins concomitante avec l’émergence de l’intelligence, on comprend la difficulté des physiciens pour résoudre l’aporie spatio-temporelle, qui veulent la traiter dans le cadre de la matière inerte.  Par contre cela donnerait tout son poids à ma conception : « Je dirais que l’espace-temps est un concept qui a émergé quand une première intelligence a créé le besoin de ce concept pour se situer sur la planète Terre de façon non instinctive. » Voir article précédent du 05/08.

 

           

 

[1] Page 199 : « Most examples of apparent long-term planning in animals actually seem to be hardwired instincts. »

[2] Page 206 : “The truth is that even though humans are far better a long-term planning than all other animals, we are not particularly good at it. This should not come as a surprise. The human brain is the product of an evolutionary process that unfolded over hundreds of millions of years (sic). So, most of our neural baggage comes from animals that lived, cognitively speaking, in the immediate present. Consequently, as a species, humans are still learning to perfect our newly acquired skills…”

[3] Elles sont déterminées par leur cortex entorhinal, sans échappatoire.

[4] Le cortex préfrontal et/ou temporal actif(s) grâce a un processus d’apprentissage. 

[5] N. Bohr et Heisenberg ont toujours indiqué que le savoir (les résultats des mesures) que nous obtenons sur les objets quantiques, est uniquement un savoir relatif à l’échelle de nos capacités humaines. C’est un savoir transposé, interprété, adapté pour qu’il soit humainement transmissible.

Partager cet article

Repost0
5 août 2017 6 05 /08 /août /2017 17:01

En premier lieu, je veux remercier Ingrid et Claude qui m’ont fait parvenir très rapidement un projet d’article traduit en français. Effectivement ayant écrit l’article original directement en anglais, je n’avais plus l’envie d’écrire la version en français. Cela est fait et je suis sensible à la coopération spontanée qui s’est exprimée. Thank you very much Ingrid and Claude.

                                   Appel d’Offres. (A Request for proposal)

 

Présentation : le but de l’expérience proposée est d’évaluer la validité de l’hypothèse fondamentale selon laquelle l’espace-temps est un propre de l’être humain (caractéristique de l’être humain). La mise en évidence récente de propriétés cognitives des humains en situation d’interactions spécifiques avec le monde extérieur, laisse penser qu’avec cette expérience nous pourrions identifier les raisons de certaines bizarreries de la mécanique quantique.

 

D’abord, cet appel d’offres s’adresse à une équipe de neuroscientifiques maîtrisant l’imagerie cérébrale ainsi que la définition d’un protocole préalable qui permettra, après coup, d’interpréter avec certitude les résultats obtenus en accord ou désaccord avec les hypothèses premières impliquées.

Tenant compte des résultats récents des publications que je mentionnerai ci-dessous, au fur et à mesure, dans cet article, et les premières hypothèses que j’ai développées durant cette dernière décennie[1];[2] ;[3], l’expérience proposée rassemble actuellement tous les ingrédients qui nous permettent de penser que nous serons en mesure d’extraire de cette expérience de nouvelles compréhensions de l’interaction entre l’être humain et la nature à l’échelle de l’infiniment petit.

La première hypothèse fondamentale que je fais est que l’espace-temps est une particularité de l’humanité, c’est-à-dire que ces 4 dimensions sont fondées par l’être humain depuis une origine probablement située au premier moment de l’hominisation, c.à.d. de l’ordre de 2 millions d’années ou plus. Je dirais que l’espace-temps est un concept qui a émergé quand une première intelligence a créé le besoin de ce concept pour se situer sur la planète Terre de façon non instinctive. Il est important de souligner la concomitance de ces émergences. Je cite : « Votre cerveau est une Machine du Temps[4] révèle comment l’énigmatique 4ème dimension est en effet essentielle à notre existence et, vraiment fondamentale à ce qui fait de nous des humains » Ainsi, on peut considérer que l’espace-temps a la valeur d’une détermination de l’être humain.

L’expérience a pour but de montrer si oui ou non cette détermination est inhérente à l’être humain. Des résultats récents d’expériences renforcent l’idée que des chances de découvertes et de nouvelles compréhensions devraient ressortir de cette expérience. Je cite : « Notre cerveau préfère l’information visuelle inventée à la chose réelle[5]  et le commentaire de l’auteur : Le cerveau fait plus confiance à sa propre information inventée qu’à ce qu’il voit à l’extérieur dans le monde ». Citons encore : « Comment la ruse quantique peut brouiller cause et effet[6] ». Dans cet article, les auteurs nous disent : « Nous réalisons maintenant qu’en physique quantique, ce n’est pas exactement ce que vous faites qui compte, mais ce que vous savez ». Je note en particulier, conformément à mon hypothèse, que l’être humain véhicule un savoir profond et particulièrement le bagage spécifique d’un savoir spatio-temporel du point, situé en grande partie dans les limites du « complexe entorhinal », voir dans Mauro M. Monsalve-Mercado : ‘Hippocampal Spike-Timing Correlations lead to Hexagonal Grid Fields’, Physical Review Letters (2017) (voir mon commentaire de l’article posté précédemment, du 26/07) et de plus dans ‘Your Brain is a Time Machine’ page 182 : « … que notre aptitude à  nous saisir de la notion du temps a été acquise grâce à une cooptation par les circuits neuronaux qui développent la navigation, la représentation et la compréhension de l’espace[7] »  et  plus, page 206 « ainsi l’essentiel de notre bagage neuronal provient d’animaux qui vivent, sur le plan cognitif, dans le présent immédiat. » En conclusion, la faculté d’accéder à une connaissance spatio-temporelle est une faculté générique humaine.

En conséquence, compte tenu de ces résultats et affirmations que l’espace-temps est un propre de l’être humain, nous serions en mesure d’identifier certaines raisons des singularités spécifiques de la mécanique quantique. Je me réfère au principe de complémentarité de N.Bohr et au principe de superposition quantique. Cela signifie que nous sommes face à l’aspect corpusculaire ou à l’aspect ondulatoire de l’objet quantique.

Pour réaliser l’expérience proposée, nous devons sélectionner trois catégories de personnes. Et ensuite utiliser les ressources de l’imagerie cérébrale. Ces trois catégories d’observateurs sont placées devant un interféromètre pour observer la trajectoire d’un objet quantique.

Des physiciens professionnels formés en mécanique quantique et autres observateurs formés seulement en physique ondulatoire, enfin la troisième catégorie doit inclure des personnes non eduquées en physique, en particulier ignorant de ce qui constitue le champ de la physique ondulatoire. Ensuite l’expérience consiste à placer ces trois groupes de personnes équipées de moyens d’observation IRM fonctionnelle (Imagerie par Résonance Magnétique) successivement devant le même interféromètre. La 1ère expérience consiste à observer les régions du cerveau qui sont activées quand un objet quantique progresse dans l’interféromètre avec toute l’information d’espace-temps sur sa trajectoire donnée par les instruments équipant l’interféromètre. La 2ème expérience est identique à la 1ère mais avec perte de l’information d’espace-temps du fait de l’installation d’un dispositif semi-transparent.

Que seraient les résultats possibles ?

a) Avec une information sur la trajectoire, je fais l’hypothèse que les images cérébrales seraient similaires pour les trois catégories de personnes. Et l’aspect de l’objet quantique, in fine, serait ponctuel.

b) Avec la perte d’information spatio-temporelle sur la trajectoire, assumons que chacune des catégories d’observateurs montrerait des images cérébrales différentes puisque l’aire cérébrale d’identification spatio-temporelle classique ne sera pas sollicitée ou sera prise en défaut.

Dans le cas a) l’identification de l’espace-temps est une vielle histoire, l’être humain a acquis depuis longtemps (avec l’évolution il a évidemment mûri) et il se pourrait que dans ce cas la région cérébrale active serait au niveau du cortex entorhinal.

Dans la cas b) les physiciens professionnels intellectuellement armés pour compenser la perte d’information spatio-temporelle activeront probablement une aire du cerveau récemment entraînée à la représentation ondulatoire. Il sera important de pouvoir distinguer les différences d’images cérébrales entre celles entraînées à la mécanique quantique et celles entraînées jusqu’à la représentation ondulatoire. Dans le cas b), les physiciens non-professionnels n’auront pas d’alternative à la représentation de l’objet qu’ils ne voient ni dans l’espace ni dans le temps de parcours dans l’interféromètre. Le résultat c’est que, suivant les hypothèses supposées, les images cérébrales qu’ils produiront seront très différentes.

Pour de bonnes raisons, à priori, nous pouvons conjecturer que beaucoup de l’étrangeté de la mécanique quantique ne résulte pas seulement de l’espace-temps. Mais il y a des résultats théoriques de Carl Bender qui méritent d’être médités[8]. Je le cite : « Par exemple, pourquoi les niveaux d’énergie de l’atome sont-ils  quantifiés ? Pourquoi l’atome ne peut-il avoir que certains niveaux d’énergie et pas d’autres ? Nous ne le comprenons pas parce que nous ne regardons pas dans le plan complexe. Dans le plan complexe, les niveaux d’énergie sont quantifiés. Ils sont lisses et continus. Mais si vous prenez une tranche du plan complexe suivant un axe réel, l’énergie est découpée en points déconnectés. C’est comme si on avait ôté la rampe d’un parking à plusieurs niveaux, laissant ainsi des niveaux déconnectés. »

Cependant, si mon hypothèse fondamentale est validée, il sera possible d’expliquer l’étrangeté que constitue le phénomène de l’intrication

Si, comme je le suppose, on découvre que l’espace-temps n’est pas donné dans la Nature mais que c’est une construction de l’esprit, nous n’aurons pas perdu, pour autant, tout référentiel stable pour décrire l’univers car il y a la lumière, celle-ci est bien sûr réelle dans la nature de notre univers.

 

[1] Un monde en ‘Présence’, article du 02/11/2012

[2] Un monde en ‘Présence’ II, article du 01/01/2013 ;

[3] L’espace-temps a une source…mais pas quantique, article du 01/12/2015

[4] Le livre de Dean Buonomano : ‘Your Brain Is a Time Machine ; The neuroscience and Physics of Time’ W.W. Norton Company.

[5] Dans elife, DOI : 10.7554/eLife.21761

[6] Dans le Journal Nature, volume 546, pages 590-592

[7] Le texte original : « our ability to grasp the concept of time was coopted from (depuis) the neural circuits that evolved to navigate… », cela laisse entendre que les circuits neuronaux pour se situer dans l’espace sont préexistants et offre leurs réseaux premiers pour que soit pris en compte, cérébralement, la valeur temporelle… qu’il faut pour parcourir une distance. Cette thèse de Buonomano est cohérente avec celle de paléoanthropologues tel que Jean Guilaine dans son livre « Une seconde naissance de l’homme ». Voir article du 21/07/2015.

[8] Phys.org, 11/01/2016 : ‘Physicists honored for finding new symmetry in space and time’

Partager cet article

Repost0
3 août 2017 4 03 /08 /août /2017 11:29

Cet article a été écrit directement en anglais pour le soumettre à un site de physique aux E.U.; je n'ai pas le temps ni le courage de le traduire en français. Si quelqu'un veut bien le faire et me le soumettre, je le publierais en gaulois avec plaisir. Ph. M. 

 

A Request for proposal.

                        Abstract: The purpose of the proposed experiment is to evaluate the validity of the fundamental assumption that space-time is a human being’s own (characteristic of human being). The recent highlight, of cognitive properties of humans under situation of specific interactions with the outside world, allows to think that with this experiment we will be able to identify the reasons for some specific quantum mechanics oddities.

First of all, this request for proposal is for a team of neuroscientists controlling brain imaging and prior master protocol definition that allows interpreting the results obtained afterwards in relation to the assumptions involved as firmly as possible.

Taking into account the recent results of the publications I will mention below, as one goes along, in this article, and the first assumptions that I have developed this past decade[1] ; [2] ; [3], the experiment proposed gathered, at that time, all the ingredients which allowed us to think that from this experience we will be able to extract new understandings about the interaction between human beings and nature on the scale of the infinitely small.

The first fundamental assumption that I do is that space-time is a peculiarity to humanity that is, these four dimensions are based on human being from an origin which is probably located at the first time of hominization, i.e. about the order of 2 million years ago or more. I would say space-time is a concept that emerged when a first intelligence invested the need for this concept to be situated on planet Earth in a non-instinctive way. It is important to stress the concomitance of these mutual emergences. I quote: « ‘Your Brain Is a Time Machine’[4] reveals how the enigmatic fourth dimension is essential to our existence and, indeed, fundamental to what makes us human ». So, one must consider that space-time has the value of a determination of the human being.

The experience is intended to see, or not, this determination inherent in the human being. Recent results of experiments reinforce the idea that prospects of discoveries and new understandings would be inferred with this project experience. I quote: ‘Our brains prefer invented visual information to the real thing’[5], and the author's comment: “The brain trusts its own generate information more than what it sees outside in the world”. We quote still: “How quantum trickery can scramble cause and effect’[6]. In this article, the authors tell us: « we are now realizing that in quantum mechanics, it’s not exactly what you do that matters, but what you know. » I note particularly that connection because actually, according to my hypothesis, the human being conveys deep knowledge and especially the specific baggage for a spatial-temporal knowledge of the point situated largely within the "complex entorhinal', see in Mauro M. Monsalve-Mercado et al. ‘Hippocampal Spike-Timing Correlations Lead to Hexagonal Grid Fields’, Physical Review Letters (2017). DOI: 10.1103/PhysRevLett.119.038101 and also in ‘Your Brain Is a Time Machine…’, Dean Buonomano, page 182: “…that our ability to grasp the concept of time was coopted from the neural circuits that evolved to navigate, represent, and understand space”, and more, page 206: “So most of our neural baggage comes from animals that lived, cognitively speaking, in the immediate present.” In conclusion, the faculty to accede to a spatial-temporal knowledge is a deep and generic human faculty.

Consequently, taking account these results and statements that space-time is the own contribution of human being we would be able to identify the reasons for some specific quantum mechanics oddities. I refer to the N. Bohr complementarity’s principle and the quantum superposition’s principle. That means we are faced to the corpuscular aspect or to the undulatory aspect of the quantum object.

To achieve the proposed experience, we must select three categories of people. And thereafter use brain imaging resources. These three categories of observers are placed in front of an interferometer to observe the path of a quantum object within it.

Professional physicists educated in quantum mechanics and other observers educated only in wave physics, finally the third category does include that the non-educated in physics, especially those ignorant of what constitutes the field of the physics of waves. Then experience is to place, these three groups of people equipped with the means of functional MRI observation, successively before the same interferometer. The 1st experience is to observe the brain regions that are activated when a quantum object travels the Interferometer with information space-time everything along its path. The 2nd experience is identical to the 1st but with loss of spatial-temporal information because of the implementation of a semi-transparent device.

What would the possible results be?

a) with a spatiotemporal information on the trajectory, I hypothesize that the brain images would be similar for the 3 categories of people. And the aspect of the quantum object would be punctual.

b) with loss of spatiotemporal information in the path, let's assume that each of the categories of observers would show different brain images since the space-time identification of the brain area will not be solicited or will be taken in default.

In the case a) the space-time identification is an old story, human being has acquired for a long time (with evolution, he has obviously matured) and it could be that the active brain region, in this case, would be at the level of the cortex entorhinal.

In the case b) professional physicists intellectually equipped to compensate for the lack of spatiotemporal information will probably put in activity an area of the brain recently educated for wave representation. It will be important to be able to distinguish differences of brain images between those who have received education up to quantum mechanics and those who did not go beyond the physical wave.

In case b) non-professional physicists will have no alternative to the representation of the object that they do not see in space nor in the travel time in the Interferometer. As a result, according to the proposed hypothesis, the brain images that they will deliver should be very different.

For good reasons, a priori, we can speculate that much of the strangeness of quantum mechanics does not only come under space-time. Yet there are theoretical results of Carl Bender that deserve to be meditated[7]. I cite him: « For example, why are the energy levels in an atom quantized? Why can the atom only have certain energies or not others? We don’t understand this because we don’t look in the complex plane. In the complex plane, the energy levels. In the complex plane, the energy levels are quantized. They are smooth and continuous. But if you take a slice through the complex plane along the real axis, the energy is chopped into disconnected points. It is as though the ramp was removed from a multi-level parking garage, leaving disconnected levels.”

However, if the fundamental hypothesis is validated, it will be possible to explain the phenomenon of entanglement.

            If discovered, as I make the assumption, that spacetime is not given in Nature but is a construction of the mind, we have not lost any referential stable to decrypt the universe because the light is, it is certainly present in the nature of our universe.

 

[1] A world in ‘Presence’ : viXra : 1211.0149

[2] A world in ‘Presence’ II : viXra : 1301.0157

[3] Space-Time has a Source… But not a Quantume Source : viXra : 1512.0339

[4] Dean Buonomano’s book : ‘Your Brain Is a Time Machine ; The Neuroscience and Physics of Time’ W.W. Norton Company, 2017.

[5] In elife, DOI : 10.7554/eLife.21761

[6] In Journal Nature, Volume 546, pages 590-592

[7] Phys.org, 11/01/2016: ‘Physicist honored for finding new symmetry in space and time. 

 

Partager cet article

Repost0
26 juillet 2017 3 26 /07 /juillet /2017 16:57

 Le cerveau est capable d’encoder sa propre position dans l’espace.

Après vous avoir conseillé de découvrir le livre ‘Votre cerveau est une machine du temps’ dans l’article précédent : 19/07/, je ne peux que vous recommander de lire l’article publié dans Phys.Org, le 21 juillet : ‘Nouveau modèle pour l’origine des cellules de quadrillage.’ Article communiqué in extenso à la fin de celui-ci : ‘New model for the origin of grid cells’. Ce modèle est défini pour les mammifères, classe qui inclut évidemment aussi l’Homme. Et qui nous concerne car comme le précise D. Buonomano : « Ainsi la plupart de notre bagage neuronal, provient de celui des animaux… ». Cet article nous confirmerait que le repérage spatio-temporel est un propre de l’être humain.

« Les cellules nerveuses, dans le cerveau identifiées comme cellules de position et cellules de quadrillage, jouent respectivement un rôle crucial pour la navigation spatiale chez les mammifères. Les cellules de position spatiale dans l’hippocampe répondent seulement à quelques localisations spatiales. Les cellules de quadrillage dans l’entorhinal[1] complexe, d’un autre côté, s’embrasent dans des multiples positions dans l’environnement, de façon que des éléments spécifiques (specific sets) sont consécutivement activés quand un animal traverse son habitat. Ce modèle d’activation donne naissance à une carte virtuelle, composée d’un arrangement hexagonal de cellules de quadrillage qui reflète les distances relatives entre des points de repère dans le monde réel. Le cerveau est donc capable de construire une carte virtuelle qui encode sa propre position dans l’espace. »  

« Les auteurs de ce nouvel article attribuent dans leur modèle un rôle central aux corrélations dans la synchronisation des séquences des réponses neuronales générées par les différentes cellules de position. Les éléments de ces catégories de cellules deviennent actifs quand l’animal atteint certaines positions dans l’espace, et ils transmettent des impulsions nerveuses, dans des précises séquences temporelles bien coordonnées, qui suivent un modèle rythmique particulier, et en conséquence encodent les distances spatiales relatives. Les auteurs ont utilisé une règle d’apprentissage neuronal classique, connue comme la règle de Hebb, pour analyser les corrélations temporelles entre les modèles d’embrasement des cellules de position et l’organisation des cellules de quadrillage. Les règles de Hebb postulent qu’une activation répétée (apprentissage) de deux neurones fonctionnelles couplés par une rapide succession augmente progressivement l’efficacité de la transmission synaptique entre eux. En appliquant ce concept de la plasticité de l’activité-dépendance synaptique au modèle de l’embrasement temporel corrélé des cellules de position, les auteurs peuvent rendre compte de la formation des dispositions hexagonales des cellules de quadrillage comme observé au cours de navigation libre des mammifères. »

« Ce nouveau modèle implique que les cellules de quadrillage sont générées par un processus d’apprentissage neuronal…ce modèle prédit donc que les cellules de quadrillage devraient premièrement provenir des couches profondes du cortex entorhinal. »

Enfin pour terminer cet article, je rappelle ce que nous écrit D. Buonomano, page 182 : « Notre habileté à nous saisir de la notion de temps a été cooptée des circuits neuronaux qui développent la navigation, la représentation, et la compréhension de l’espace »

Ainsi je n’ai pas besoin de proposer un commentaire supplémentaire car j’avais d’une façon ou d’une autre, depuis longtemps, préparé le terrain à une rapide compréhension de ces découvertes. Réjouissons-nous du grand bond intellectuel que nous venons de franchir grâce aux publications quasi simultanées dont nous venons de tirer profit à propos de la nature de l’espace-temps et de sa source.

 

New model for the origin of grid cells

July 21, 2017

Ludwig Maximilian University of Munich neurobiologists present a new theory for the origin of the grid cells required for spatial orientation in the mammalian brain, which assigns a vital role to the timing of trains of signals they receive from neurons called place cells.

Nerve cells in the brain known as place cells and grid cells, respectively, play a crucial role in spatial navigation in mammals. Individual place cells in the hippocampus respond to only a few spatial locations. The grid cells in the entorhinal complex, on the other hand, fire at multiple positions in the environment, such that specific sets are consecutively activated as an animal traverses its habitat. These activation patterns give rise to a virtual map, made up of a hexagonal arrangement of grid cells that reflect the relative distances between particular landmarks in the real world. The brain is therefore capable of constructing a virtual map which encodes its own position in space.

The Nobel Prize for Medicine and Physiology 2015 went to the discoverers of this system, which has been referred to as the brain's GPS. However, the developmental relationship between place cells and grid cells, as well as the mechanism of origin of grid cells and their disposition in hexagonal lattices remain unclear. Now LMU neurobiologists Professor Christian Leibold and his coworker Mauro Miguel Monsalve Mercado have proposed a new theoretical model, which for the first time provides a plausible model based on known biological processes. The model implies that the development of grid cells and their response fields depend on synaptic input from place cells. The new findings are described in the journal Physical Review Letters.

The authors of the new paper assign a central role in their model to correlations in the timing of the neuronal response sequences generated by different place cells. The members of these groups become active when the animal reaches certain locations in space, and they transmit nerve impulses in precisely coordinated temporal sequences, which follow a particular rythmic patterns, and thereby encode relative spatial distances. Leibold and Monsalve Mercado have used a classical neuronal learning rule, known as Hebb's rule, to analyze the temporal correlations between the firing patterns of place cells and the organization of the grid cells. Hebb's rule states that repeated activation of two functionally coupled neurons in quick succession progressively enhances the efficiency of synaptic transmission between them. By applying this concept of activity-dependent synaptic plasticity to the correlated temporal firing patterns of place cells, the authors can account for the formation of the hexagonal dispositions of grid cells observed in freely navigating mammals.

"The models so far proposed to explain the development of grid cells on the basis of input from place cells were unspecific about the precises underlying biological mechanisms. We have now, for the first time, been able to construct a coherent model for the origin of grid cells which makes use of known biological mechanisms," says Christian Leibold. The new model implies that grid cells are generated by a neuronal learning process. This process exploits synaptic plasticity to transform temporal coordinated signaling between place cells into the hexagonal patterns of grid-cells reponses observed in the entorhinal complex. The model therefore predicts that the grid cells should first arise in the deep layers of the entorhinal cortex.

https://cf3e497594.site.internapcdn.net/tmpl/v5/img/1x1.gif Explore further: Why grid-cell lattices are hexagonal

More information: Mauro M. Monsalve-Mercado et al. Hippocampal Spike-Timing Correlations Lead to Hexagonal Grid Fields, Physical Review Letters (2017). DOI: 10.1103/PhysRevLett.119.038101

Rajouté abstract du 10/02/2017Abstract

Space is represented in the mammalian brain by the activity of hippocampal place cells, as well as in their spike-timing correlations. Here, we propose a theory for how this temporal code is transformed to spatial firing rate patterns via spike-timing-dependent synaptic plasticity. The resulting dynamics of synaptic weights resembles well-known pattern formation models in which a lateral inhibition mechanism gives rise to a Turing instability. We identify parameter regimes in which hexagonal firing patterns develop as they have been found in medial entorhinal cortex.

DOI:https://doi.org/10.1103/PhysRevLett.119.038101

 

[1] Ce terme ne se trouve pas dans un dictionnaire français ni dans wikipédia. Il faut aller dans le wikipedia anglais pour trouver sa définition et d’excellentes explications. On découvre ainsi pourquoi la langue française s’assèche dans le domaine scientifique et ne suit pas le cours de son temps. Cela signifie aussi qu’il y a assèchement de l’activité scientifique francophone et tout aussi inquiétant : une barrière linguistique installée rendant impossible une large diffusion intellectuelle et culturelle des nouveaux savoirs en direction de la population.

 Le cerveau est capable d’encoder sa propre position dans l’espace.

Après vous avoir conseillé de découvrir le livre ‘Votre cerveau est une machine du temps’ dans l’article précédent : 19/07/, je ne peux que vous recommander de lire l’article publié dans Phys.Org, le 21 juillet : ‘Nouveau modèle pour l’origine des cellules de quadrillage.’ Article communiqué in extenso à la fin de celui-ci : ‘New model for the origin of grid cells’. Ce modèle est défini pour les mammifères, classe qui inclut évidemment aussi l’Homme. Et qui nous concerne car comme le précise D. Buonomano : « Ainsi la plupart de notre bagage neuronal, provient de celui des animaux… ». Cet article nous confirmerait que le repérage spatio-temporel est un propre de l’être humain.

« Les cellules nerveuses, dans le cerveau identifiées comme cellules de position et cellules de quadrillage, jouent respectivement un rôle crucial pour la navigation spatiale chez les mammifères. Les cellules de position spatiale dans l’hippocampe répondent seulement à quelques localisations spatiales. Les cellules de quadrillage dans l’entorhinal[1] complexe, d’un autre côté, s’embrasent dans des multiples positions dans l’environnement, de façon que des éléments spécifiques (specific sets) sont consécutivement activés quand un animal traverse son habitat. Ce modèle d’activation donne naissance à une carte virtuelle, composée d’un arrangement hexagonal de cellules de quadrillage qui reflète les distances relatives entre des points de repère dans le monde réel. Le cerveau est donc capable de construire une carte virtuelle qui encode sa propre position dans l’espace. »  

« Les auteurs de ce nouvel article attribuent dans leur modèle un rôle central aux corrélations dans la synchronisation des séquences des réponses neuronales générées par les différentes cellules de position. Les éléments de ces catégories de cellules deviennent actifs quand l’animal atteint certaines positions dans l’espace, et ils transmettent des impulsions nerveuses, dans des précises séquences temporelles bien coordonnées, qui suivent un modèle rythmique particulier, et en conséquence encodent les distances spatiales relatives. Les auteurs ont utilisé une règle d’apprentissage neuronal classique, connue comme la règle de Hebb, pour analyser les corrélations temporelles entre les modèles d’embrasement des cellules de position et l’organisation des cellules de quadrillage. Les règles de Hebb postulent qu’une activation répétée (apprentissage) de deux neurones fonctionnelles couplés par une rapide succession augmente progressivement l’efficacité de la transmission synaptique entre eux. En appliquant ce concept de la plasticité de l’activité-dépendance synaptique au modèle de l’embrasement temporel corrélé des cellules de position, les auteurs peuvent rendre compte de la formation des dispositions hexagonales des cellules de quadrillage comme observé au cours de navigation libre des mammifères. »

« Ce nouveau modèle implique que les cellules de quadrillage sont générées par un processus d’apprentissage neuronal…ce modèle prédit donc que les cellules de quadrillage devraient premièrement provenir des couches profondes du cortex entorhinal. »

Enfin pour terminer cet article, je rappelle ce que nous écrit D. Buonomano, page 182 : « Notre habileté à nous saisir de la notion de temps a été cooptée des circuits neuronaux qui développent la navigation, la représentation, et la compréhension de l’espace »

Ainsi je n’ai pas besoin de proposer un commentaire supplémentaire car j’avais d’une façon ou d’une autre, depuis longtemps, préparé le terrain à une rapide compréhension de ces découvertes. Réjouissons-nous du grand bond intellectuel que nous venons de franchir grâce aux publications quasi simultanées dont nous venons de tirer profit à propos de la nature de l’espace-temps et de sa source.

 

New model for the origin of grid cells

July 21, 2017

Ludwig Maximilian University of Munich neurobiologists present a new theory for the origin of the grid cells required for spatial orientation in the mammalian brain, which assigns a vital role to the timing of trains of signals they receive from neurons called place cells.

Nerve cells in the brain known as place cells and grid cells, respectively, play a crucial role in spatial navigation in mammals. Individual place cells in the hippocampus respond to only a few spatial locations. The grid cells in the entorhinal complex, on the other hand, fire at multiple positions in the environment, such that specific sets are consecutively activated as an animal traverses its habitat. These activation patterns give rise to a virtual map, made up of a hexagonal arrangement of grid cells that reflect the relative distances between particular landmarks in the real world. The brain is therefore capable of constructing a virtual map which encodes its own position in space.

The Nobel Prize for Medicine and Physiology 2015 went to the discoverers of this system, which has been referred to as the brain's GPS. However, the developmental relationship between place cells and grid cells, as well as the mechanism of origin of grid cells and their disposition in hexagonal lattices remain unclear. Now LMU neurobiologists Professor Christian Leibold and his coworker Mauro Miguel Monsalve Mercado have proposed a new theoretical model, which for the first time provides a plausible model based on known biological processes. The model implies that the development of grid cells and their response fields depend on synaptic input from place cells. The new findings are described in the journal Physical Review Letters.

The authors of the new paper assign a central role in their model to correlations in the timing of the neuronal response sequences generated by different place cells. The members of these groups become active when the animal reaches certain locations in space, and they transmit nerve impulses in precisely coordinated temporal sequences, which follow a particular rythmic patterns, and thereby encode relative spatial distances. Leibold and Monsalve Mercado have used a classical neuronal learning rule, known as Hebb's rule, to analyze the temporal correlations between the firing patterns of place cells and the organization of the grid cells. Hebb's rule states that repeated activation of two functionally coupled neurons in quick succession progressively enhances the efficiency of synaptic transmission between them. By applying this concept of activity-dependent synaptic plasticity to the correlated temporal firing patterns of place cells, the authors can account for the formation of the hexagonal dispositions of grid cells observed in freely navigating mammals.

"The models so far proposed to explain the development of grid cells on the basis of input from place cells were unspecific about the precises underlying biological mechanisms. We have now, for the first time, been able to construct a coherent model for the origin of grid cells which makes use of known biological mechanisms," says Christian Leibold. The new model implies that grid cells are generated by a neuronal learning process. This process exploits synaptic plasticity to transform temporal coordinated signaling between place cells into the hexagonal patterns of grid-cells reponses observed in the entorhinal complex. The model therefore predicts that the grid cells should first arise in the deep layers of the entorhinal cortex.

https://cf3e497594.site.internapcdn.net/tmpl/v5/img/1x1.gif Explore further: Why grid-cell lattices are hexagonal

More information: Mauro M. Monsalve-Mercado et al. Hippocampal Spike-Timing Correlations Lead to Hexagonal Grid Fields, Physical Review Letters (2017). DOI: 10.1103/PhysRevLett.119.038101

Rajouté abstract du 10/02/2017Abstract

Space is represented in the mammalian brain by the activity of hippocampal place cells, as well as in their spike-timing correlations. Here, we propose a theory for how this temporal code is transformed to spatial firing rate patterns via spike-timing-dependent synaptic plasticity. The resulting dynamics of synaptic weights resembles well-known pattern formation models in which a lateral inhibition mechanism gives rise to a Turing instability. We identify parameter regimes in which hexagonal firing patterns develop as they have been found in medial entorhinal cortex.

DOI:https://doi.org/10.1103/PhysRevLett.119.038101

 

[1] Ce terme ne se trouve pas dans un dictionnaire français ni dans wikipédia. Il faut aller dans le wikipedia anglais pour trouver sa définition et d’excellentes explications. On découvre ainsi pourquoi la langue française s’assèche dans le domaine scientifique et ne suit pas le cours de son temps. Cela signifie aussi qu’il y a assèchement de l’activité scientifique francophone et tout aussi inquiétant : une barrière linguistique installée rendant impossible une large diffusion intellectuelle et culturelle des nouveaux savoirs en direction de la population.

Partager cet article

Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens