Overblog
Suivre ce blog Administration + Créer mon blog
13 août 2019 2 13 /08 /août /2019 10:30

Des nouvelles du futur univers.

La future conception, représentation, de l’univers est très probablement déjà en chantier. Elle mènera à l’au-delà de la Relativité Générale (voir article du 14/05/2019 : ‘Chemin escarpé menant au-delà de la Relativité Générale’). Plusieurs articles de ces dernières semaines font enfin référence à cette perspective que je citerai au fur et à mesure. Cette future conception-représentation, de l’univers est en voie d’accouchement dans la douleur à cause de l’incapacité actuelle de mesurer une valeur cohérente de la constante de Hubble : H, qui est la référence pour déterminer la vitesse d’expansion de l’univers. La constante de Hubble est le paramètre cosmologique qui permet de définir l’échelle absolue, la dimension, la structure et l’âge de l’univers ; elle est la grandeur qui permet de quantifier le plus directement comment l’univers évolue. L’incohérence des résultats des mesures de H pourrait être le signal que le modèle standard dominant de la cosmologie est erroné et que nous sommes confrontés à une faille de celui-ci.

Aujourd’hui, nous disposons de trois valeurs mesurées de cette constante :

L’une de ces mesures donne une valeur de la vitesse d’expansion : 74 kilomètres par seconde par mégaparsec[1], l’autre obtenue est égale à 67,4 et la plus récente est de 69,8. Chacune de ces valeurs sont obtenue en utilisant des références astrophysiques standards (jugées comme telles !) différentes dans le ciel. La précision des mesures est suffisante pour affirmer que ces différentes valeurs ne se chevauchent pas à la marge de l’erreur près. La première valeur est obtenue en se référant à l’évolution dans le temps des distances avec la planète terre des supernovas, la deuxième est calculée en étudiant l’évolution du fond diffus cosmologique micro-onde dernièrement observé, avec la plus grande précision, par le satellite Planck et la troisième en observant les étoiles appelées géantes rouges.

Dans l’article du 31/07 de Phys.org au titre suivant : ‘Les scientifiques débattent du sérieux problème posé par la valeur de la Constante de Hubble.’, il est indiqué que les différentes mesures de H obtenues laissent voir un problème majeur en astrophysique car si aucune raison objective ne peut être proposée pour expliquer ces différences, alors les scientifiques dans ce domaine devront repenser complètement comment l’univers fonctionne (sic). Malheureusement, selon moi, les hypothèses paresseuses prévalent encore quand il est évoqué qu’il est possible que différentes sortes d’énergie noire, auraient agi, agiraient, pour faire varier la vitesse d’expansion de l’univers à différentes périodes de son évolution.

« En aucun cas, les chercheurs durant ce meeting n’ont accepté de voter pour signaler une situation de crise sur ce sujet. Seulement quelques-uns étaient près, dès maintenant, à rejeter la théorie dominante qui rend compte comment l’univers fonctionne. »

Je proposerais volontiers l’hypothèse que, contrairement à ce qui est communément considéré, l’univers que nous concevons progressivement n’est pas un, l’unité que nous lui prêtons doit être remise en cause. On peut considérer que les trois différentes valeurs de H obtenues en prenant des références astrophysiques différentes (que l’on considère comme étant chacune des chandelles standards) sont exactes et que celles-ci nous indiquent que l’univers en conception a trois colonnes vertébrales distinctes pour déterminer sa vitesse d’expansion. De fait notre univers n’est pas un, il n’est pas si homogène comme l’on veut bien le penser, l’unité que nous avons ‘vu’ jusqu’à présent indique que nous avons projeté cette pensée réductrice de l’unité pour mieux le saisir et l’investir en fonction de nos connaissances actuelles et il faut maintenant concevoir au-delà de cette réduction et considérer et accepter que grâce à cette conception intermédiaire provisoire nous avons de toutes façons acquis une compréhension certes partielle mais très utile de notre univers. Il en est de même pour le Big Bang, c’est une origine provisoire mais qui fut nécessaire car l’être humain a besoin de poser sa pensée sur une origine pour, à partir de là, déployer celle-ci. Il suffit pour s’en convaincre de recenser toutes les cosmogonies successives que l’humanité a inventé tout au long de son évolution. Nous sommes certainement au bord d’un changement de cosmogonie.

Si notre univers a au moins trois colonnes vertébrales distinctes c’est qu’il y a au moins ‘trois types d’univers’ distincts qui se chevauchent sans qu’ils soient identiques, cela correspond à l’ébauche de la conception de ce que l’on appelle un multivers qu’un univers bien pensé finira par recouvrir dans une unité et ainsi de suite.

Prendre en considération cette hypothèse, cela implique de se démarquer de la conception dominante de l’univers selon les critères de la Relativité Générale (voir livre de L. Smolin : ‘La renaissance du temps[2]’) car cela implique de s’émanciper du concept singulier de l ’univers bloc’.

Un autre article datant du 2 Août dans phys.org : ‘Energie noire vs. Gravité modifiée : quelle est celle qui prévaudra ?’, indique que l’hypothèse de la gravité modifiée doit être prise au sérieux et cela va à l’encontre de la R.G.

Cet article s’ouvre en présentant la problématique suivante : « La théorie de la Relativité Générale (R.G) prédit l’existence de l’énergie noire – une mystérieuse forme d’énergie qui favorise l’accroissement de la vitesse de l’expansion de l’Univers. Mais qu’advient-il, si Einstein avait tort et qu’il n’y ait pas une telle chose comme l’énergie noire ? Le projet ‘GalaxyDance’ (Danse de Galaxies) vise à fournir une réponse à cette question… Quand on va plus loin et plus profondément dans nos observations de l’Univers, nous sommes de plus en plus perplexes par quelques-unes de ses propriétés. L’une d’entre elles est l’accélération de l’expansion de l’espace-temps qui est présentement attribuée à l’énergie noire. Mais la vérité c’est que nous devons considérer l’énergie noire seulement si la théorie de la gravité d’Einstein est valide à toutes les échelles du cosmos. Il y a d’autres explications possibles pour l’accélération de l’expansion qui ne requière pas l’énergie noire. Ces théories vont au-delà de la R.G. et sont communément appelées ‘gravité modifiée’. Tester la R.G et ses alternatives à l’échelle intergalactique est donc pressant et important pour comprendre l’astronomie extragalactique et c’est le propos du projet ‘GalaxyDance’. »

« Déjà grâce aux résultats obtenus en exploitant des données et en exploitant des moyens importants informatiques permettant de réaliser des simulations nous avons identifié un signal fort en faveur de la gravité modifié… Nous prévoyons d’ajouter dans notre modèle des données indiquant les couleurs des galaxies, leur luminosité et leurs formes. Cela nous permettra de créer un catalogue artificiel de galaxies montrant ce qui aurait été créé dans un univers déterminé[3] par une loi alternative à la théorie de la gravité d’Einstein. »

Finalement, le projet ‘GalaxyDance’ à la vocation suivante : « Si éventuellement nos tests fournissent une signature d’une nouvelle physique prévue au-delà de R.G., cela secouera notre façon courante de rendre compte de l’évolution du cosmos aux grandes échelles. D’un autre coté si notre enquête renforce la relativité générale cela signifiera que nous devrons avec conviction et force chercher pour enfin expliquer le mystère de l’énergie noire. »

Finalement, je propose que dans cette rubrique : ‘des nouvelles de l’univers du futur’, soit étudié l’article du 06/08 de Futura-Sciences qui nous affirme : « Dans tous les cas, matière noire et énergie noire pourraient en fait n’être que des effets d’une théorie relativiste de la gravitation autre que celle d’Einstein. » Des alternatives à la théorie de la gravitation d’Einstein se comportent comme si une cinquième force existait. Les particules associées à cette cinquième force ont des caractéristiques qui changent en fonction de la densité de matière présente. Des simulations numériques montrent que ces alternatives à la R.G. peuvent rendre compte de la naissance des galaxies en plus de l’énergie noire.

Cette cinquième force est illustrée par un champ scalaire adoptant une sorte d’effet caméléon (sic). On parle alors d’une gravité caméléon.

Comme Futura l'expliquait dans l'article du 16/02/2009 : « Un champ caméléon a des caractéristiques qui dépendent de la densité de matière dans la région où il est présent. Une forte densité conduira par exemple à une forte masse pour la particule associée au champ scalaire, qui se comportera alors aussi comme les fameux mésons pi de Yukawa décrivant les forces entre nucléons dans les noyaux. Dit autrement, les particules caméléons auront une très faible portée et leurs effets ne seront pas sensibles dans les mesures d'orbites faites, par exemple, dans le Système solaire. À l'inverse, la masse des particules caméléons devient faible à des échelles de distance bien plus grandes du fait des faibles densités moyennes. L'effet de la cinquième force devient alors notable et ce serait donc notamment l'énergie noire.

Ce qu'ont réussi à montrer les chercheurs de Durham, c'est qu'une gravité caméléon est bel et bien en mesure de rendre compte de la formation et des caractéristiques des galaxies, en particulier spirales, que l'on observe.

Cela ne prouve pas que la gravitation caméléon est bien une bonne description du cosmos observable, mais cela prouve en tout cas que c'est une voie de recherche sérieuse qu'il va falloir explorer plus complètement.

 

[1] 1 parsec = 3,26 années-lumière, 1mégaparsec = 1 million de fois plus, soit = 3,260 000 A.L ; 1 A.L = 1013km

[2] Page 75 : « Et l’histoire complète du monde est, en relativité générale, toujours représentée par un objet mathématique. L’espace-temps de la relativité générale correspond à un objet mathématique bien plus complexe que l’espace-temps Euclidien à trois dimensions de la théorie de Newton. Mais vu comme un univers bloc, il est intemporel et inaltérable, sans distinction entre futur et passé et sans place pour, ni signe de, notre conscience du présent. »

[3] On ne peut ignorer que notre connaissance de l’univers est partielle, donc en devenir, et les possibilités de comparaison seront succinctes. Ainsi le 7 Août il a été publié dans Phys.org, l’article : « Astronomers discover vast ancient galaxies, which could shed light on dark matter » avec le commentaire suivant : « C’est la première fois que l’on fait une découverte multiple de cette sorte, et une telle abondance de ce type de galaxie défie les modèles courants de l’univers (sic). »

Partager cet article
Repost0
29 juillet 2019 1 29 /07 /juillet /2019 11:47

L’émergence de la complexité en poésie : « Soleils couchants » de P. Verlaine

C’est avec un grand intérêt que j’ai rencontré l’article, ci-dessus nommé, sur le site de ‘Nature’ du 23 juillet. Je présente quelques extraits les plus explicites de l’article de 12 pages et traduits par mes soins. J’apprécie ces tentatives de décloisonnement et sur le sujet traité je les appelle comme j’ai déjà pu le faire dans l’article : ‘Faire alliance avec les linguistes pour avancer’ du 11/07/2012. La coopération des physiciens avec les paléoanthropologues et anthropologues serait aussi à mon avis cause d’avancées significatives.

Abstract.

Ce travail explore l'émergence de la complexité dans la poésie basée sur l'analogie entre la poétique de l'évocation et la physique des systèmes complexes. À cette fin, nous discutons d'abord des concepts clés de la physique des systèmes complexes, tels que l'émergence, l'ouverture et la grande variabilité. Il est alors suggéré qu'un poème puisse être considéré comme un système complexe représentatif. L'émergence de la complexité dans la poésie est encore sondée dans le contexte de la poétique de l'évocation. À titre d'exemple, nous démontrons comment la complexité poétique peut effectivement être réalisée, à travers l'analyse du poème de Verlaine, "Soleils couchants"[1]. De cette façon, nous proposons une convergence remarquable de la poétique et de la physique, donnant des résultats significatifs pour les deux domaines. Du côté de la poétique de l'évocation, sa caractéristique essentielle, les « mystères pertinents » qui donnent lieu à la grande variabilité des interprétations, est vérifiée ; du côté de la physique des systèmes complexes, les concepts de complexité sont validés pour fournir une meilleure compréhension de la littérature ainsi que des phénomènes naturels et sociaux

Introduction

La linguistique moderne a vu le jour au début du XXe siècle, comme de Saussure a déclaré dans « l'étude scientifique de la langue » (de Saussure, 1916, p. 20). De même, la poésie moderne adoptant une telle approche linguistique a commencé avec la poétique structuraliste de Jakobson qui a introduit des méthodes analytiques objectives au milieu du XXe siècle (Jakobson, 1960, p. 350, 1963, p. 210). Au début de cette poétique structuraliste, un texte poétique était considéré comme un système isolé, qui facilitait la poétique structuraliste pour mettre en place une méthodologie scientifique pour l'analyse formelle des textes. Cette perspective est similaire au point de vue de la physique : la matière se compose de composants interagissant les uns avec les autres, au moyen desquels divers phénomènes physiques pourraient être compris.

Par rapport aux approches traditionnelles, l'approche structuraliste a donné rationalité et objectivité à l'étude de la poésie. Cependant, il y a des limites dans cette approche, ne tenant pas dûment compte des aspects sémantiques. De plus, un texte poétique, avec son autonomie surestimée, est isolé du monde qui l'entoure. Si nous comparons cela à l'étude de la vie, cela revient à observer l'organisation structurelle des organes individuels seulement. Le manque d'environnements dans l'étude de la vie devrait se traduire par une compréhension insuffisante et restreinte de la nature des phénomènes de vie, parce que les phénomènes de la vie sont livrés et maintenus essentiellement par des échanges d'informations entre l'organisme vivant et l'environnement.

Ici, la poétique prônant la pensée scientifique rencontre des difficultés. Pour surmonter ces difficultés, il est nécessaire d'attirer l'attention sur la physique des systèmes complexes, qui sont apparus à la fin du XXe siècle Nous montrons en particulier comment les concepts de complexité, c'est-à-dire l'émergence d'une grande variabilité dans un système ouvert de composants en interaction, pourraient fournir un indice sur les fondements scientifiques de la poétique de l'évocation. En outre, la théorie des systèmes complexes en physique ne concerne pas seulement la matière conventionnelle, mais aussi le rôle de l'information pour l'interprétation des phénomènes naturels, y compris la vie ainsi que la société.

En ce sens, nous proposons d'étudier l'émergence de la complexité de la poésie à travers l'analyse du poème de Verlaine, "Soleils couchants" (Verlaine, 1996). Notre analyse du poème est basée sur le principe formel du parallélisme et sur le principe sémantico-cognitif du stéréotypé dans la poétique de l'évocation. L'interaction de ces deux principes rend la représentation plus évocatrice que le poème lui-même.

Ce document se compose de quatre sections. Dans la section « Systèmes complexes et complexité : vie et poésie », les caractéristiques des systèmes complexes en physique sont discutées tandis que la section « Émergence de la complexité dans les « Soleils couchants » de Verlaine est consacrée à l'analyse de la complexité de la poésie réfléchie sur la poétique de l'évocation. L'interprétation des « Soleils couchants » de Verlaine du point de vue de systèmes complexes est également discutée. Enfin, la section « Conclusion » résume et conclut nos principaux résultats.

Systèmes complexes et complexité : vie et poésie.

La théorie des systèmes complexes a été développée pour comprendre divers phénomènes complexes dans la matière, la vie et la société dans les perspectives de la connaissance universelle. La théorie a été établie à l'origine en physique et a étendu son champ d'application aux sciences sociales et humaines ainsi qu'aux arts (Voss et Clark, 1978 ; Morin, 1990 ; Morin et Le Moigne, 1999 ; Rigau et coll., 2008). Dans ce nouveau cadre, nous soutenons que la vie pourrait être mieux comprise en termes d'échange d'informations entre un organisme vivant et l'environnement environnant, plutôt que de simples fonctions biologiques comme on le considère traditionnellement. Dans cette section, nous explorons en détail les analogies étroites entre la vie et la poésie.

En physique, un système complexe est constitué par un système à nombreuses particules affichant la complexité. Bien qu'il n'existe pas de définition précise de la complexité (sinon le système n'est peut-être plus complexe), elle se caractérise généralement par une grande variabilité découlant d'interactions non linéaires entre les composants. Plus précisément, un système complexe est souvent décrit par les trois caractéristiques suivantes : premièrement, un système complexe est un système à particules nombreuses avec un grand nombre de composants. Les interactions non linéaires entre les composants entraînent l'émergence de propriétés collectives irréductibles pour les différentes composantes. Par conséquent, en observant le système complexe dans des vues à grain fin (fine-grained) ou grossier (coarse-grained), on trouve de nouveaux détails et de la diversité présents à chaque niveau et des structures auto-organisées à chaque dimension. Deuxièmement, un système complexe est un système ouvert. En conséquence, un système complexe continue d'échanger de l'énergie et/ou de l'information avec son environnement environnant, et laisse apparaître l'émergence de nouveaux états, tandis qu'un système fermé isolé du monde extérieur doit atteindre un équilibre. Troisièmement, un système complexe implique une grande variabilité à la frontière de l'ordre et du désordre. Cela signifie que le système complexe construit une structure modérément stable entre l'ordre et le désordre, et possède une flexibilité vers de nouvelles possibilités.

Nous soutenons que cette idée pourrait également s'appliquer à l'œuvre littéraire. Les consonnes et les voyelles font une syllabe, et les syllabes font un mot. Dans la consonne et la voyelle, en tant que plus petite unité de langage, le sens et le concept n'existent pas encore ; ils émergent au niveau d'un mot qui est fait d'une combinaison de consonnes et de voyelles. En dépit d'être une création de l'homme, une syllabe est analogue à une cellule qui est formée par des atomes et des molécules et donne lieu au phénomène de la vie. De même, un tissu ou un organe, fait de cellules, peut être comparé à une clause ou une phrase composée de mots. En outre, un organisme, formé à partir de tels tissus et organes, correspond à une œuvre littéraire, qui est construite de phrases. Dans un poème ou un roman créatif, diverses interprétations sont permises en fonction des interactions entre les composantes ; une telle variabilité de l'interprétation correspond à la complexité présente dans un système complexe.

Comme la vie est organisée hiérarchiquement à partir d'atomes, de molécules, de cellules, d'organes, etc., le langage est organisé à partir de phonèmes, de syllabes, de mots, de clauses, de phrases, etc. En outre, la grammaire de la langue régule les relations entre les composantes d'une phrase. Une telle grammaire, comme l'information héritée d'un organisme vivant, est transférée de génération en génération.

En général, le discours poétique se caractérise par deux types d'organisation. Comme tout autre type de discours, il obéit à la grammaire. En outre, contrairement à d'autres types de discours, le discours poétique obéit à un principe formel du parallélisme (aux niveaux métrique, phonologique, morphologique, syntaxique et sémantique). Cette double organisation donne à son tour lieu à une double lecture dans le processus d'interprétation de la poésie. D'une part, la lecture linéaire grammaticale permet la représentation sémantique de la poésie donnée. D'autre part, la lecture non linéaire du principe formel permet son interprétation symbolique, cette fois basée sur le principe sémantico-cognitif du stéréotypé. A ce stade de l'interprétation symbolique, l'information acquise dans le processus d'une vie individuelle, à savoir, les expériences individuelles dans le contexte socioculturel, joue un rôle important.

Émergence de la complexité dans les "Soleils couchants" de Verlaine

Nous analysons maintenant un poème de Verlaine. En particulier, nous examinons comment les caractéristiques des systèmes complexes se manifestent dans le poème, en prêtant attention à l'émergence de la complexité induite par la frustration. Le concept de frustration a d'abord été introduit comme l'expression de « l'attente frustrée » dans la poétique structuraliste, qui se consacre uniquement à l'analyse formelle (Jakobson, 1963). Ici, nous cherchons à étendre le concept de frustration, afin qu'il puisse être appliqué davantage à l'interprétation dans les perspectives de la poétique de l'évocation.

A ce niveau je ne donne que les titres des paragraphes correspondants à l’étude très riche des soleils couchants :

Schéma des rimes dans ‘Soleils couchants’

Conclusion

Dans cette étude, nous avons analysé le poème de Verlaine « Soleils couchants » pour sonder l'émergence de la complexité dans la poésie, basée sur l'analogie entre la poétique de l'évocation et la physique des systèmes complexes.

Pour conclure, nous avons poursuivi une rencontre pionnière de la poétique et de la physique dans la perspective de théories de systèmes complexes, qui est, à notre connaissance, la première tentative d'obtenir des résultats significatifs à la fois dans la poétique et la physique. Du point de vue de la poétique, la caractéristique essentielle de la poétique de l'évocation, qui consiste à attirer l'attention sur les « mystères pertinents » qui donnent lieu à la grande variabilité des interprétations, a été vérifiée dans le cadre théorique de systèmes complexes.

Au nom de la physique, la théorie des systèmes complexes a été appliquée à la poésie au-delà des phénomènes naturels et sociaux, ce qui élargit encore l'horizon des méthodologies physiques. En outre, nos travaux ont élargi le champ de la recherche interdisciplinaire, qui offre éventuellement des possibilités d'études intégrées d'importance dans les sciences et les sciences humaines.

Je tiens à féliciter et remercier In-Ryeong Choi, J.W. Kim et M.Y. Choi pour avoir réalisé ce travail pionnier qui, espérons-le, inspirera d’autres entreprises de cette nature à l’avenir.

 
[1] Soleils couchants

Paul Verlaine

Une aube affaiblie
Verse par les champs
La mélancolie
Des soleils couchants.
La mélancolie
Berce de doux chants
Mon cœur qui s’oublie
Aux soleils couchants.
Et d’étranges rêves,
Comme des soleils
Couchants sur les grèves,
Fantômes vermeils,
Défilent sans trêves,
Défilent, pareils
À de grands soleils
Couchants sur les grèves.

Paul Verlaine, Poèmes saturniens

 

Partager cet article
Repost0
22 juillet 2019 1 22 /07 /juillet /2019 13:14

Ai-je fait si fort ?

Après avoir lu mon dernier article du 9 juillet quelqu’un m’a dit : « Cette fois-ci tu as fait fort », à propos de la corrélation que j’établis entre l’assurance de la pétrification de l’être humain si jamais dans sa conquête intellectuelle de l’univers il rencontrait l’obstacle qui signifierait ‘à partir de là, il n’y a plus d’au-delà’. Je remercie cette personne de m’avoir fait cette remarque alors que je commençais à lire : ‘Une histoire des civilisations’, ouvrage collectif, sous la direction de J.P. Demoule, éditions La Découverte/Inrap, 2018.

 Page 23, il y a ce paragraphe avec un intitulé explicite : ‘La découverte de la continuité entre l’histoire de l’homme et celle de la nature’. Plus loin page 51 : « Il est établi maintenant qu’Homo sapiens a étendu son emprise sur l’ensemble de la planète, jusque dans ses zones les plus inhospitalières. Il a entrepris d’explorer les fonds marins les plus inaccessibles et s’est aventuré dans l’espace pour poser le pied sur la Lune et bientôt sur Mars. Son impact sur l’environnement physique, la faune et la flore est immense…au cours de la longue histoire de la vie, aucune espèce n’avait été à ce point dominante. Pourtant du point de vue de la parenté, l’homme ne représente qu’une espèce au sein d’un groupe de grands Primates autrefois très varié mais dont la diversité est aujourd’hui considérablement appauvrie. »

A grands traits suivons la trajectoire de l’évolution d’Homo sapiens dont les milliards d’humains qui occupent aujourd’hui la planète Terre en sont les descendants et représentants d’une étape spécifique de l’évolution qui n’a pas de raison d’être à sa fin.

Très loin dans le temps, avec des changements environnementaux (refroidissement) la divergence homme /chimpanzé est datée entre 9,3 et 6,5 millions d’années (Il y eut d’autres divergences encore plus avant). Les premiers jalons de la lignée menant à l’homme ont tous été découverts en Afrique, qui est généralement considérée comme le continent d’origine des Hominines. Les Australopithèques représentent la lignée des Hominines à partir de 4,2 millions d’années. Ils étaient parfaitement bipèdes mais ils ne semblaient pas avoir été bâtis pour la course, du moins pour une course prolongée, comme le seront plus tard les représentants du genre Homo à partir de 2 millions d’années. Entre 3 et 2,6 millions d’années, l’Afrique connaît une des crises climatiques qui ont périodiquement accru l’aridité et réduit les surfaces arborées. C’est pendant cet épisode que l’on voit apparaître la lignée Homo à laquelle appartient notre espèce. L’idée la plus communément admise est que l’apparition du genre Homo correspond à une réponse adaptative originale face à une aridité croissante : un changement de régime alimentaire qui inclut de plus en plus de viande. A cette époque on compte déjà trois formes bien distinctes : Homo habilis, Homo rudolfensis et Homo erectus, ces trois espèces possèdent des cerveaux dont le volume dépasse 700 centimètres cubes. C’est Homo erectus qui représente très vraisemblablement notre ancêtre direct.

Homo erectus en Afrique et en Eurasie[1].

La première expansion de l’espèce humaine avec Homo erectus à une échelle transcontinentale correspond au remplacement, ou peut s’en faut, à toutes les autres formes d’Hominines. Ce développement remarquable résulte du succès du nouveau modèle adaptatif qui permet en particulier aux hommes de se libérer des milieux arborés et, au-delà, des savanes africaines et puis de s’adapter à des environnements très variés. D’ailleurs l’espèce Homo erectus connait une longévité exceptionnelle puisqu’elle est connue en Extrême Orient jusque vers 400 000-300 000 ans avec des capacités crâniennes de 1250 cm3.

La descendance d’Homo erectus

« Tout au long de sa longue période d’existence, Homo erectus se diversifie et évolue, notamment par l’accroissement de la taille de son cerveau. De nombreux fossiles appartenant à cette espèce ont été découverts en Chine et Java (sic).

En Afrique, on assiste à l’émergence de formes d’Hominines à grands cerveaux. C’est sans doute en leur sein, ou parmi des formes similaires vivant dans le sud-ouest de l’Asie, que s’enracinent les populations ancestrales des espèces nouvelles qui vont apparaître, pendant la seconde moitié du Pléistocène moyen (780 000-130 000ans), les Néandertaliens, les Dénisoviens et les premiers Homo sapiens. »

La date de séparation des formes ancestrales des Néandertaliens et des Homos sapiens se situe autour de 600 000 ans.

Les origines d’Homo sapiens sont africaines et c’est à partir de ce continent-là qu’il va, au-delà, coloniser le reste de la planète Terre. On a découvert des traces de sa présence vieilles de 180 000 ans en Israël, dès avant 60 000 ans il devait être présent dans le Sud-Est asiatique puisque vers cette époque il a atteint l’Australie. Page 73 : « Au cours des derniers 40 000 ans, Homo sapiens parachève la colonisation des terres émergées. Les réponses techniques qu’il est désormais capable de développer lui permettent de s’adapter à des environnements de plus en plus extrêmes. Dès avant le dernier maximum glaciaire, qui culmine il y a 21 000 ans, des populations humaines ont été capables de prospérer beaucoup plus haut en latitude qu’aucune autre avant elles… Quelques millénaires plus tard, les terres émergées par la baisse des niveaux marins entre l’Alaska et l’Asie ont-elles aussi été peuplées. Vers les 15 000 ans un corridor libre de glace s’est ouvert favorisant une nouvelle voie de passage le long de la côte pacifique vers des territoires des Etats-Unis actuels situés plus au Sud. » ; « Comme des dizaines de milliers d’années auparavant en Australie, l’arrivée des hommes en Amérique a eu un impact considérable sur la faune. A la différence de l’Afrique et de l’Asie tropicale, ces deux continents n’ont pas connu une longue coévolution des peuplements humains et des faunes sauvages. En Amérique du Nord, trente-cinq genres de mammifères disparaissent rapidement… D’une certaine façon, on peut considérer l’expansion de l’homme dans des territoires vierges et l’extinction des dernières populations d’Hominines archaïques comme les prémices les plus anciennes de l’«Anthropocène », cette période durant laquelle l’homme a profondément modifié l’environnement de la planète. » 

Issus d’une lente évolution africaine, les Homo sapiens qui ont émergé il y a quelque 300 000 ans au fil, entre autres, de la sélection naturelle, à partir d’un buissonnement d’Hominines presque 2000 000 d’années plus tôt, vont progressivement conquérir, sans coup férir, de nouveaux espaces de vie en dehors de l’Afrique. On leur prête de développer des capacités de stratégies de subsistance spectaculaires et d’être les vecteurs d’innovations techniques[2] avec un penchant pour l’anticipation ce qui leur permet de promouvoir des solutions flexibles en réponse à des besoins aussi immédiats que futurs (sic).

Le remplacement des espèces humaines préexistantes s’achèvera avec la disparition des Néanderthaliens, alors que le nord de l’Asie ainsi que la totalité du continent américain est encore vierge de toute présence humaine. Malgré la Présence exclusive alors établie d’Homo sapiens il y a 40 000 ans, une dynamique de conquête de ce qui est encore inconnu contribue à la dynamique de l’évolution de l’espèce humaine et rien ne permet de penser que l’entrelacement de ces dynamiques n’a plus de raison d’être.

Je me souviens à quel point j’avais été frappé par l’inanité du contenu du livre de H. Zwirn, intitulé : ‘Les limites de la connaissance’ publié en 2012, qui indique surtout qu’une spécialisation hypertrophiée des connaissances conduit, si on y prend garde, à la production de certitudes absurdes, en dehors de toute Histoire. Comme si l’être humain lorsqu’il préempte qu’il y aurait des limites qui se dressent sur le chemin de la connaissance ne percevrait pas concomitamment les raisons de ces limites et partant conçoit le chemin qui mène au-delà de celles-ci.

Il ne peut pas y avoir d’évolution des Homo sapiens que nous sommes sans objectifs de conquêtes qu’ils soient dans l’espace physique actuellement identifié ou dans l’espace des pensées ouvertes qui nous projettent dans un avenir de connaissances encore à investir. On pourrait se dire : « Mais nous avons déjà identifié tant de choses, par exemple dans l’espace physique de notre univers, que les jalons sont déjà fixés pour une prospection concrète qui mobilisera des générations et des générations de spécialistes et fixera la curiosité d’une multitude d’individus. » Justement ces connaissances en voie de confirmation ou d’infirmation, bref ces connaissances qui nous enseignent à séparer le bon grain de l’ivraie, mobilisent d’autant plus qu’elles alimentent le tremplin qui permet à coup sûr de dévoiler d’autres au-delà.

Parmi tous ceux du genre Homo qui ont fait partie du buissonnement, les anthropologues ont décrypté la faculté spécifique qui a permis à Homo sapiens de survivre qu’elles que furent les conditions imposées par l’environnement. Cette faculté est celle de l’anticipation qui permet de promouvoir des solutions flexibles en réponse à des besoins aussi immédiats que futurs. L’appréhension du futur[3] est un atout majeur et est une source de vie au-delà du biologique pur. Il faut comprendre que la réponse adéquate, à la curiosité immédiate et aux besoins immédiats est celle qui dévoile ceux du futur. Il est impossible de penser qu’au-delà de certaines limites il n’y aurait plus matière à la moindre anticipation car ce serait certainement le signal de l’affaissement de ce qui fait de nous des sujets pensants qui conduirait à notre pétrification.

Après coup, j’ai un très bel exemple récent à citer (article publié le 12 juillet) pour illustrer la faculté d’anticipation qui nous caractérise :

                Au centre de deux galaxies en train de fusionner à 2,5 milliards d’années-lumière de la planète Terre, deux trous noirs supermassifs de 400 millions de masse solaire qui se trouvent à distance de 1300 années-lumière l’un de l’autre vont entamer leur danse spirale jusqu’à l’union complète. A partir de cette observation exceptionnelle, il est possible d’inférer qu’il y aurait en ce moment 112 trous noirs supermassifs binaires plus ou moins proches de nous qui génèrent des ondes gravitationnelles. Selon les projections, la prochaine collision pourrait être captée d’ici cinq ans (sic). Dans un avenir proche, c’est un bruissement gravitationnel à notre portée presque permanent qu’il sera possible de détecter. Avec cet exemple se trouve illustré ce que j’ai affirmé précédemment : « Bref ces connaissances qui nous enseignent à séparer le bon grain de l’ivraie, mobilisent d’autant plus qu’elles alimentent le tremplin qui permet à coup sûr de dévoiler d’autres au-delà. » Comme le dit Michael Strauss, astrophysicien à Princeton : « Plus nous pourrons apprendre sur la population de trous noirs en fusion, mieux nous comprendrons le processus de formation des galaxies et la nature du fond des ondes gravitationnelles »

 

 

[1] La première « sortie » d’Afrique des Hominines, sans doute avant 2 millions d’années, est à concevoir comme un phénomène progressif, en plusieurs vagues échelonnées sur des dizaines de millénaires, sans cause particulière si ce n’est une adaptation progressive à de nouveaux territoires – l’Europe, en raison d’un climat moins favorable, n’ayant été colonisée que tardivement.

[2] La transformation systématique de l’os en outil par le biais d’une technologie propre à ce matériau est, semble-t-il une marque de fabrique du genre Homo, voire de l’espèce sapiens.

[3] Le 17 juillet on peut lire dans ‘Physicsworld’ un article qui confirme que la nature est régie par une flèche du temps qui pointe en avant dans les systèmes à l’échelle quantique : « Arrow of time points forward in quantum systems »

 

Partager cet article
Repost0
9 juillet 2019 2 09 /07 /juillet /2019 09:42

Un début de démystification

            ‘Lost in Maths’, ‘Perdus en Maths’ : Comment la beauté égare la physique, de Sabine Hossenfelder, est enfin publié en français, 18 mois après sa publication en anglais. Dès le début de sa parution, le livre a acquis une certaine notoriété parce que disons-le : « Franchement l’auteure mettait les pieds dans le plat. » (Voir article : « La vérité laide » du 20/03/2018). La démystification est une très bonne chose, elle est nécessaire pour que les scientifiques réfléchissent sur leurs pratiques, leurs croyances, leurs illusions, et comprennent collectivement ce qui les a conduits dans une impasse et cela dure depuis plus de 30 ans[1]. Ayant, à plusieurs occasions dans mon blog, écrit des articles dénonçant des dérives inquiétantes concrètes sur des sujets de physique, je ne peux que vous conseiller de lire ce livre édité aux ‘Belles lettres’. Une des critiques principales développée par l’auteure concerne la croyance que les mathématiques sont obligatoirement des révélateurs de vérités scientifiques alors qu’elle en a une conception bien plus pragmatique, page 20 : « En physique, les théories sont faites de maths. Nous ne nous servons pas des maths parce que nous tenons tant que ça à effrayer les gens qui ne connaissent pas la géométrie différentielle et les algèbres de Lie graduées. Non, nous nous en servons parce que nous sommes des idiots. Les maths nous obligent à rester honnêtes – elles nous empêchent de nous mentir, à nous-mêmes et aux autres. Avec les maths, on peut se tromper, mais on ne peut pas mentir. » ; page 22 : « Si elles nous contraignent à rester honnêtes, elles sont aussi la terminologie la plus économique et la moins ambiguë que nous connaissions. Le langage est malléable ; il dépend du contexte et de l’interprétation. Les maths, elles, ne s’embarrassent ni de la culture ni de l’Histoire. Quand mille personnes lisent un livre, chacune lit un livre différent. Alors que quand mille personnes lisent une équation, cette dernière est la même pour tous. »

            Ce qui est original dans ce livre c’est la tentative d’expliquer le mode de fonctionnement de la communauté scientifique et de répertorier les multiples biais qui sont en jeu dans cette communauté qui sont autant de freins voire d’obstacles à l’émergence de l’esprit critique si nécessaire à la production scientifique :

            Vénérer la beauté et vouloir s’adapter sont deux traits humains. Mais ils faussent notre objectivité. Ce sont des biais cognitifs qui empêchent la science de fonctionner de façon optimale, et pour l’heure, personne ne les prend en considération. Ce ne sont pas les seuls biais dont les théoriciens sont affligés. Le biais de désirabilité sociale est un effet secondaire de notre besoin de nous intégrer au sein d’un groupe afin de survivre. Cela conduit à émettre des opinions dont en pense qu’elles seront bien accueillies.

            « Mais la science est affectée par d’autres biais sociaux et cognitifs dont nous ne sommes pas aussi familiers. Le raisonnement motivé en est un. Il nous fait croire que les résultats positifs sont plus probables qu’en réalité. Vous vous souvenez d’avoir entendu dire que le LHC allait probablement découvrir des preuves d’une physique allant au-delà du modèle standard ? Que ces expériences allaient sans doute trouver des preuves de l’existence de la matière noire d’ici un ou deux ans ? Ah, on continue à le dire ? »

            Il y a aussi des coûts irrécupérables, autrement les investissements en pure perte. Plus vous avez consacré d’efforts et de temps à la supersymétrie, moins vous serez disposé à renoncer, même si les chances semblent être de plus en plus contre vous. Nous continuons à faire ce que nous avons fait longtemps après que les projets ont cessé d’être prometteurs (sic). » ; « Le biais endogène nous fait croire que les chercheurs dans notre domaine sont plus intelligents que les autres… » ; « Le renforcement communautaire peut transformer les communautés scientifiques en chambres d’écho où les chercheurs se renvoient inlassablement leurs arguments, se rassurant constamment sur le bien-fondé de ce qu’ils sont en train de faire. » ; « Et il y a le pire biais de tous, celui qui consiste à affirmer avec insistance que nous n’avons pas de biais du tout. C’est la raison pour laquelle mes collègues se contentent de rire (sic) quand je leur dis que les biais posent problème et rejettent mes « arguments sociaux », convaincus qu’ils n’ont pas d’impact sur le discours scientifique. » ; « Nous ne sommes pas capables d’abandonner des orientations de recherche qui se révèlent stériles ; nous avons du mal à intégrer de nouvelles informations ; nous ne critiquons pas nos collègues parce que nous avons peur de devenir « socialement indésirables ». « Nous méprisons les idées qui sortent des sentiers battus parce qu’elles viennent de gens qui ne sont pas comme nous. Nous jouons le jeu dans un système qui empiète sur notre indépendance intellectuelle parce que c’est ce que tout le monde fait. Et nous affirmons que notre comportement est valide sur le plan scientifique, qu’il ne repose que sur un jugement impartial, car il est impensable que nous soyons influencés par des effets sociaux et psychologiques, si avérés soient-ils. »

            Je cite abondamment l’auteure parce qu’elle est parfaitement intégrée dans son milieu et elle a donc une connaissance complète de ses travers qui, selon mon expérience, ne sont pas nouveaux mais n’étaient pas évocables lorsque la production scientifique était encore satisfaisante. En bonne partie S. Hossenfelder rend compte des raisons pour lesquelles les physiciens sont incapables, aujourd’hui depuis plus de 30 années, de penser à de nouveaux concepts, à de nouveaux paradigmes, p 279 : « Nous n’avons pas su préserver notre capacité à émettre des jugements impartiaux. Nous nous sommes laissés acculer dans une impasse, et maintenant, nous devons mentir[2] (sic) quotidiennement pour seulement dire de pouvoir continuer à travailler. Le fait que nous acceptions cette situation est un échec pour toute la communauté scientifique et c’est à nous qu’il revient de remettre les choses à plat. »

            Dans le livre est rapporté plusieurs interviews de scientifiques notables réalisés par l’auteure. Je retiens particulièrement celui qui fait parler George Ellis, professeur émérite à l’université du Cap qui est une figure de proue de la Cosmologie :

            « Ce qui m’inquiète, dit G. Ellis, c’est qu’aujourd’hui des physiciens disent que nous n’avons pas besoin de tester leurs idées parce qu’elles sont si merveilleuses, ils disent – explicitement ou implicitement – qu’ils veulent contourner l’obligation de tester les théories. De mon point de vue, c’est un retour en arrière d’un millier d’années. » ; « Lorsque l’on jette un coup d’œil sur le livre sur les multivers du théoricien des cordes de Columbia : Brian Green, on découvre qu’il y a neuf multivers. Neuf ! Et les arguments sur lesquels il s’appuie sont sur une pente savonneuse. Donc, d’un côté, vous avez Martin Rees qui dit que l’univers ne s’arrête pas à notre horizon visuel, et donc, en un sens, c’est un multivers. Et je suis évidemment d’accord. Et un peu plus loin, vous avez l’inflation chaotique d’Andreï Linde, avec son nombre infini d’univers-bulles. Et encore plus loin, par là-bas, vous avez le paysage de la théorie des cordes, où la physique est différente dans chaque bulle. Et encore plus loin, vous tombez sur le multivers mathématique de Tegmark. Et après, très loin là-bas, vous trouvez des gens comme Nick Bostrom qui affirment que nous vivons dans une simulation sur ordinateur. Ce n’est même pas de la pseudoscience, c’est de la fiction. »

            Je souligne particulièrement le point de vue de M. Rees qui indique que nous devons avoir une conception dynamique de l’évolution de notre compréhension de l’Univers comme je le souligne dans l’expression suivante : « Au sein d’une éternité, parmi tous les possibles, Anthrôpos ne cesse de creuser sa connaissance de l’univers. » Oui on peut évoquer l’hypothèse d’un multivers à propos de notre univers parce que le déploiement de notre connaissance de celui-ci permettra d’associer des pans entiers de ce que l’on peut supposer être actuellement dans un autre ‘univers filial’ mais qui est présentement le fait de notre ignorance encore provisoire. Nous devons accepter aussi l’idée que d’autres lois physiques, que celles présentement établies, émergeront peut-être naturellement, par exemple le déplacement à des vitesses supérieures à celle de la lumière. Bref, creusons l’idée que nous sommes dans un univers non borné et non clos. Nous ne devons pas attribuer des limites spatio-temporelles théoriques à notre univers et acceptons l’idée que ces limites que nous lui attribuons ne sont rien d’autres que celles provisoires de notre capacité d’investissement intellectuel. Il est, à mon sens, impossible d’établir une cohérence entre un univers qui serait effectivement borné avec une humanité que nous représentons qui viendrait intellectuellement se cogner sur des obstacles qui signaleraient qu’à partir de là : il n’y a pas d’au-delà. Si tel était le cas l’être humain ne pourrait plus être, il se pétrifierait. Avec notre cosmogonie actuelle, la thèse du Big Bang constitue un des notables obstacles.

            Dans la continuation de l’interview de G. Ellis, je veux isoler cette appréhension suivante : « Pour moi, le fait que le CERN ait passé les dix dernières années à effacer des données qui détiennent la clé d’une nouvelle physique fondamentale, c’est ça, le scénario de cauchemar. » Cette redoutable appréhension s’explique parce qu’au LHC parmi les milliards de collision proton-proton en quelques secondes seuls quelques centaines d’événements sont sélectionnés par un algorithme car censés être significatifs dans le cadre des connaissances et des projections actuelles. Il est à craindre que parmi les événements effacés il y ait de la physique non encore appréhendée qui serait une illustration de ce qui appartient à l’environnement de ‘parmi tous les possibles’ que j’ai évoqués précédemment. On a aussi, avec Ellis, l’expression d’une parfaite illustration qu’il faut que notre pensée soit préalablement bien placée pour exploiter valablement les données qui caractérisent des événements. C’est pour cette raison que la course à la puissance des instruments en se disant « on verra après », est absurde, onéreuse et source de méprises. Pour découvrir ce qu’il y a de caché dans une grotte, il faut en premier lieu fabriquer la torche appropriée, n’est-ce pas !

            Je reprends le fil du dialogue avec G. Ellis, à propos du multivers, p 259 :

            « Je ne suis pas contre le multivers. Je suis simplement contre l’idée que l’on puisse soutenir que c’est une science établie. Si les gens disent ça, ils veulent se défaire des exigences de l’expérimentation. Le raisonnement qui les a menés à la proposition du multivers était sain. Mais maintenant, ils ont tant d’étapes à franchir pour y parvenir, qui les éloignent de la physique bien établie. Chaque étape à l’air d’être une bonne idée, mais ce sont toutes des extrapolations non vérifiées de la physique connue. Autrefois (sic), on avançait une hypothèse, on vérifiait cette étape, puis on avançait une autre hypothèse et on la vérifiait, et ainsi de suite. Sans le retour à la réalité de l’expérience, on risque de s’engager dans la mauvaise voie. »

             S. Hossenfelder : « Mais c’est parce que les contrôles expérimentaux sont si difficiles. Et ensuite, que faire pour avancer ? »

            G. Ellis : « Je pense qu’il faut repartir et redémarrer avec quelques principes de base. Il y a une chose que nous devons repenser, ce sont les fondations de la mécanique quantique, parce que derrière tout ça, il y a le problème de la mesure de la mécanique quantique. Quand est-ce qu’une mesure est vraiment effectuée ? Quand, disons, un photon est émis ou absorbé. Et comment le décrire ? On utilise la théorie quantique des champs. Mais si vous prenez n’importe quel livre sur la théorie quantique des champs, vous ne trouverez rien sur le problème de la mesure. » Voir mon article, ‘Qui se permettra de le dire !’

            S. Hossenfelder : Je hoche la tête. « Ils se contentent de calculer les probabilités, mais ne discutent jamais de la manière dont les probabilités deviennent des résultats de mesure. »

            « Oui. Donc, il nous faut revenir en arrière et repenser le problème de la mesure. »

            Avec cet échange on constate que nous sommes loin de penser quantique. On constate aussi que la théorie quantique des champs est une source de problèmes et il est étonnant que ce soit maintenant, une fois que nous sommes au pied du mur, que des physiciens, qui ont fait leurs preuves, interrogent seulement maintenant la valeur de la prédiction théorique de la TQC. Les questions que posent G. Ellis sont par rapport à des intervalles du temps : « Quand est-ce qu’une mesure … » ; « Quand un photon est émis ou absorbé ? ». J’ai déjà proposé une réponse à ces questions et celle-ci se nomme ‘Temps propre du Sujet (de l’observateur)’ : τs soit de l’ordre de 10-26s. L’instantanéité d’une mesure ne peut pas être évaluée car l’action et les contraintes de l’observateur ne peuvent être ignorées et c’est ce qui caractérise la mécanique quantique. Donc aux questions de Ellis, je réponds de l’ordre de 10-26s.

            Comme je l’ai proposé dans plusieurs articles on franchira une étape décisive pour la compréhension de la mécanique quantique lorsqu’on établira expérimentalement que le temps est un propre de l’homme. Voir articles : ‘Appel d’offres’ du 5/08/2017 ; ‘Votre, Notre, Cerveau est une Machine du Temps’ du 29/07/2017.

            Tout récemment encore dans le Newscientist du 3 juillet, il y a un article au titre suivant : ‘Le paradoxe du temps : Comment votre cerveau crée la quatrième dimension.’ Article rappelant une expérience de 1981, indiquant que l’espace et le temps sont ensemble unis dans le cerveau comme ils le sont dans l’univers.

            Je ne compte plus, depuis plus de 15 ans les articles qui sont publiés sur ce sujet mais aucune hypothèse concernant une relation entre ce temps fabriqué par l’être humain et celui que l’on exploite en physique n’est considérée comme acceptable par les physiciens car cela détruirait leur croyance, ipso-facto, que leur science touche à l’universel et est le fruit de l’objectivité.

           

 

 

 

[1] Voir article du blog du 08/11/2011 : ‘Qui se permettra de le dire ?’, je me réjouis donc que ce soit quelqu’un parfaitement intégré présentement et reconnu dans le sérail qui se permette de le dire. Ouf, il était temps !

[2] Voir articles : « Et si notre pensée était mal placée » du 16/01/2016 ; « Perspectives » du 26/02/2017.

Partager cet article
Repost0
7 juin 2019 5 07 /06 /juin /2019 10:22

Sacrée Aventure

Je situe le début de cette sacrée aventure lorsqu’Albert Einstein formula l’hypothèse très hardie que le champ spatio-temporel et le champ gravitationnel devaient être mathématiquement associés. Et ce champ « géométrico-gravitationnel » est mathématiquement représenté par le champ tensoriel gµν. Cette aventure de la relativité générale est ainsi scellée par deux traits d’union qui relient Matière – Espace – Temps. Ce qui a mon sens est remarquable c’est que l’égalité définie entre champ géométrico-gravitationnel et le champ tensoriel gµν correspond à une opération intellectuelle de compréhension nouvelle d’une propriété purement physique de la part d’Einstein en lien avec un prélèvement purement mathématique d’objets de cette nature que représente gµν conçu depuis 1854 et proposé par Bernhard Riemann (1826-1866).

En effet la géométrie riemannienne est une géométrie qui dépasse la géométrie plane euclidienne en introduisant le concept de variétés géométriques. Il s’agit de géométries qui génèrent des surfaces de plus grande dimension (n dimensions) qui peuvent avoir tous types de courbures et munies de métriques permettant de calculer des chemins, géodésiques, des longueurs. C’est une géométrie analytique qui utilise les coordonnées locales.

Einstein a considéré qu’il y avait une parfaite convergence entre ce qu’il cogitait dans les années 1910 en tant que physicien pur et ce qu’avait cogité Riemann en tant que mathématicien pur dans les années 1850. Les Platoniciens ne sont pas étonnés de cette totale convergence car selon eux l’univers est l’œuvre d’un Divin Mathématicien, il faut donc apprendre à lire mathématiquement les pages de cet univers pour mettre en évidence son ordonnancement ‘physique’. Je ne partage pas ce point de vue mais les mathématiques sont des outils essentiels pour les physiciens ainsi on peut dire que les travaux de Riemann ont ouvert la voie à la théorie de la relativité générale en fournissant un langage formel, rigoureux, communicable aux autres physiciens et correspondant à l’état de la pensée einsteinienne. Il ne faut pas exclure non plus que les travaux de Riemann aient contribué à l’établissement de la pensée d’Einstein.

Entre l’époque de la pensée riemannienne et celle de la pensée einsteinienne objectivement, il faut prendre en compte l’époque intermédiaire correspondant à la pensée maxwellienne qui a très favorablement contribué au développement des hypothèses d’Einstein. En effet c’est Maxwell qui a introduit la notion de champ avec Ampère et Faraday et nous devons l’entendre comme un développement de la notion de force vecteur que l’on doit à Newton. Toujours est-il qu’une première unification de champs est proposée par Maxwell avec l’hypothèse du champ électromagnétique dont l’équation de propagation marque une étape très importante pour l’avènement de la physique classique moderne y compris la relativité restreinte. Dans ce cadre je veux illustrer ce qui correspond au clivage Platonicien et non Platonicien. Dans un article d’Avril, Edouard Brézin (qui fut, il y a une dizaine d’années, Président de l’Académie des Sciences), nous dit : « Maxwell, en 1865, comprend que la lumière est une onde de vibration des champs électrique et magnétique, dont il calcule la vitesse de propagation. » Un non Platonicien conséquent dira : « que la lumière est bien représentée par une onde de vibration des champs… », il est très réducteur d’attribué une ontologie à un concept mathématique. Enseigner les choses de cette façon est franchement erroné ou alors il faut signaler à l’auditoire et/ou au lecteur le parti pris philosophique qui est sous-jacent. D’ailleurs, Maxwell n’était pas dupe, il commentait ses recherches en indiquant que les physiciens avaient à leurs dispositions un filet, comme celui des pêcheurs, mais celui-ci constitué du réseau des connaissances mathématiques, qu’ils lançaient dans la nature et en le relevant, dans les mailles de leur filet pouvaient émerger certaines connaissances nouvelles sur la nature. Il n’oubliait pas de préciser que le reste passait au travers des mailles et qu’il fallait inlassablement relancer le filet. L’exhaustivité ontologique est un leurre qu’il n’est pas bon, à mes yeux, d’entretenir.

En écrivant le présent article, je pense à celui que j’ai posté précédemment le 14 Mai : ‘Chemin escarpé menant à un au-delà de la Relativité Générale’ car pour percevoir et franchir l’au-delà de la Relativité Générale il faut, pour le moins, comprendre toute sa force heuristique et appréhender sa/ses limite(s). Actuellement ce n’est pas le cas, il y a une quasi-unanimité pour reconnaître que la physique théorique est en crise depuis plusieurs décennies, que notre compréhension, interprétation de l’espace et du temps, surtout du temps, en sont très probablement en cause. Et que cela est rendu compte par l’impossibilité théorique d’intégrer dans un même corpus à la fois la mécanique quantique et la relativité générale dans une échelle commune de l’infiniment petit et des très hautes énergies. Or l’hypothèse hardie d’Einstein : « Le champ spatio-temporel et le champ gravitationnel ne font qu’un. Et ce champ « géométrico-gravitationnel » est mathématiquement représenté par le champ tensoriel gµν. » a priori ne peut toujours pas être remis en cause.

C’est en 1919, lors d’une éclipse totale du soleil, qu’Eddington observa que la trajectoire (géodésique) suivi par les rayons lumineux passant près du disque solaire se courbe exactement comme prédit par les équations d’Einstein calculant la déformation de cette géodésique induite par le voisinage de la masse solaire, pour un observateur terrestre. L’hypothèse de l’interdépendance entre matière, espace et temps est pour la première fois validée à cette occasion. Les exemples très convaincants de cette validation ne manquent pas et ils sont intégrés dans les instruments de notre vie quotidienne aujourd’hui.

Toutefois il est parfaitement possible que parmi tous ceux qui reconnaissent la valeur remarquable de la loi de la relativité générale, il y ait des interprétations très distinctes voire antinomiques. Par exemple, il y en a qui affirment que le temps est réel, c’est-à-dire est donné dans la nature, d’autres affirment que le temps physique n’existe pas, d’autres conjecturent que la gravitation est émergente. Donc, malgré l’hypothèse très forte et très contraignante d’Albert Einstein il y en a qui trouvent de la marge d’interprétation compatible avec les résultats authentifiés par les équations de la R.G. bien que certaines de ces interprétations soient l’objet de contorsions[1]. En effet Einstein a réuni dans un champ « géométrico-gravitationnel » unique : l’espace, le temps, la gravitation et l’interprétation par C.Rovelli d’une identification de l’espace-temps avec le champ gravitationnel constitue une extrapolation qui n’est pas bienvenue dans le moule de la pensée d’Einstein bien qu’après coup l’espace-temps est à nouveau distingué selon un processus bizarre appelé : ‘métabolisme’. De plus les équations de la mécanique quantique fonctionnent très bien avec une conception du temps non relativiste c’est-à-dire avec une conception du temps classique newtonien.

On connaît mal le cœur de la loi de la R. G. J’utilise cette expression pour indiquer que nous ne savons pas globalement exploiter analytiquement ses équations car c’est une loi générale avec 10 composantes non linéaires. C’est uniquement dans le cadre de symétries identifiées que nous obtenons des simplifications qui permettent de réduire le nombre d’équations. Ainsi les objets célestes sont souvent sphériques ou assimilés, dans ce cas de symétries sphériques les calculs avec la R.G. sont vraiment simplifiés. Lorsque par exemple nous essayons de rendre compte de coalescences de trous noirs, le champ gravitationnel est tellement élevé et dans ce cas les distorsions de l’espace-temps tellement importantes que nous ne pouvons pas exploiter la loi en tant que telle mais procéder par la voie numérique et ce sont les ordinateurs dotés d’algorithmes qui nous livrent des modèles probables d’ondes gravitationnelles se propageant dans le ‘tissu’ spatio-temporel et en conséquence détectables par les interféromètres terrestres.

Il est pensé qu’avec ces évènements célestes et extrêmes nous identifierons les limites de la validité de la relativité générale et ainsi les bases d’une nouvelle théorie complémentaire déjà nommée : gravité quantique, sont recherchés. Les perspectives ne sont pas enthousiasmantes. Dixit C. Rovelli[2], page 35 : « ‘Beaucoup de modèles ont été éliminés’ : La théorie des cordes et la gravité quantique à boucles ne sont pas les seules pistes pour une gravité quantique. D’autres ont été explorées et ont parfois été mises en grande difficulté par l’expérience… » Plus loin, page 36, l’auteur indique que la théorie des cordes ne peut pas être la bonne théorie candidate : « …Ces différents exemples de résultats observationnels et expérimentaux nous ont fait progresser sur ce que peut être la gravité quantique. Ainsi, les spécialistes de la théorie des cordes qui, dans les années 1980, pensaient résoudre rapidement le problème de la gravité quantique ont dû revoir leurs objectifs. »  C. Rovelli nous dit ensuite que sa théorie de la gravité quantique à boucles reste donc la plus crédible et il s’empresse de citer des exemples sur lesquels sa théorie serait en mesure d’apporter des explications. La difficulté c’est que ces exemples sont des produits de théories purement spéculatives et donc ses propositions de preuves sont aussi spéculatives.

Voyons ce qui, selon mon point de vue, conduit à une fragilité conceptuelle de la gravité quantique à boucles. Je cite encore C. Rovelli, page 34, « …on postule que l’espace-temps (sic) lui-même est sujet à tous les phénomènes typiques de la physique quantique, avec la conséquence, en particulier, que l’espace (sic) ne serait pas continu, mais discrétisé : aires et volumes deviennent des grandeurs quantifiées, qui ne peuvent être arbitrairement petites. » On constate dans cette phrase un manque de rigueur car pourquoi évoquer l’espace-temps alors qu’il n’y a que l’espace qui serait discrétis(able) dans sa théorie. Ce résultat théorique des aires et volumes quantifiés fut proposé il y a une bonne vingtaine d’années avec Lee Smolin. Il est remarquable que l’un et l’autre soient maintenant en total désaccord à propos du temps, puisque L. Smolin milite pour un temps réel donné dans la nature alors que C. Rovelli prétend que le temps n’est pas donné et serait émergent pour des raisons thermodynamiques liées à la problématique de l’irréversibilité.

De plus, on peut s’étonner de mettre en avant une théorie de la gravité quantique à boucles avec seulement une production théorique d’aires et de volumes quantifiés… aux dimensions de la longueur de Planck. C’est à ce niveau qu’il y a une extrapolation d’interprétation qui n’est pas bienvenue. En effet l’auteur postule « Au contraire, l'espace-temps est identifié avec le champ gravitationnel… », voir citation 1. Cette contorsion avec ce qui s’ensuit à propos du ‘métabolisme’ est nécessaire pour pouvoir affirmer : « discrétiser l’espace c’est discrétiser la gravitation. »

Maxwell en associant dans un même champ, le champ magnétique et le champ électrique, n’a pas pour autant annulé la signification physique distincte de chacun de ces champs avec l’hypothèse du champ électromagnétique. Einstein n’a pas préconisé que l’espace et le temps, ni l’espace-temps, n’avaient plus de significations physiques propres en les associant avec le champ gravitationnel dans un champ unique « géométrico-gravitationnel »

En conséquence la sacrée aventure de la relativité générale n’est pas à la veille d’être relayée par une nouvelle aventure qui serait quantique.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

[1] Certaines de ces interprétations sont l’objet de contorsions illustrant qu’il n’est pas simple pour un physicien qui veut être entendu par ses pairs de s’émanciper des hypothèses einsteiniennes, je cite : « Au contraire, l'espace-temps est identifié avec le champ gravitationnel (c.a.d. avec le champ dynamique). Cette interprétation est à la base de la gravité quantique à boucles. Un exposé complet se trouve dans le livre de Carlo Rovelli "Quantum Gravity" (section 2.3.2 ‘la disparition de l’espace-temps’). Néanmoins l'espace-temps est toujours bien présent (sic) dans la théorie, sous cette nouvelle forme dynamique, qu'ici nous appelons le "métabolisme" de l'espace-temps.  Ainsi donc, pour répondre à votre question : ce qu'on appelle l'espace-temps et le champ gravitationnel sont ultimement la même chose. Puisque que c’est un objet dynamique, ce n'est pas très étonnant qu'il contienne des oscillations qui se propagent dans sa structure (re-sic). »

 

[2] Dans ‘Pour la Science’ de juin 2019, article : ‘La théorie quantique de demain’ ; ‘Les nouveaux défis de la physique quantique’. N° que je recommande, bien évidemment.

Partager cet article
Repost0
14 mai 2019 2 14 /05 /mai /2019 16:13

Chemin escarpé menant à un au-delà de la Relativité Générale

Depuis le 1er Avril les deux détecteurs d’ondes gravitationnelles, l’un américain Ligo, l’autre européen Virgo, ont été simultanément remis en activité avec un gain de sensibilité respectif de l’ordre de 50%. Cette Collaboration Ligo Virgo (CLV) prévoit, grâce à ce gain de sensibilité remarquable, de détecter de l’ordre de 4 collisions-fusions de trous noirs par mois et une collision-fusion d’étoiles à neutrons par mois. Ce run 3 d’activité sur un mois, qui est programmé pour durer une année complète, a confirmé ces prévisions. Si ce résultat n’est pas le fait du hasard, cela est intéressant car grâce aux résultats des runs 1 et 2 ainsi que les prévisions des théoriciens on a déjà une idée de la densité dans l’univers local de ces objets célestes qui peuvent faire vibrer les interféromètres.

Le 25 avril, un signal significatif correspondant à la fusion de 2 étoiles à neutrons a été réceptionné par CLV située à environ 500 millions d’années-lumière. Les équipes étaient encore mobilisées sur cet événement que le lendemain un nouveau signal gravitationnel modifiait la position des miroirs des interféromètres de 10-19m environ. A première vue ce signal à l’aspect inattendu semblait annoncer une collision mixte c’est-à-dire entre un trou noir et une étoile à neutrons. L’enthousiasme immédiat des équipes provoqué par cette signature inattendue mais très intéressante a baissé d’un cran parce qu’un des bras de Ligo était en stand-by pour cause de réglage et en conséquence la localisation spatiale probable de cet événement devenait très imprécise. Or cet événement quand il a lieu est à coup sûr multimessages. Encore faut-il que les télescopes recueillant les ondes électromagnétiques correspondantes, d’une gamme étendue de fréquences, puissent être orientés dans la bonne direction en quelques fractions de seconde. Actuellement aucune des équipes travaillant sur les télescopes en question n’ont annoncé avoir enregistré quelque chose de significatif en rapport avec l’alerte du 26 avril. Malgré tout, il est toujours considéré qu’une collision mixte a eu lieu a 1,2 milliards d’années-lumière mais la dimension multimessages n’a pas pu être mise à profit.

Rappelons qu’un événement multimessages permet d’analyser les ondes gravitationnelles spécifiques de la collision ainsi qu’analyser les ondes électromagnétiques produites par celle-ci et la durée d’observation peut être prolongée de plusieurs jours avant que le produit final de la collision ne devienne noir.

Lorsque nous sommes en mesure de pouvoir déceler la collision de 2 trous noirs, les ondes gravitationnelles recueillies par l’interféromètre sont la seule source de décryptage de l’événement. La classification de celui-ci est obtenue avec l’exploitation d’une base de données de calibres. Ceux-ci sont conçus préalablement grâce l’exploitation des équations de la Relativité Générale donc ils sont représentatifs de ce que la R.G prédit. L’opération d’identification par calibrage présente donc le risque d’être au moins réductrice sinon erronée car actuellement nous ne savons pas si la R.G. est valable pour décrire ce type d’évènement, même approximativement. Nous n’avons pas d’autres moyens pour identifier ces collisions car aujourd’hui aucun autre moyen théorique n’a été mis à jour depuis 1915. L’espoir est donc, grâce à la multiplication d’observations de collisions de trous noirs, empiriquement, on finira par constater des écarts entre prédictions et observations effectives. Plus on enregistrera de données plus le chemin de constats d’écarts sera traçable. De plus on peut émettre l’hypothèse qu’à la force de l’habitude les équipes travaillant sur ce sujet gagneront de la capacité d’analyse des ondes gravitationnelles de plus en plus aigüe et différencieront progressivement ce qui est de l’ordre du prédictible et ce qui est de l’ordre de l’authentiquement nouveau.

Ce qui est à l’ordre du jour c’est donc de trouver un chemin qui nous mènera au-delà de la Relativité Générale car nous n’avons jusqu’à présent aucun paradigme nouveau qui permet de concevoir par anticipation cet au-delà. C’est un chemin par petit pas que nous devons emprunter et effectivement nous avons de bonnes raisons de penser qu’avec ces extraordinaires évènements, que nous sommes capables de détecter depuis 2016, une première fenêtre est entr’ouverte. Entrouverture parce que la seule détection de fusions de trous noirs telles que celles qui ont été enregistrées sont relativement pauvres en informations. En effet les trous noirs sont des objets célestes qui sont caractérisés par des paramètres intrinsèques limités : leur masse certes et aussi leur spin de rotation. La collision de 2 de ces objets produit finalement, instantanément, un objet semblable avec une masse double moins une ou deux masses solaires, voire plus, qui se transforment en énergie de rayonnement gravitationnel qui porte jusqu’aux détecteurs terrestres la perturbation de l’espace-temps.

Heureusement qu’il est possible d’enrichir ces données avec celles enregistrées lors de collisions d’étoiles à neutrons comme ce fut le cas en 2017. Certes elles sont moins massives, de l’ordre de 2 à 3 masses solaires contre 20 jusqu’à 50 pour les trous noirs présentement détectés, mais du fait qu’il y a émission de rayonnement électromagnétique en accompagnement du rayonnement gravitationnelle dans une large gamme : ondes radios jusqu’aux rayons gammas, la richesse des informations recueillies permet, en plus de constater la validité ou pas de la R.G., d’évaluer par contraste ce qui différencie trous noirs et étoiles à neutrons. En effet l’état de la matière dans une étoile à neutrons est l’ultime état ‘connaissable’ avant celui totalement inconnaissable d’un trou noir. D’ailleurs, finalement, l’ultime objet céleste résultant de la fusion de 2 de ces étoiles est un trou noir et si on pouvait capturer quelques indices résultant de cette transformation ce serait remarquable.

Il est clair que c’est l’évènement collision-fusion de 3e type c’est-à-dire : trou noir étoile à neutrons, qui pourrait nous éclairer au mieux de ces situations physiques extrêmes. A priori la traçabilité de l’événement est envisageable car l’étoile à neutrons émet du rayonnement. Ensuite, l’étoile de ce type ne fait pas le poids à l’égard du trou noir qui l’attire, ainsi jusqu’à un certain point, la géodésique du mouvement de celle-ci est celle imprimée par le trou noir et à cette occasion on pourrait mieux comparer géodésique prédite par la R.G. et la trajectoire effective avant absorption. De plus à cause de la disparité des masses en présence on peut prévoir que la matière de l’étoile se sépare par lambeaux du corps central et en plus de son rayonnement électromagnétique qu’on pourrait observer on pourrait mieux identifier la nature de l’état de cette matière.

Grâce à Hulse et Taylor, deux astrophysiciens américains, qui ont découvert le pulsar PSR B1913+16 (2 étoiles à neutrons en mouvement de rotation l’une par rapport à l’autre) en 1974 et qui l’ont étudié très précisément (prix Nobel 1993) avec les équations de la R.G. on sait que ces équations d’Einstein sont quasiment exactes pour ce type d’objets célestes. Si avec l’étude des trous noirs dans le cadre d’évènements du 3e type on trouve des écarts significatifs avec la R.G. nous pourrons connaitre le seuil de transition à partir duquel la R.G. perd de sa capacité de prédiction qui devra ainsi être modifiée voire invalidée.

La découverte d’un seuil de transition constituerait un indicateur mais ne nous fournirait pas pour autant la clé de l’au-delà de la Relativité Générale. Par contre les tenants de la théorie des cordes ou de la gravité quantique à boucles disposeront d’un territoire de données observées qui permettra de mettre à l’épreuve une correspondance ou pas entre ce que prédisent leurs théories et ces données observées.

Ce qui est à mes yeux le plus probable c’est de devoir se préparer à progresser en terra incognita, ce qui constitue une perspective hautement intéressante mais aussi redoutable car il est à craindre que ni la gravité à boucles ni la théorie des cordes ne nous offre un ancrage au-delà de la Relativité Générale.

 

Partager cet article
Repost0
7 mai 2019 2 07 /05 /mai /2019 15:05

Notes de lecture du livre de Smolin

La Révolution Inachevée d’Einstein.

 

Cet article fait suite au précédent du 27/04.

En résumé : pour L. Smolin, il sera possible de transformer la mécanique quantique lorsque on aura maitrisé une conception exacte de l’espace-temps. C’est-à-dire selon sa conception lorsqu’on comprendra que le temps est un donné de la nature (de l’univers) donc réel et irréversible et que l’espace est émergent.

Avec ces deux phrases je rencontre l’intérêt d’étudier le point de vue de Smolin puisqu’il est quasiment opposé au mien et c’est donc une occasion pour renforcer mon propre point de vue ou bien d’intégrer le sien pour enrichir ce que je pense. Selon moi le temps n’est pas donné il est un propre de l’homme et quant à l’espace c’est sa signification classique qui est émergente suivant l’entendement de l’homme et la fonction qu’il lui a attribué mais la problématique de la spatialisation est donné dans la nature. En conséquence il n’est pas exclu qu’il soit plus riche avec par exemple des dimensions supplémentaires microscopiques. Ce que je considère comme préalable et essentiel c’est le repérage spatio-temporel de tout objet physique pour que le physicien puisse développer un discours scientifique sur cet objet. Lorsqu’un observateur est privé de ce repérage il est amené à concevoir des états différenciés par exemple en mécanique quantique : onde ou particule ainsi que des phénomènes qui échappent à son entendement façonné par son rapport avec la nature à l’échelle classique, tel que celui conduisant à ce que l’on nomme l’intrication, l’indiscernabilité. (Voir article : Appel d’offres, le 05/08/2017)

Pour Smolin c’est en couplant la physique quantique et l’espace-temps au niveau de principes fondamentaux qu’il sera possible d’établir les conditions d’une nouvelle physique. Cette tentative est selon lui essentielle car il considère que la mécanique quantique est incomplète (sic) et il veut construire une théorie réaliste en s’appuyant sur les principes du relationnisme temporel qui conduirait à un achèvement concomitant de la mécanique quantique et de la relativité générale. Il écrit page 253 : « J’ai l’espoir que cette théorie non seulement résoudra les puzzles des fondations de la mécanique quantique, mais conduira à la découverte de la bonne théorie de la gravité quantique. »

En conséquence il postule qu’une théorie physique ne doit aucunement dépendre de structures qui soient fixes (gelées) et qui n’évoluent pas dynamiquement en interagissant avec d’autres quantités. La géométrie de l’espace et du temps est gelée avec la physique de Newton, et elle est aussi gelée avec la relativité restreinte. Dans ces théories, la géométrie de l’espace-temps fournit un arrière-plan absolu et fixe sur lesquelles les mesures sont définies. A contrario, la Relativité Générale dégèle la géométrie et la rend dynamique. Malgré tout, selon Smolin, aussi belle soit-elle, elle ne doit pas être la fin de notre recherche et elle nécessite des améliorations futures. S’il est possible de transformer la mécanique quantique il faut éliminer les structures d’arrière-plan. Pour le faire il présente et dégèle l’arrière-plan et lui octroie une dynamique. En d’autres mots, plutôt que de quantifier la gravité il cherche à gravitifier (graviter ?) le quantum (dans le texte original : gravitize the quantum[1]) (sic). Cela signifie identifier et dégeler les aspects de la théorie quantique qui sont arbitraires et fixes, en les transformant en sujets de lois dynamiques. Ainsi les observables essentielles des théories physiques doivent décrire des relations.

L. Smolin récapitule les 5 principes fondamentaux qui sont totalement en cohérence :

            1. Le principe de l’indépendance de l’arrière-plan ;

            2. Le principe que l’espace et le temps sont relationnels ;

            3. Le principe de la complétude causale ;

            4. Le principe de réciprocité ;

            5. Le principe de l’identité et de l’indiscernabilité ;

Chacun de ces 5 principes représente un aspect d’un principe unique que Leibniz appelle le Principe de la raison suffisante.

Page 234, Smolin affirme : « Un scientifique qui aspire à être rationnel doit être un relationniste. » Ce qui interpelle avec cette sentence c’est qu’il est convaincu qu’il n’y a pas à considérer la relation entre le scientifique et la nature dont il cherche à décrypter les lois et propriétés car selon le point de vue du réaliste qu’il est, le scientifique pense la nature et est capable d’identifier ses lois physiques sans relation avec celle-ci qui puisse interférer, déterminer, la façon dont il les conçoit. Il est assez extraordinaire de déclarer que tout est relation sauf en ce qui concerne le physicien qui serait donc un spectateur extérieur, neutre, qui n’aurait aucune influence sur le sujet de son étude. Selon Smolin, l’investissement intellectuel du physicien sur son sujet est sans conséquence puisque sa pensée a l’ampleur d’une pensée, sans attache et sans histoire, universelle. Les physiciens sont en grande partie enfermés dans cette croyance, piège s’opposant au déploiement de leur pensée, même ceux qui éprouvent la nécessité de se libérer du carcan, l’expriment d’une façon mineure en se déportant en tant que philosophe (sic) (Voir articles sur A. Barrau 12/04/2016[2] et 23/04/2016). Ou bien encore ils l’expriment juste à la chute d’un article pour ne pas avoir à s’expliquer. On ne devrait pas oublier l’influence de la nature sur le sujet pensant : Voir article du 06/04/2019.

Page 236, il est proposé trois hypothèses par l’auteur : Le Temps, dans le sens de la causalité, est fondamental. Le Temps est irréversible. L’Espace est émergent.

Je cite : « Donc cela veut dire que la localité est émergente. La Non-localité doit donc être émergente. Si la localité n’est pas absolue, si c’est le résultat contingent d’une dynamique, il y aura des défauts et des exceptions. Et bien sûr cela semble être le cas : comment peut-on comprendre autrement (sic) la non-localité quantique, particulièrement l’intrication non-local ? Ceci, me permet de faire l’hypothèse, que cela correspond à un reliquat de relations sans espace inhérent dans l’étape primordial, avant que l’espace émerge. Ainsi en déclarant que le temps est émergent on gagne la possibilité d’expliquer la non-localité quantique comme la conséquence d’un défaut qui survient dans cette émergence. »

« La combinaison du temps fondamental et de l’espace émergent implique qu’il peut y avoir une simultanéité fondamentale. A un niveau profond, dans lequel l’espace disparaît mais que le temps persiste, un sens universel peut être donné au concept de maintenant. »

Tout cet ensemble que j’ai cité semble complètement ad hoc, la suite est identique et donc je ne poursuis pas la citation. C’est au nom du ‘Relationnisme Temporel’ qu’il rend compte de l’intrication. On remarque qu’il accorde au maintenant une durée égale à zéro ce qui pose un problème de justification car on sait que toute mesure, aussi petite qu’elle soit, nécessite une durée. J’estime que ce maintenant que je nomme ‘Moment Présent’ (voir article du 02/05/2013 : Bienvenu au ‘Moment Présent’ de L. Smolin) a une valeur de l’ordre de 10-25s et ceci explique, selon ma conception, le phénomène de l’intrication car c’est la durée correspondant au point aveugle de l’intelligence humaine. Donc on peut constater que par des chemins extrêmement différents on explique identiquement que c’est sur (avec) la composante temporelle que l’on rend compte du phénomène de l’intrication.

Contrairement à mes habitudes je ne conseille pas ni ne déconseille de lire ce livre car il n’offre pas matière à réflexion, on ne sait pas non plus à qui il s’adresse. Peut-être à personne, il avait juste besoin de l’écrire pour lui-même.

 

[1] A une autre époque de sa carrière de physicien il avait postulé l’idée d’une : « Théorie Quantique à partir de la Gravité Quantique. »

[2] Je cite : Mais il ne faut pas oublier, en parallèle de cette mise en rapport avec l’autre, avec l’ailleurs, avec l’hors, que nos manières d’appréhender cet « autre part » n’en demeurent pas moins humaines et créées. Il faut rester conscient que cette tentative d’exploration du loin n’est entreprise qu’avec nos modalités purement et inéluctablement humaines et donc locales. Nous choisissons et inventons les rapports au(x) monde(s) que nous jugeons pertinents. Ils ne sont pas donnés, ils sont construits. Tout se joue dans cette tension entre l’ « air frais » qui vient du dehors et notre ressenti ou notre explication de cet air frais qui n’est jamais une mise en lumière de la nature intrinsèque et absolue de l’essence de cet air frais

La science est souvent arrogante dans ses enjeux et parfois même dans ses conclusions mais elle est fondamentalement modeste dans ses moyens. Elle est une louable tentative d’accéder au non-humain-du-réel. Elle est toujours consciente – elle devrait en tout cas l’être – de ses limites. Limites omniprésentes ! Elle intègre sa finitude et c’est ce qui lui permet de jouer avec l’illimité. 

La situation est parfois complexe et plurivoque. Il ne faut pas chercher à enfermer la science dans une vision linéaire et parfaitement sans équivoque… »

 

Partager cet article
Repost0
27 avril 2019 6 27 /04 /avril /2019 13:01

Un réaliste s’empare de la mécanique quantique et la conteste.

Graham Farmelo analyse la déconstruction par Lee Smolin de la théorie physique la plus réussie jusqu’à présent. (article dans Nature 568, 166-167)

La Révolution Inachevée d’Einstein : La quête de ce qui se trouve au-delà du Quantum. C’est le titre du livre que vient de publier Lee Smolin, que je ne pourrai avoir entre les mains qu’au début Mai. L’article de G. Farmelo donne un avant-goût de ce qui est proposé à notre réflexion et je vous le communique avec quelques commentaires.

 

Article traduit par mes soins. (L’original est communiqué à la suite de celui-ci)

La mécanique quantique est peut-être la théorie, jamais formulée, la plus réussie. Pendant près de 90 ans, les expérimentateurs l’ont soumise à des tests rigoureux, dont aucun n’a remis en cause ses fondements. C’est l’un des triomphes de la science du XXe siècle. Le seul problème avec elle, soutient Lee Smolin dans ‘La Révolution Inachevée d’Einstein’, c’est que c’est faux (sic). Dans ce livre difficile, il tente d’examiner d’autres options pour une théorie du monde atomique.

Smolin est un physicien théorique à l’Institut Perimeter de Waterloo, au Canada, et un critique franc de la direction qu’a prise la physique théorique au cours des quatre dernières décennies. Une source d’idées provocantes, il les a présentées dans plusieurs livres populaires, y compris le ‘Trouble avec la Physique’ (2006) et ‘Renaissance du Temps’[1] (2013). Il est peut-être encore mieux connu pour son rejet de la théorie des cordes, un cadre largement utilisé pour la physique fondamentale, qu’il rejette car malvenue. Bien que l’opposition fougueuse de Smolin à certains développements courants dans le physique moderne irrite un bon nombre de ses pairs, j’ai un faible pour lui et toutes autres personnes qui n’ont pas peur de s’interroger sur la façon standard de faire les choses. Comme l’a observé le journaliste Malcolm Muggeridge : « Seuls les poissons morts nagent avec le courant. »

Le livre de Smolin est à bien des égards ambitieux. Il va de nouveau à la case départ, introduisant la mécanique quantique à un niveau assez basique pour que des étudiants en sciences la saisisse. Il souligne que le concept de champ a permis de donner une description véritablement révolutionnaire du monde atomique, quelque chose qui s’était avéré impossible avec les théories (rétrospectivement étiquetées « classiques ») précédentes. La structure mathématique de la mécanique quantique est arrivée avant que les physiciens aient pu l’interpréter, et Smolin donne un compte rendu clair des arguments ultérieurs sur la nature de la théorie, avant enfin de définir ses propres idées.

Pour moi, le livre démontre qu’il est préférable de considérer Smolin comme un philosophe de la nature, plus intéressé à réfléchir sur les significations fondamentales de l’espace, du temps, de la réalité, de l’existence ainsi que des sujets connexes. James Clerk Maxwell, premier pionnier du XIXe siècle de la théorie de l’électricité et du magnétisme, pourrait être décrit de la même façon — il aimait à débattre des questions philosophiques avec des collègues dans une série de disciplines. La façon de penser de Maxwell a eu un impact profond sur Albert Einstein, qui pourrait aussi être considéré pour partie comme philosophe de la nature, et pour partie physicien théorique. (Mon commentaire : à propos de cette séparation entre philosophe de la nature et physicien théorique, il ne faut pas l’exagérer car que penser d’un théoricien qui n’aurait aucune pensée propre sur l’ordre de la nature ? Dans ce cas, est-ce que Dirac aurait été le précurseur et le découvreur qu’il fut ?)

Comme Einstein, Smolin est un « réaliste » sur le plan philosophique, quelqu’un qui pense que le monde réel existe indépendamment de nos esprits et en conséquence peut être décrit par des lois déterministes. Celles-ci nous permettent, en principe, de prédire l’avenir de toute particule si nous avons suffisamment d’informations à ce sujet. Cette vision du monde est incompatible avec l’interprétation conventionnelle de la mécanique quantique, dans laquelle les principales caractéristiques sont l’imprévisibilité et un rôle incontournable des observateurs dans le résultat des expériences. Ainsi, Einstein n’a jamais accepté que la mécanique quantique était significative mais considérait qu’elle annonçait un espace réservé impressionnant pour une théorie plus fondamentale conforme à son credo réaliste. Smolin est d’accord.

(Mon commentaire : ainsi dans ce paragraphe il est simplement exprimé le clivage essentiel, insoluble jusqu’à présent, entre la physique classique incluant la Relativité Générale et la Physique Quantique. Il faut à mes yeux préciser que le paradigme énoncé par Einstein « Le monde réel existe indépendamment de nos esprits » est un point de vue philosophique qui conduit directement au corollaire mathématique de l’invariance qui a une efficacité heuristique remarquable. La problématique de l’invariance de grandeurs physiques a surgi en 1905 comme aboutissement des lois de la relativité restreinte et cela n’a pas échappé à Einstein qui a ensuite travaillé à sa généralisation pendant 10 ans avec ténacité parce qu’il en avait préalablement la conviction philosophique. Pour ce qui est de la physique quantique, le processus de son émergence est différent car la problématique quantique s’est imposée à l’insu des physiciens. Elle ne résulte pas a priori d’une conviction sur ce qu’est la nature et du rapport de l’être humain doté de son intelligence avec celle-ci. Il suffit de lire la biographie de Planck sur ce sujet. Parce que la pensée humaine n’est pas à la source de la physique quantique on ne peut pas encore ‘penser quantique’ voir article : ‘Non on ne peut pas penser quantique, pas encore’ 26/09/2015 et ‘Fondamentalement renoncer’ le 19/08/2015 )

Smolin mène sa recherche par d’autres voies afin d’établir la mécanique quantique dans une langue intelligible pour un public non initié, avec à peine une équation en vue. Smolin est un pédagogue lucide, capable de rafraîchir le discours quantique théorique qui a été présenté des milliers de fois. Les non-experts pourraient, cependant, lutter lorsqu’il plonge dans certaines des interprétations modernes de la mécanique quantique, seulement pour les rejeter. Parmi celles-ci, par exemple, l’approche du super déterminisme du théoricien Gerard’t Hooft.

Le livre est cependant entrainant et, enfin, optimiste. S’inspirant sans s’excuser de la tradition historique et même de la philosophie moderne, Smolin propose un nouvel ensemble de principes qui s’applique à la fois à la mécanique quantique et à l’espace-temps. Il explore ensuite comment ces principes pourraient être réalisés dans le cadre d’une théorie fondamentale de la nature, bien qu’il s’arrête de fournir des détails sur la mise en œuvre (ce qui affaiblit sérieusement la teneur de son livre comme son livre précédent spécifique sur le temps). (J’espère pouvoir commenter ce nouvel ensemble de principes quand j’aurai le livre entre les mains)

Smolin conclut avec les implications de tout cela conduisant selon sa version à notre compréhension de l’espace et du temps. Il suggère que le temps est irréversible et fondamental, en ce sens que les processus par lesquels les événements futurs sont produits à partir de ceux présents sont vraiment fondamentaux : ils n’ont pas besoin d’être expliqués en termes d’idées plus basiques (sic). L’espace, cependant, est différent. Il affirme qu’il émerge de quelque chose de plus profond. (Idem quand j’aurai lu le livre !)

Pourtant, il est loin d’être clair si les nouvelles méthodes de Smolin permettent que l’espace et le temps soient étudiés efficacement (sic). Au cours des dernières décennies, il y a eu de nombreuses avancées passionnantes dans ce domaine, presque toutes réalisées en utilisant la mécanique quantique standard et la théorie de la relativité d’Einstein. À mon avis, Smolin minimise le succès extraordinaire de cette approche conservatrice. C’est la base de la théorie quantique des champs (descendant de la théorie de Maxwell de l’électricité et du magnétisme), qui rend compte des résultats de toutes les expériences subatomiques, certains d’entre eux avec de nombreuses décimales. Malgré l’impression que Smolin donne, la physique théorique moderne est florissante, avec des idées potentiellement révolutionnaires sur l’espace et le temps émergeant d’une combinaison de la mécanique quantique standard et de la théorie de la relativité enseignée dans les universités pour les générations. Peut-être que les bouleversements de la physique auxquels Smolin aspire sont tout simplement inutiles.

Gratifiant, je doute que la ‘Révolution Inachevée d’Einstein’ convertira beaucoup des critiques de Smolin. Pour ce faire, il devra présenter ses idées plus rigoureusement que ce qu’il peut raisonnablement faire dans un livre populaire.

Une chose sur laquelle chaque physicien dans le domaine de Smolin peut convenir, c’est qu’il y a un besoin criant pour des indices plus juteux sur la nature. Il n’y a pas eu de surprises concernant le fonctionnement interne des atomes depuis une vingtaine d’années. Ce sont des résultats expérimentaux qui décideront si Smolin est correct, ou s’il proteste trop. Après tout, bien que la mécanique quantique pourrait ne pas satisfaire l’esprit philosophique, il s’est avéré être un outil totalement fiable pour les physiciens, même ceux qui n’ont aucun intérêt à débattre sur son interprétation.

Article original :

A realist takes on quantum mechanics

Graham Farmelo parses Lee Smolin’s takedown of the most successful physics theory ever.

Einstein’s Unfinished Revolution: The Search for What Lies Beyond the Quantum Lee Smolin Penguin Press (2019)

Quantum mechanics is perhaps the most successful theory ever formulated. For almost 90 years, experimenters have subjected it to rigorous tests, none of which has called its foundations into question. It is one of the triumphs of twentieth-century science. The only problem with it, argues Lee Smolin in Einstein’s Unfinished Revolution, is that it is wrong. In this challenging book, he attempts to examine other options for a theory of the atomic world.

Smolin is a theoretical physicist at the Perimeter Institute in Waterloo, Canada, and an outspoken critic of the direction his subject has taken over the past four decades. A fount of provocative ideas, he has showcased them in several popular books, including The Trouble with Physics (2006) and Time Reborn (2013). He is perhaps best known for his rejection of string theory, a widely used framework for fundamental physics that he dismisses as misguided. Although Smolin’s spirited opposition to some mainstream developments in modern physics irritates quite a few of his peers, I have a soft spot for him and anyone else who is unafraid to question the standard way of doing things. As the journalist Malcolm Muggeridge observed: “Only dead fish swim with the stream.”

Smolin’s book is in many ways ambitious. It goes right back to square one, introducing quantum mechanics at a level basic enough for high-school science students to grasp. He points out that the field gave a truly revolutionary account of the atomic world, something that had proved impossible with the theories (retrospectively labelled ‘classical’) that preceded it. The mathematical structure of quantum mechanics arrived before physicists were able to interpret it, and Smolin gives a clear account of subsequent arguments about the nature of the theory, before finally setting out his own ideas.

For me, the book demonstrates that it is best to regard Smolin as a natural philosopher, most interested in reflecting on the fundamental meanings of space, time, reality, existence and related topics. James Clerk Maxwell, leading nineteenth-century pioneer of the theory of electricity and magnetism, might be described in the same way — he loved to debate philosophical matters with colleagues in a range of disciplines. Maxwell’s way of thinking had a profound impact on Albert Einstein, who might also be considered part natural philosopher, part theoretical physicist.

Like Einstein, Smolin is a philosophical ‘realist’ — someone who thinks that the real world exists independently of our minds and can be described by deterministic laws. These enable us, in principle, to predict the future of any particle if we have enough information about it. This view of the world is incompatible with the conventional interpretation of quantum mechanics, in which key features are unpredictability and the role of observers in the outcome of experiments. Thus, Einstein never accepted that quantum mechanics was anything but an impressive placeholder for a more fundamental theory conforming to his realist credo. Smolin agrees.

He conducts his search for other ways of setting out quantum mechanics in language intelligible to a lay audience, with scarcely an equation in sight. Smolin is a lucid expositor, capable of freshening up material that has been presented thousands of times. Non-experts might, however, struggle as he delves into some of the modern interpretations of quantum mechanics, only to dismiss them. These include, for instance, the superdeterminism approach of the theoretician Gerard ’t Hooft.

The book is, however, upbeat and, finally, optimistic. Unapologetically drawing on historical tradition and even modern philosophy, Smolin proposes a new set of principles that applies to both quantum mechanics and space-time. He then explores how these principles might be realized as part of a fundamental theory of nature, although he stops short of supplying details of the implementation.

Smolin concludes with the implications of all this for our understanding of space and time. He suggests that time is irreversible and fundamental, in the sense that the processes by which future events are produced from present ones are truly basic: they do not need to be explained in terms of more basic ideas. Space, however, is different. He argues that it emerges from something deeper.

Yet it is far from clear whether Smolin’s new methods allow space and time to be investigated effectively. In recent decades, there have been many exciting advances in this subject, almost all made using standard quantum mechanics and Einstein’s theory of relativity. In my opinion, Smolin downplays the extraordinary success of this conservative approach. It is the basis of modern quantum field theory (a descendant of Maxwell’s theory of electricity and magnetism), which accounts for the results of all subatomic experiments, some of them to umpteen decimal places. Despite the impression that Smolin gives, modern theoretical physics is thriving, with potentially revolutionary ideas about space and time emerging from a combination of the standard quantum mechanics and relativity theory taught in universities for generations. Maybe the upheaval in physics that Smolin yearns for is simply unnecessary.

Rewarding as it is, I doubt Einstein’s Unfinished Revolution will convert many of Smolin’s critics. To do that, he will need to present his ideas more rigorously than he could reasonably do in a popular book.

One thing on which every physicist in Smolin’s field can agree is that there is a crying need for more juicy clues from nature. There have been no surprises concerning the inner workings of atoms for some 20 years. It is experimental results that will decide whether Smolin is correct, or whether he protests too much. After all, although quantum mechanics might not satisfy the philosophically minded, it has proved to be a completely dependable tool for physicists — even those who have no interest in debates about its interpretation.

Nature 568, 166-167 (2019)

doi: 10.1038/d41586-019-01101-0

 

[1] Qui fut le sujet de l’article dans le blog : ‘Bienvenu au moment présent de Lee Smolin’, 02/05/2013. Article dans lequel je reprochais à Smolin de mener des analyses très pertinentes mais incapable de franchir le Rubicon. Ce qui semble encore le cas d’après G. Farmelo. C’est peut-être la raison pour laquelle Farmelo le qualifie de philosophe de la nature uniquement car il ne transcrit pas dans une forme mathématique ou numérique le fruit essentiel de son analyse ce qui est paradoxal pour un théoricien.

Partager cet article
Repost0
6 avril 2019 6 06 /04 /avril /2019 12:48

Notre cerveau détecterait de façon inconsciente le champ magnétique terrestre.

Avec le titre de cet article très récent, survient deux interrogations. Est-ce que le résultat de la recherche dont l’article rend compte met en évidence un argument supplémentaire et convaincant que chez l’être humain, il y a de l’être de la nature ? Est-ce qu’il est ainsi identifié une détermination chez l’être humain qui obligatoirement oriente sa capacité d’inférer et qui interdit de considérer qu’il dispose d’une liberté intellectuelle complète pour traiter de certains sujets notamment physiques.

La réception de façon inconsciente du champ magnétique terrestre par notre cerveau ne peut pas être intégrée dans une cogitation consciente, en conséquence elle conditionnerait le travail réflexif du sujet pensant sans qu’il soit possible d’en connaître les effets et les conséquences, ce qui fragiliserait la croyance que l’être humain peut atteindre un niveau de réflexion qui soit garanti du bénéfice d’un réel et pur libre arbitre. 

Le compte rendu de cet article (voir en fin de mon propre article) que l’on peut lire sur le site de ‘Futura-Science’ du 23/03/2019 précise d’emblée : « Beaucoup d'animaux, comme les oiseaux migrateurs, perçoivent le champ magnétique terrestre. Des chercheurs californiens ont réalisé des expériences mettant en évidence la magnétoréception chez l'Homme : notre cerveau détecterait de façon inconsciente le champ magnétique terrestre. » Il est ainsi affirmé que l’être humain comme beaucoup d’animaux est relié à des causes naturelles à son corps défendant. La liberté absolue de l’être humain à l’égard de causes naturelles ne peut pas être présentement affirmée. C’est pour cette raison que je considère qu’il est impératif de prendre en compte cette dimension de l’influence déterminante de la nature sur l’être humain dans tout processus qui a pour finalité d’accéder à une connaissance objective du monde physique extérieure. Bref cette connaissance objective pure ne peut être atteinte car la nature agit sur notre être à notre insu. Il y a donc une composante ‘être de la nature’ qui habite, agit en nous. L’autre composante qui habite en nous, je la désigne : ‘être dans la nature’, elle est une composante qui, depuis l’hominisation, réduit notre dépendance à l’égard de la nature. C’est une émancipation qui est étroitement corrélée à la compréhension, à la découverte, de ce qui est de l’ordre de propriétés de la nature c’est-à-dire ce qui est en dehors du soi humain devenant ainsi de plus en plus autonome.

Ainsi, avec cet article, je rencontre un exemple concret qui illustre mon hypothèse : grâce au développement de l’activité de ‘l’être dans la nature’ nous découvrons que l’être humain possède un sens géomagnétique. C’est une première étape ! La deuxième sera franchie lorsqu’il sera possible d’intégrer la réceptivité géomagnétique de notre cerveau au niveau de notre conscience et conséquemment atteindra le statut d’un nouveau savoir acquis. Ce nouveau savoir réduira l’influence de ‘l’être de la nature’, ce qui contribuera au développement de la liberté existentielle de l’être humain au sein de la nature et partant accroîtra le rayonnement de ‘l’être dans la nature’ qui conduira à lever le voile sur d’autres déterminations naturelles encore inconscientes. C’est bien le processus de la conquête des connaissances qui est en jeu, processus qui constitue, à mes yeux, le moteur essentiel de notre évolution depuis les premiers temps de l’hominisation.

Selon moi, c’est une dynamique sans fin qui est à l’œuvre, elle est la ressource essentielle qui a fait que l’homme ancestral a pu émerger au sein de la lignée des primates. Sans fin, cela implique que la composante ‘être de la nature’ qui nous habite ne peut être réduite à rien car ce serait la fin de l’homme, c’est donc une composante vitale qui nous habite aussi. Cela indique aussi à quel point la connaissance des lois physiques fondamentales de la nature est si essentielle. La physique serait la mère de toutes les sciences comme René Descartes en son temps l’affirmait.

Les chercheurs (de l’institut de technologie Caltech (Californie)) qui ont réalisé l’expérience sur 34 participants, ont conçu une cage de Faraday dans laquelle il pouvait appliquer un champ magnétique d’une intensité 100 fois plus faible que celle d’un aimant collé sur la porte d’un réfrigérateur (sic). Soit 35 micro Tesla, sachant que le champ magnétique terrestre, en France, est de l’ordre de 45 micro Tesla. Ici nous pouvons constater que la progression vers des connaissances fondamentales nouvelles est étroitement corrélée à la maitrise progressive de technologies de plus en plus sophistiquées, nourrie par des connaissances préalables, permettant de construire des instruments d’une sensibilité remarquable. C’est donc vers cet extrêmement sensible qu’il y a à connaitre la relation intime effective entre la nature et l’être humain. (D’une façon générale j’ai déjà proposé de nombreux articles sur ce sujet, peut-être trop ? Je renvois à deux : celui du 18/03/2015 : ‘Décrypter la physique comme science de l’interface de l’être humain et de la Nature !’ ainsi que celui du 02/11/2012 : ‘Synthèse :  un Monde en ‘Présence’ etc…)

Notre dépendance observée à l’égard du champ magnétique terrestre, jusqu’à présent ignorée parce qu’inconsciente, ne pourra pas être naturellement annulée, mais sera appelée à devenir une connaissance dont on comprendra son action objective, dont on comprendra et évaluera le biais qu’elle introduit dans notre cheminement consistant à développer une pensée qui soit la plus objective possible, émancipée de l’inconnu de l’effet du champ magnétique terrestre sur notre cerveau.

Au début de l’année un article publié par 3 physiciens américains intitulé ‘La Tache Aveugle’ semblait indiquer qu’ils rejoignaient une position semblable à celle que je développe depuis si longtemps[1] (voir, articles de janvier et particulièrement celui du 22/01). J’ai souhaité, en leur proposant un échange sur ce sujet, mesurer jusqu’où il y avait convergence de nos points de vue mais cela est resté sans suite. Malheureusement, je n’en suis pas étonné car cela s’est déjà produit avec quelques autres physiciens qui dans la chute de leur article écrivent quelque chose de semblable, et hors des clous de la croyance majoritaire de la communauté scientifique, mais au bout du compte cela n’est qu’un effet de chute.

C’est un sujet encore trop iconoclaste pour qu’il soit abordé dans le cadre d’une interrogation collective par le milieu scientifique, on peut comprendre cette situation de la part des physiciens sans pour autant l’accepter car une des motivations qui guide cette communauté savante c’est la croyance que le savoir des physiciens est détaché de la moindre empreinte du monde subjectif. Pour eux, ce serait déjà un savoir ordonné, dans un univers ordonné et établi, il n’y aurait qu’à le mettre en évidence, à le débusquer : cela s’appelle ‘Réalisme’. Ceci est très ‘Platonicien’, beaucoup de mathématiciens et physiciens théoriques explicitent majoritairement ce point de vue.

Bref, la conséquence c’est un constat qui est de plus en plus partagé : ‘La physique est en crise’, depuis plusieurs décennies, voir article du 04/02. Il est toujours recherché au sein des mathématiques une issue à cette crise. Il est oublié que ce sont des nouveaux paradigmes qui sont à l’origine de bifurcations qui permettent de sortir des impasses. Ces nouveaux paradigmes[2] résultent toujours de sursauts de l’intelligence humaine qui propose une nouvelle façon, un nouveau référentiel, pour prospecter des propriétés encore inconnues de la nature. Dans ce cadre les mathématiques fournissent des outils efficaces pour accompagner ces sursauts fertiles.

Lire la bio

Marie-Céline Ray, article de Futura Science :

Journaliste

 

Publié le 23/03/2019

 

Beaucoup d'animaux, comme les oiseaux migrateurs, perçoivent le champ magnétique terrestre. Des chercheurs californiens ont réalisé des expériences mettant en évidence la magnétoréception chez l'Homme : notre cerveau détecterait de façon inconsciente le champ magnétique terrestre.

Nos livres de sciences naturelles nous ont appris très tôt que le corps humain était doté de cinq sens : la vue, l'audition, le toucher, le goût et l'odorat. Depuis fort longtemps, la question de l'existence d'un sixième sens humain, permettant de percevoir le champ magnétique, fait débat.

Jusqu'ici, les expériences réalisées n'avaient pas convaincu la communauté scientifique. Sur le site The Conversation, les auteurs de cette nouvelle recherche expliquent que ces échecs étaient dus « au fait que pratiquement toutes les études antérieures reposaient sur des décisions comportementales des participants. Si les êtres humains possèdent un sens magnétique, l'expérience quotidienne suggère qu'il serait très faible ou profondément subconscient. » C'est pourquoi les chercheurs de l'institut de technologie Caltech (Californie) ont voulu capter des réactions inconscientes du cerveau.

Le saviez-vous ?

Le champ magnétique terrestre, dont l’intensité et la direction varient à la surface du globe, est lié aux mouvements des fluides du noyau terrestre. Ce champ magnétique est assez faible à la surface de la Terre : son intensité est 100 fois plus faible que celle d’un aimant collé sur la porte du réfrigérateur !

Bien que de faible intensité, ce champ magnétique est perçu par différents animaux qui s'en servent pour se repérer. De nombreux vertébrés répondent à des stimuli magnétiques : poissons, amphibiens, reptiles, oiseaux et, chez les mammifères, des baleines, rongeurs, chauves-souris, vaches, chiens... Dans le monde microbien aussi, des bactéries possèdent des cristaux de magnétite qui sont des sortes de boussoles permettant d'orienter la nage de la cellule en fonction des lignes du champ magnétique. La magnétite est présente chez de nombreux animaux, y compris dans le cerveau humain. D'où la question que tout le monde se pose : l'Homme a-t-il un sens magnétique ?

Pour répondre à cette interrogation fondamentale, les chercheurs ont créé une cage de Faraday dans laquelle ils pouvaient appliquer un champ magnétique grâce à de grandes bobines. Le champ magnétique créé, d'une intensité de 35 µT (microTesla), pouvait être dirigé dans différentes directions. Par comparaison, en France, le champ magnétique terrestre est de l'ordre de 45 µT.

L’être humain possède un sens géomagnétique

Pour connaître l'activité électrique du cerveau des 34 participants, les chercheurs ont effectué des électroencéphalogrammes. Lors de l'expérience, chaque participant devait rester assis sur une chaise dans cette chambre isolée des radiofréquences extérieures, pendant 7 minutes, en fermant les yeux, tandis que les chercheurs modifiaient le champ magnétique. Le champ pouvait tourner dans le sens horaire ou anti-horaire, comme si vous bougiez la tête à gauche ou à droite, et il était orienté vers le bas, avec une inclinaison de 60° par rapport à l'horizontale, comme le champ magnétique terrestre aux latitudes de Pasadena, en Californie.

Les participants n'ont rien senti de particulier quand le champ magnétique a été manipulé, mais leur cerveau semblait réagir. Les chercheurs ont observé chez certaines personnes que, lorsque le champ magnétique, dirigé vers le bas, tournait en sens inverse des aiguilles d'une montre, l'amplitude des ondes alpha diminuait beaucoup. Les ondes alpha, d'une fréquence de 10 Hz, dominent un électro-encéphalogramme lorsque nous sommes éveillés, mais les yeux fermés, c'est-à-dire dans un état détendu. Lorsqu'un stimulus apparaît subitement, le rythme des ondes alpha est désynchronisé, et elles baissent en amplitude. Ce phénomène, appelé « désynchronisation liée à un événement alpha », ou alpha-ERD en anglais, peut avoir lieu par exemple quand le cerveau perçoit un flash lumineux. L'alpha-ERD signifie que le cerveau a capté le stimulus et traite l'information.

Nous avons un système sensoriel qui traite le champ géomagnétique tout autour de nous

Ces expériences suggèrent donc que le cerveau humain détecte le champ magnétique terrestre. D'après le communiqué de l’institut Caltech« nous avons un système sensoriel qui traite le champ géomagnétique tout autour de nous. » Une nouvelle question se pose alors : à quoi servirait ce sens géomagnétique chez l'Homme ? Peut-être nos ancêtres chasseurs-cueilleurs l'utilisaient-ils pour s'orienter et survivre.

Dans l'expérience, il y avait des différences entre les participants : certains ne réagissaient presque pas, alors que d'autres avaient une chute de moitié des ondes alpha après le changement magnétique. Les êtres humains auraient donc une sensibilité géomagnétique variable d'une personne à une autre.

Ce qu'il faut retenir

  • L’existence d’un sens magnétique chez l’Homme est controversée.
  • De nombreux animaux sont sensibles au champ magnétique terrestre.
  • Des chercheurs californiens ont étudié les ondes cérébrales de personnes placées dans une chambre dans laquelle ils faisaient varier un champ magnétique.
  • Le cerveau répondait à des changements du champ magnétique.

 

 

[1] « Il faut aussi embrasser l'espoir que nous pouvons créer une nouvelle culture scientifique, dans laquelle nous nous considérons nous-mêmes à la fois comme une expression de la nature et comme une source de l'auto-compréhension de la nature. Nous n'avons besoin de rien de moins qu'une science nourrie par cette sensibilité pour que l'humanité s'épanouisse dans le nouveau millénaire(sic). »

[2] Nouveaux paradigmes ou nouveaux principes posés a priori : pensons au principe d’équivalence posé par A. Einstein ainsi que le principe de l’invariance des lois physiques fondamentales par rapport aux conditions de leurs observations ; pensons au postulat posé par N. Bohr quant à la reconnaissance qu’à l’échelle quantique, les grandeurs physiques fondamentales ont des valeurs discrètes : ce qui fonde l’Ecole de Copenhague.

Partager cet article
Repost0
4 février 2019 1 04 /02 /février /2019 09:39

Crise au cœur de la physique : « Nous mourrons avant de trouver la réponse. »

De nouvelles théories ambitieuses imaginées pour expliquer la réalité nous ont conduits nulle part. Rencontre du noyau dur des physiciens essayant de penser une sortie de ce trou noir.

Ceci est le titre et le sous-titre d’un article du NewScientist du 16 janvier, que j’ai traduit, qui relate, à mon point de vue, le début d’une prise de conscience nécessaire donc utile. Cette situation de crise devra être analysée avec profondeur ce qui ne me semble pas le cas encore au ‘Perimeter Institute’. On peut le constater quand N. Turok ne peut s’empêcher d’affirmer qu’il a eu, il y a quelques mois, une idée géniale (banale) en exploitant des concepts qui sont conformes à ceux qui sont en cause dans cette crise.

« Vous avez peut-être entendu dire que la physique est en crise. On nous a dit qu’elle révélerait les secrets de l'origine de l'univers ainsi que la nature fondamentale de la réalité. Stephen Hawking nous a même dit qu'elle pourrait "nous montrer l'esprit de Dieu ". Mais les grandes découvertes se sont asséchées. Oui, nous avons trouvé le boson de Higgs et détecté des ondes gravitationnelles, mais cela a été prédit il y a des décennies. Aucune des idées vraiment ambitieuses des 30 dernières années n'a été bonne.

Alors, que se passe-t-il ? Pour le savoir, je suis allé à ‘l'Institut Perimeter de Waterloo’, au Canada, une installation dédiée à forger — comme son énoncé de mission l'annonce — "de nouvelles idées fortes, émergentes, sur la nature ultime de notre univers ". Cet institut abrite peut-être la plus grande concentration de physiciens théoriques dans le monde, et ceux-ci jouissent de plus de liberté que la plupart des physiciens pour émettre des idées audacieuses. Si quelqu'un peut faire la lumière sur la crise — et peut-être indiquer un moyen de s'en sortir — il se pourrait que ce soit quelqu’un d’ici.

Neil Turok, directeur de l'Institut, ne nie pas qu'il y ait une crise. Quand je suis conduit à son bureau pour une conversation supposée de 15 minutes, il me dédie une heure, en commençant par une évaluation inébranlable de son champ.  "Quand je suis arrivé dans la physique au début des années 80, elle a cessé d'être une réussite " dit-il. Aïe.

Beaucoup de ses collègues ne l’affirment pas si fortement. Certains préfèrent éviter le terme crise. Mais ils ne sont pas ignorants de cette perception que la physique théorique, du moins avec ses projets les plus ambitieux, est au plus bas.

"Nous croyons fermement qu'il y a des réponses nettes à nos questions », explique Luis Lehner, qui passe ses jours à essayer de comprendre comment la gravité pourrait s'écarter de la théorie de la relativité générale d'Einstein lorsqu'elle est poussée à l'extrême. Mais ce qu'il dit ensuite place le challenge actuel dans son contexte : "L'une des choses qui nous distingue, c'est que nous sommes heureux de mourir sans avoir nous-mêmes les réponses. "

Les théoriciens ont connu de meilleurs moments. En effet, pendant une grande partie du XXe siècle, ils étaient portés par une vague positive. Ça a commencé avec Einstein. Sa théorie de la relativité générale, qui décrit la gravité comme la résultante de l'espace-temps déformé, et qui a été prouvé au bon moment et encore. Puis il y a eu le développement de la mécanique quantique dans les années 1920. Une collection d'idées franchement dingues décrivant le monde subatomique, qui a néanmoins passé tous les tests expérimentaux jusqu’à ce jour.

Debout sur ces épaules-là, les théoriciens qui ont suivi ont donc conçu les deux modèles standards : l'un pour expliquer les particules et les forces, l’autre pour donner du sens aux origines et à l'évolution du Cosmos dans son ensemble. Le modèle standard des particules physiques est particulièrement impressionnant par le fait qu’il décrit le comportement de toute la matière connue grâce à un ensemble net d'équations qui pourraient tenir sur un T-shirt. Sa réussite finale est parvenue sous la forme du Boson de Higgs : une particule attribuant de la masse, conçue sur une intuition mathématique dans les années 1960 et d'abord observée au grand collisionneur de hadrons (LHC) au CERN, en 2012. Telle est la puissance de la physique théorique. Mais les modèles standards n'ont pas toutes les réponses, et aucune des idées proposées pour continuer de construire sur les précédentes ne se sont avérées être justes. Bien sûr, tous les théoriciens n’étudient pas que les particules et la cosmologie. Ils travaillent sur toutes sortes de choses, des lasers aux phases bizarres de la matière qui pourraient donner lieu à des matériaux exotiques. Mais quand il s'agit de ce que la plupart d'entre nous qui étudions les questions essentielles, à savoir, les origines de l'univers, les lois fondamentales de la nature — il est juste de dire que la vague a sérieusement ralenti.

 "Le progrès devient plus difficile, " dit Lehner.

 "Pousser vers de nouvelles frontières est plus délicat qu'auparavant, et cela coûte bien plus. Il a fallu des décennies pour construire une expérience capable de détecter les ondes gravitationnelles. Avec le Higgs ça a été pareil. C'est juste dans la nature des choses.  « En effet il est difficile de reconnaître les bonnes théories jusqu'à ce que nous les testions, et les tests sont de plus en plus délicats parce que cela signifie briser les particules ensemble à des énergies toujours plus élevées, et observer le Cosmos avec une définition toujours plus élevée. Donc on doit juste être patients. »

La fois suivante que je passe devant le bureau de Lehner, il a la tête fermement plantée sur son bureau. OK, donc la physique est dure. Et à certains égards, les théoriciens ont été victimes de leur propre succès, parce que les modèles qu'ils ont construits ont si bien travaillé qu'il est difficile de penser en dehors de la boîte pour penser une prochaine percée. Là encore, nous aurions pu sûrement espérer à ce que quelques idées récentes soient payantes, compte tenu des expériences énormes et coûteuses que nous avons construites pour les tester.

Le LHC ne visait pas seulement à trouver le Higgs. Il était également censé révéler une pléthore de particules prédites par la supersymétrie, une théorie mathématiquement élégante conçue pour expliquer pourquoi le Higgs est tellement plus léger que ce qu'il devrait être selon le modèle standard, et pourquoi la gravité est si faible par rapport aux autres forces fondamentales. Le LHC n'a rien trouvé de ce genre, et l'absence de preuves pour cette théorie précieuse a suscité un certain vague à l'âme. Même ceux qui en ont forgé l'idée sont maintenant prêt à remettre en question l'hypothèse sous-jacente de la « naturalité », à savoir que les lois de la nature doivent être plausibles et cohérentes, plutôt que de descendre au hasard.

 "Nous avons appris quelque chose : nous avons découvert ce qui n'est pas le cas, " dit Savas Dimopoulos : théoricien à l'Université de Stanford en Californie, et l'un des fondateurs de la supersymétrie. Comment apprécier quelles théories nous devrions poursuivre ?  "Peut-être que nous devons repenser nos critères, " dit-il.

Les plus grandes idées en cosmologie ont subi un destin similaire. Prenez l'idée que dans le fragment de seconde après le Big Bang, l'univers a subi une inflation prodigieuse. Cela expliquerait beaucoup : par exemple pourquoi l'univers apparaît le même dans toutes les directions. Encore une fois, cependant, nous n'avons aucune preuve réelle pour cela (sic).

La perspective devient encore plus sombre quand on considère les tentatives de couturer ensemble la relativité générale et la mécanique quantique. Pour les critiques les plus bruyants, c'est là que le croque-mitaine ultime se cache : la théorie des cordes avec l'idée que les particules ne sont que les morceaux visibles d'objets appelés cordes, qui existent en plusieurs dimensions supplémentaires. Ce n'est pas la seule théorie de la gravité quantique, mais c'est de loin la plus populaire en termes de nombre de théoriciens qui y travaillent. Cependant, cette théorie en est encore à produire une simple prédiction testable.

Pour le cosmologue Niayesh Afshordi, le fil qui relie ces broderies bâclées est la tendance des théoriciens à se consacrer à tout ce qui se trouve être l'idée la plus branchée (sic).  "C'est un phénomène de groupe " dit-il. Il pense que cela a beaucoup à voir avec l'influence surdimensionnée des citations.

 "Le combat maintenant n'est pas de trouver une théorie fondamentale. Il est de se faire remarquer, et la meilleure façon de le faire est de monter à bord d'un train "dit-il.  "Vous obtenez cette boucle de rétroaction : les gens qui passent plus de temps dans les wagons du train à la mode obtiennent plus de citations, puis plus de financements, et le cycle se répète. " En ce qui concerne ce type de critiques, la théorie des cordes est en effet la plus représentative.

Présentement, si triste. Pourtant avec chaque personne, avec laquelle je parle, elle insiste pour dire qu’il y a des raisons d'être gai(e). Bien qu'il semble de plus en plus improbable que le LHC puisse encore trouver des preuves de quelque chose comme la supersymétrie, et que nos derniers télescopes puissent encore découvrir l'empreinte de l'inflation dans le rayonnement relique. Même si aucune ne perce, une nouvelle génération de théoriciens est déjà passée à ce qui, avec la chance, se révélera être des pâturages plus verdoyants.

Asimina Arvanitaki, la première femme à détenir une Chaire de recherche à l'Institut Perimeter, se fait un nom par elle-même en trouvant de nouvelles façons intelligentes de tester les théories négligées. Passer une heure en sa compagnie est suffisant pour me convaincre que l'avenir de la physique est brillant.  "Il y a des gens qui pensent que, en utilisant juste la puissance de nos esprits, nous pouvons comprendre ce que la matière noire est, ce que la gravité quantique est," dit Arvanitaki.  "Ce n'est pas vrai. La seule façon d'avancer est d'avoir : expérience et théorie qui évoluent à l’unisson. »

Quant à Turok, il est optimiste. "Nous entrons dans une crise qui doit être fructueuse, où les fondations sont en péril, et c'est tout simplement passionnant. " dit-il.  "Je suis occupé à essayer de convaincre mes collègues ici de ne pas tenir compte des 30 dernières années. Nous devons retracer nos pas et déterminer où nous nous sommes trompés. "

Alors que tout le monde avec qui je parle à l'Institut me dit que ce genre de choses est terriblement compliqué et le devient de plus en plus avec le temps, N. Turok pense que c'est tout à fait simple. "Je suis venu à l'idée que les lois connues de la physique seront effectivement suffisantes pour expliquer tout." dit-il, avant de se rétracter avec une explication exaltante du pourquoi il n'y a pas une telle chose comme le Big Bang, ce qui aboutit à réinterpréter l'univers comme une paire univers/anti-univers, analogue à la matière et à l'antimatière (sic). Cela, dit-il, nous donne une solution pour la matière noire[1], "c’est si banal que les gens sont presque choqués que nous ayons manqué cette idée.".

Même si l’idée de N. Turok est erronée, au moins son approche indique que la pensée scientifique doit essentiellement se renouveler. Et après avoir passé quelques jours en compagnie de théoriciens chargés d'expliquer l'univers tout entier, de les voir déambuler dans les couloirs et de se cogner la tête sur leurs bureaux, je suis venu voir que nous devrions probablement leur lâcher du lest.

 « Cet endroit consiste à encourager les gens d’avoir des pensées ambitieuses et originales, dont 99% de ceux-ci se trompent », explique Turok.  "Si seulement un seul voit juste, il justifiera tout. "

Quelques physiciens théoriciens du ‘Perimeter Institute in Waterloo, Canada : « Comment ils vivent leur quotidien. » :

Asimina Arvanitaki : « Je passe la plupart de mon temps à être confuse sur les choses et me sentir comme une idiote. Mais la façon dont vous vous sentez aux moments où tout tombe en place dans votre esprit et que vous avez compris quelque chose d'important, est étonnant.

Il n'est pas clair quand une bonne idée viendra. Elle vient généralement après avoir réfléchi à des choses pendant un certain temps, se sentir coincé et puis, soudain, il y a ce moment : aha. Vous ne pouvez plus vraiment éteindre. »

Luis Lehner : « La vie d'un physicien en général se caractérise par une croyance profondément enracinée qu'en quelque sorte il y a une réponse à la question que vous vous posez, en comprenant aussi que nous devons attendre aussi longtemps qu'il le faudra. Je réfléchis beaucoup avec du rythme, et en particulier quand je cours. J'aime sortir et juste me perdre dans les pensées pendant le jogging. »

Niayesh Afshordi : « J'essaie de visualiser une image de ce qui se passe, et ce qui manque ou ne sent pas bien. Ensuite j’essaie de tester des idées qui pourraient résoudre le problème, et examiner leurs conséquences.

Les idées ont tendance à venir à des heures les plus indues, mon humeur tend à basculer périodiquement entre la frustration lorsque les idées ne fonctionnent pas, et dans le doute quand elles le font, sous réserve de l'approbation d’examinateurs anonymes. »

Avery Broderick : « Je passe la plupart de mes jours à me sentir très stupide. Je vais me mettre devant le tableau, ‘L’oeil du Tigre’ jouant dans ma tête, écrire quelque chose, l'effacer, changer ma pose, écrire quelque chose d'autre, l'effacer, ‘ad infinitum’. Concrètement c’est ainsi que ça fonctionne. Si nous savions ce que nous faisions, cela ne s’appellerait pas la recherche. »

Je propose à ce niveau de commenter cette partie de l’article à savoir : « Même ceux qui en ont forgé l'idée sont maintenant prêt à remettre en question l'hypothèse sous-jacente de la « naturalité », à savoir que les lois de la nature doivent être plausibles et cohérentes, plutôt que d’atterrir au hasard. » La naturalité est une conception plus nuancée que le réalisme einsteinien mais elle nie la contribution du sujet pensant dans les observations, dans son interprétation des événements de la nature, dans sa conception théorique. Bref les déterminations du sujet pensant sont totalement ignorées car il y a la conviction de la part de ces scientifiques que les fondements de la physique et sa méthode transcendent ces déterminations. Le 21/12/2011, j’ai posté un article qui mettait sérieusement en doute cette vision erronée des choses et il n’est pas possible d’être intellectuellement passif à l’égard de ce questionnement : « L’être humain est-il nu de toute contribution lorsqu’il décrypte et met en évidence une loi de la Nature ?».

L’article récent : ‘La Tache Aveugle’ ; ‘The Blind Spot’, révèle que les physiciens commencent à s’interroger sérieusement sur cet aveuglement collectif.

Quand N. Turok propose : « Nous devons retracer nos pas et déterminer où nous nous sommes trompés. » Là encore, il faut remonter plus haut que 30 ans en arrière et j’ai toujours considéré que l’outil théorique générique dénommée : ‘Théorie Quantique des Champs’ était à la source d’extrapolations et d’hypothèses fragiles, opportunistes, qui ont transformé cette ‘TQC’ en un ‘mille-feuille’ qui conduit à l’errance intellectuelle. J’ai acquis cette conviction en étudiant le traitement des neutrinos dans le cadre de cette TQC. Voir article du 08/11/2011 : ‘Qui se permettra de le dire ?’

Ce qui est certain, c’est que les physiciens doivent plus penser qu’appliquer au sein de modèles qui ne peuvent plus être standards. Il faut que le physicien pense sérieusement à sa position et à son statut en tant que sujet pensant dans son rapport avec l’observation intime de la Nature et son décryptage. J’ai tenté d’exprimer quelle était la bonne posture intellectuelle dans l’article du 22/03/2014 : ‘La physique n’est pas une science qui nous conduit à la connaissance de la réalité. Elle nous conduit à établir des vérités fondées.’

"Si seulement un seul voit juste, il justifiera tout. " : cette affirmation de Turok ne doit pas être considérée comme provocatrice, les physiciens ne sont pas des enfants gâtés, même ceux du ‘Perimeter Institute’ de Waterloo. Il est vrai que dès qu’il sera possible de voir juste ce sera l’humanité entière qui en sera bénéficiaire, certes à des degrés très divers, avec des effets d’inertie du progrès humain très variés, mais on ne peut nier que plus l’être humain peut mieux se situer dans l’univers plus il acquière une liberté de penser étendue, plus de liberté tout simplement. C’est un processus qui s’est engagé depuis la nuit des temps.

 

 

[1] This new model gives a natural explanation for dark matter: a CPT-symmetric Universe would produce large numbers of very massive sterile neutrinos (sic). Such superheavy neutrinos might also be the source of recently observed high-energy cosmic-ray showers (avalanche) (see 18 October 2018 Synopsis). This research is published in Physical Review Letters

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens