Citation
Catégorie
Tag – étiquette
Auteur
Info
Rechercher par n'importe quelle lettre



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits... Recherche mots ou phrases tous azimuts... Outil de précision sémantique et de réflexion communautaire... Voir aussi la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats ... Lire la suite >>
Résultat(s): 5395
Temps de recherche: 0.049s

biophysique

Lorsque le biologiste Tibor Gánti est décédé le 15 avril 2009, à l'âge de 75 ans, il était loin d'être connu. Une grande partie de sa carrière s'est déroulée derrière le rideau de fer qui a divisé l'Europe pendant des décennies, entravant les échanges d'idées.

Mais si les théories de Gánti avaient été plus largement connues à l'époque communiste, il pourrait aujourd'hui être acclamé comme l'un des biologistes les plus novateurs du XXe siècle. En effet, il a conçu un modèle d'organisme vivant le plus simple possible, qu'il a appelé le chimiotone ( Chemoton ) , et qui permet d'expliquer l'apparition de la vie sur Terre.

Pour les astrobiologistes qui s'intéressent à la vie au-delà de notre planète, le chimiotactisme offre une définition universelle de la vie, qui n'est pas liée à des substances chimiques spécifiques comme l'ADN, mais plutôt à un modèle d'organisation global.

"Il semble que Ganti a réfléchi aux fondements de la vie plus profondément que quiconque", déclare le biologiste Eörs Szathmáry, du Centre de recherche écologique de Tihany, en Hongrie.

Les débuts de la vie

Il n'existe pas de définition scientifique commune de la vie, mais ce n'est pas faute d'avoir essayé : Un article de 2012 a recensé 123 définitions publiées. Il est difficile d'en rédiger une qui englobe toute la vie tout en excluant tout ce qui n'est pas vivant et qui possède des attributs semblables à ceux de la vie, comme le feu et les voitures. De nombreuses définitions indiquent que les êtres vivants peuvent se reproduire. Mais un lapin, un être humain ou une baleine ne peuvent se reproduire seuls.

En 1994, un comité de la NASA a décrit la vie comme "un système chimique autonome capable d'une évolution darwinienne". Le mot "système" peut désigner un organisme individuel, une population ou un écosystème. Cela permet de contourner le problème de la reproduction, mais à un prix : l'imprécision.

(Photo : un cercle cellule contenant un autre cercle cellule en train de se dédoubler) 

Fonctionnement du chimiotactisme. Ce modèle théorique de la forme de vie la plus simple nécessite trois mécanismes interdépendants :

a) un cycle métabolique, pour transformer la nourriture en énergie

b)  la réplication des gabarits, pour la reproduction du modèle ;

c) une membrane, pour délimiter l'organisme.

Avec ce processus en 5 phases

1 Les molécules sont absorbées de l'environnement par le métabolisme

2 Le cycle métabolique produit d'abord des éléments pour renforcer sa menbrane

3  Le cylce métabolique use des molécules pour constituer sa réplique

4  La réplique produit une substance chimique qui est un composant clé de la membrane.

5 Les parties non utilisées des molécules sont éjectée à l'extérieur de la menbrane principale

Mais Tibor Ganti avait proposé une autre voie deux décennies plus tôt.

Il était né en 1933 dans la petite ville de Vác, dans le centre de la Hongrie. Ses débuts ayant été marqués par des conflits. La Hongrie s'est alliée à l'Allemagne nazie pendant la Seconde Guerre mondiale, mais en 1945, son armée a été vaincue par l'Union soviétique. Le régime totalitaire dominera l'Eurasie orientale pendant des décennies, la Hongrie devenant un État satellite, comme la plupart des autres pays d'Europe de l'Est.

Fasciné par la nature des êtres vivants, Gánti a étudié l'ingénierie chimique avant de devenir biochimiste industriel. En 1966, il a publié un livre sur la biologie moléculaire intitulé Forradalom az Élet Kutatásában, ou Révolution dans la recherche sur la vie, qui est resté pendant des années un manuel universitaire dominant, en partie parce qu'il n'y en avait pas beaucoup d'autres. L'ouvrage posait la question de savoir si la science comprenait comment la vie était organisée et concluait que ce n'était pas le cas.

En 1971, Gánti aborda le problème de front dans un nouveau livre, Az Élet Princípiuma, ou Les principes de la vie. Publié uniquement en hongrois, ce livre contient la première version de son modèle de chimiotactisme, qui décrit ce qu'il considère comme l'unité fondamentale de la vie. Toutefois, ce premier modèle d'organisme était incomplet et il lui a fallu trois années supplémentaires pour publier ce qui est aujourd'hui considéré comme la version définitive, toujours en hongrois, dans un document qui n'est pas disponible en ligne.

L'année du miracle

Globalement, 1971 a été une année faste pour la recherche sur l'origine de la vie. Outre les travaux de Gánti, la science a proposé deux autres modèles théoriques importants.

Le premier est celui du biologiste théoricien américain Stuart Kauffman, qui soutient que les organismes vivants doivent être capables de se copier eux-mêmes. En spéculant sur la manière dont cela aurait pu fonctionner avant la formation des cellules, il s'est concentré sur les mélanges de produits chimiques.

Supposons que le produit chimique A entraîne la formation du produit chimique B, qui entraîne à son tour la formation du produit chimique C, et ainsi de suite, jusqu'à ce qu'un élément de la chaîne produise une nouvelle version du produit chimique A. Après un cycle, il existera deux copies de chaque ensemble de produits chimiques. Si les matières premières sont suffisantes, un autre cycle produira quatre copies et continuera de manière exponentielle.

Kauffman a appelé un tel groupe un "ensemble autocatalytique" et il a soutenu que de tels groupes de produits chimiques auraient pu constituer la base de la première vie, les ensembles devenant plus complexes jusqu'à ce qu'ils produisent et utilisent une série de molécules complexes, telles que l'ADN.

Dans la seconde idée, le chimiste allemand Manfred Eigen a décrit ce qu'il a appelé un "hypercycle", dans lequel plusieurs ensembles autocatalytiques se combinent pour en former un seul plus grand. La variante d'Eigen introduit une distinction cruciale : Dans un hypercycle, certains des produits chimiques sont des gènes et sont donc constitués d'ADN ou d'un autre acide nucléique, tandis que d'autres sont des protéines fabriquées sur mesure en fonction des informations contenues dans les gènes. Ce système pourrait évoluer en fonction des changements - mutations - dans les gènes, une fonction qui manquait au modèle de Kauffman.

Gánti était arrivé indépendamment à une notion similaire, mais il l'a poussée encore plus loin. Selon lui, deux processus clés doivent se dérouler dans chaque organisme vivant. Premièrement, il doit construire et entretenir son corps, c'est-à-dire qu'il a besoin d'un métabolisme. Deuxièmement, il doit disposer d'une sorte de système de stockage de l'information, tel qu'un ou plusieurs gènes, qui peuvent être copiés et transmis à la descendance.

La première version du modèle de Gánti consistait essentiellement en deux ensembles autocatalytiques aux fonctions distinctes qui se combinaient pour former un ensemble autocatalytique plus important, ce qui n'est pas si différent de l'hypercycle d'Eigen. Cependant, l'année suivante, Gánti a été interrogé par un journaliste qui a mis en évidence une faille importante. Gánti supposait que les deux systèmes étaient basés sur des produits chimiques flottant dans l'eau. Or, laissés à eux-mêmes, ils s'éloigneraient les uns des autres et le chimiotone "mourrait".

La seule solution était d'ajouter un troisième système : une barrière extérieure pour les contenir. Dans les cellules vivantes, cette barrière est une membrane composée de substances chimiques ressemblant à des graisses, appelées lipides. Le chimiotone devait posséder une telle barrière pour se maintenir, et Gánti en a conclu qu'il devait également être autocatalytique pour pouvoir se maintenir et croître.

Voici enfin le chimiotone complet, le concept de Gánti de l'organisme vivant le plus simple possible : gènes, métabolisme et membrane, tous liés. Le métabolisme produit des éléments de construction pour les gènes et la membrane, et les gènes exercent une influence sur la membrane. Ensemble, ils forment une unité autoreproductible : une cellule si simple qu'elle pourrait non seulement apparaître avec une relative facilité sur Terre, mais qu'elle pourrait même rendre compte de biochimies alternatives sur des mondes extraterrestres.

Un modèle oublié

"Gánti a très bien saisi la vie", déclare le biologiste synthétique Nediljko Budisa, de l'université du Manitoba à Winnipeg, au Canada. "Sa lecture a été une révélation. Cependant, Budisa n'a découvert le travail de Gánti que vers 2005. En dehors de l'Europe de l'Est, l'ouvrage est resté obscur pendant des décennies, avec seulement quelques traductions anglaises sur le marché.

Le chimiotactisme est apparu en anglais en 1987, dans un livre de poche avec une traduction assez approximative, explique James Griesemer, de l'université de Californie, à Davis. Peu de gens l'ont remarqué. Szathmáry a ensuite donné au chimiotone une place de choix dans son livre de 1995, The Major Transitions in Evolution, coécrit avec John Maynard Smith. Cela a conduit à une nouvelle traduction anglaise du livre de Gánti de 1971, avec du matériel supplémentaire, publiée en 2003. Mais le chimiotone est resté dans une niche, et six ans plus tard, Gánti est mort.

Dans une certaine mesure, Gánti n'a pas aidé son modèle à s'imposer : il était connu pour être un collègue difficile. Selon Szathmáry, Gánti était obstinément attaché à son modèle, et paranoïaque de surcroît, ce qui le rendait "impossible à travailler".

Mais le plus gros problème du modèle chimiotactique est peut-être que, dans les dernières décennies du XXe siècle, la tendance de la recherche était de supprimer la complexité de la vie au profit d'approches de plus en plus minimalistes.

Par exemple, l'une des hypothèses les plus en vogue aujourd'hui est que la vie a commencé uniquement avec l'ARN, un proche cousin de l'ADN.

Comme son parent moléculaire plus célèbre, l'ARN peut porter des gènes. Mais l'ARN peut aussi agir comme une enzyme et accélérer les réactions chimiques, ce qui a conduit de nombreux experts à affirmer que la première vie n'avait besoin que d'ARN pour démarrer. Cependant, cette hypothèse du monde de l'ARN a été repoussée, notamment parce que la science n'a pas trouvé de type d'ARN capable de se copier sans aide - pensons aux virus à ARN comme le coronavirus, qui ont besoin de cellules humaines pour se reproduire.

D'autres chercheurs ont soutenu que la vie a commencé avec des protéines et rien d'autre, ou des lipides et rien d'autre. Ces idées sont très éloignées de l'approche intégrée de Gánti.

Un véritable chimiotactisme ?

Cependant, les scientifiques de ce siècle ont inversé la tendance. Les chercheurs ont désormais tendance à mettre l'accent sur la façon dont les substances chimiques de la vie fonctionnent ensemble et sur la manière dont ces réseaux coopératifs ont pu émerger.

Depuis 2003, Jack Szostak, de la Harvard Medical School, et ses collègues ont construit des protocellules de plus en plus réalistes : des versions simples de cellules contenant une série de substances chimiques. Ces protocellules peuvent croître et se diviser, ce qui signifie qu'elles peuvent s'autoreproduire.

En 2013, Szostak et Kate Adamala, alors étudiante, ont persuadé l'ARN de se copier à l'intérieur d'une protocellule. De plus, les gènes et la membrane peuvent être couplés : lorsque l'ARN s'accumule à l'intérieur, il exerce une pression sur la membrane extérieure, ce qui encourage la protocellule à s'agrandir.

Les recherches de Szostak "ressemblent beaucoup à celles de Gánti", déclare Petra Schwille, biologiste synthétique à l'Institut Max Planck de biochimie de Martinsried, en Allemagne. Elle souligne également les travaux de Taro Toyota, de l'université de Tokyo au Japon, qui a fabriqué des lipides à l'intérieur d'une protocellule, de sorte que celle-ci puisse développer sa propre membrane.

L'un des arguments avancés contre l'idée d'un chimiotone comme première forme de vie est qu'il nécessite un grand nombre de composants chimiques, notamment des acides nucléiques, des protéines et des lipides. De nombreux experts ont estimé qu'il était peu probable que ces substances chimiques soient toutes issues des mêmes matériaux de départ au même endroit, d'où l'attrait d'idées simples comme celle du monde de l'ARN.

Mais des biochimistes ont récemment trouvé des preuves que toutes les substances chimiques clés de la vie peuvent se former à partir des mêmes matériaux de départ simples. Dans une étude publiée en septembre, des chercheurs dirigés par Sara Szymkuć, alors à l'Académie polonaise des sciences à Varsovie, ont compilé une base de données à partir de décennies d'expériences visant à fabriquer les éléments chimiques de base de la vie. En partant de six produits chimiques simples, comme l'eau et le méthane, Szymkuć a découvert qu'il était possible de fabriquer des dizaines de milliers d'ingrédients clés, y compris les composants de base des protéines et de l'ARN.

Aucune de ces expériences n'a encore permis de construire un chimiotone fonctionnel. C'est peut-être simplement parce que c'est difficile, ou parce que la formulation exacte de Gánti ne correspond pas tout à fait à la façon dont la première vie a fonctionné. Quoi qu'il en soit, le chimiotone nous permet de réfléchir à la manière dont les composants de la vie fonctionnent ensemble, ce qui oriente de plus en plus les approches actuelles visant à comprendre comment la vie est apparue.

Il est révélateur, ajoute Szathmáry, que les citations des travaux de Gánti s'accumulent rapidement. Même si les détails exacts diffèrent, les approches actuelles de l'origine de la vie sont beaucoup plus proches de ce qu'il avait à l'esprit - une approche intégrée qui ne se concentre pas sur un seul des systèmes clés de la vie.

"La vie n'est pas une protéine, la vie n'est pas un ARN, la vie n'est pas une bicouche lipidique", explique M. Griesemer. "Qu'est-ce que c'est ? C'est l'ensemble de ces éléments reliés entre eux selon la bonne organisation.


Auteur: Internet

Info: https://www.nationalgeographic.com, 14 déc. 2020, par Michael Marshall

[ origine du vivant ] [ mécanisme ] [ matérialisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-animal

Dauphins : cerveau, conscience et intelligence

Les scientifiques rassemblés à San Diego, Californie, à l'occasion du Congrès annuel de l'Association Américaine pour l'Avancement de la Science, en ce mois de février 2010, ont conclu que le dauphin était un mammifère aussi évolué et intelligent que l’humain. Pour confirmer leurs assertions, ils se fondent notamment sur le développement phénoménal de son lobe frontal, siège de la pensée consciente et sur sa capacité que partagent seulement les grands singes et les éléphants de se reconnaître dans un miroir.

Ils insistent aussi sur le fait que le dauphin Tursiops Truncatus, (mais que sait-on des autres cétacés, de leur langage, de leurs cultures si riches et si variées?.) dispose du plus gros cerveau du monde, après celui de l’Homme, selon la théorie du coefficient encéphalique. Méfiance : celle-ci ne tient cependant pas compte des circonvolutions du cortex, largement plus nombreuses chez le cachalot ou d'autres cétacés que chez l'Homme. A la seule aune de ce coefficient, le singe Saïmiri nous dépasserait tous !

Par ailleurs, le carburant du cerveau, c’est le glucose, et à ce niveau, Dauphins et Humains partagent un métabolisme quasiment identique. De telles capacités cognitives, selon les scientifiques de San Diego où, rappelons-le, se trouve également le principal centre de dressage des dauphins militaires aux USA – pose un grave problème éthique quant à la détention forcée en delphinarium de ces remarquables cétacés. Ce point a été évoqué.

Notons que la sur-évolution des cétacés, un espèce née trente millions d'années avant JC, alors que nous ne totalisons au compteur que 160.000 ans en tant qu'Homo Sapiens, selon les dernières données de Pascal Picq, ne se situe pas seulement au niveau de la pensée consciente.

I. L’INTELLIGENCE DES DAUPHINS EN QUESTION

A quel niveau, la barre ?

De vigoureux débats ont régulièrement lieu à propos de l’intelligence du dauphin, où se retrouvent et s’opposent globalement trois opinions : Il y a ceux qui mettent la barre très haut. Ils pensent - peut-être à raison – que les dauphins sont dotés de pouvoirs paranormaux, et transcendent de très loin toutes nos possibilités mentales. Par exemple, pour Jim Nollman, la pensée cachalot étant produite par un cerveau cinq fois plus puissant que le nôtre est forcément cinq fois plus complexe et donc inaccessible à notre compréhension.

Sur un mode nettement moins rationnel et plus égoïste, la mouvance New Age tend à considérer les dauphins comme des extraterrestres arrivant de Sirius pour apporter un message au Monde et servir aux progrès des Hommes. C’est de cette mouvance, malheureusement, qu’est issue la mode des Dolphin Assisted Therapy (DAT) et l’on peut donc craindre que ces idéologies ne servent avant tout à favoriser l’expansion de ce marché.

Il y a ceux qui mettent la barre très bas. Et ceux-là très clairement, ont reçu pour mission de justifier les captures pour les delphinariums ou les massacres des baleines. On lira ainsi avec stupéfaction certaines études réductrices qui ramènent le cerveau du cétacé aux dimensions de celui du hérisson ou tendent à prétendre que les baleines ne sont finalement que de gros "bovidés de la mer", stupides, indolentes et presque insensibles. De même, toute la galaxie de chercheurs et vétérinaires vendus à l’industrie du delphinarium déclarera d’une seule voix que l’intelligence du dauphin ne dépasse guère celle du chien.

Et il y a ceux qui tentent de faire la part des choses... Et notamment d’aborder de manière objective une série de d’études scientifiques ou d’observations de terrain convergentes. En regroupant ces recherches, en les collationnant, en les mettant en perspectives, il devient alors très difficile de croire que les cétacés puissent n’être que des "toutous marins"…

Le frein de l’anthropocentrisme

La disqualification systématique des compétences cognitives des cétacés n’est pourtant pas le fait de seuls baleiniers ou des "dolphin trainers". Certains cétologues et associations (Anne Collet, Greenpeace) adoptent cette position, affirment-ils, par souci d’objectivité. En fait, il semble surtout qu’une sorte de terreur sacrée les saisisse devant l’effondrement de l’un des derniers dogmes inexpugnables du canon scientifique : "l’Homme, mesure de toutes choses, image de Dieu sur terre, est seul doté de conscience et de langage".

"En traçant une limite stricte entre l’Homme et la Bête" ajoute Keith Thomas, "le but principal de nos théoriciens modernes était surtout de justifier la chasse, la domestication, l’ingestion de la chair d’un animal mort, la vivisection – qui devint une pratique scientifique courante dès le 19 ème siècle - et l’extermination à large échelle de la vermine et des prédateurs".

On trouve un peu partout – mais surtout dans le monde de l’édition francophone – de pitoyables gesticulations mentales visant à dénigrer, chaque fois que faire se peut, toute contestation de cette vérité première, aussi évidente que la course du soleil autour de la terre. Innombrables sont les études qui nient que la guenon Washoe, le bonobo Kanzi ou le perroquet Alex puissent parlent de vrais langages. Un article récent allait même jusqu’à contester la notion de "conscience de soi" chez l’animal non-humain et le fait que les expériences de reconnaissance face au miroir puissent avoir valeur de preuve en ce domaine.

Bref, pour beaucoup d’humanistes de la vieille école, la prééminence de l’être humain sur le plan de l’intellect est un dogme, une conviction d’ordre affectif presque désespérée, et non pas une certitude scientifique. L’anthropocentrisme qui fonde toute notre vision du monde nous rend, semble-t-il, incapable d’appréhender la possibilité d’une conscience autre, "exotique" selon le mot de H.Jerison, mais parfaitement complète, aboutie et auto-réflexive.

Pourtant, insiste Donald Griffin : "Il n’est pas plus anthropomorphique, au sens strict du terme, de postuler l’existence d’expériences mentales chez d’autres espèces animales, que de comparer leurs structures osseuses, leurs systèmes nerveux ou leurs anticorps avec ceux des humains".

TECHNOLOGIE ET INTELLIGENCE

Cerveau vaste et puissant que celui du dauphin, certes. Mais encore ? Qu’en fait-il ? C’est là l’ultime argument massue de notre dernier carré d’humanistes qui, très expressément, maintient la confusion entre Intelligence et Technologie. Or nous savons – nous ne pouvons plus nier – que d’autres types d’intelligences existent. On se reportera notamment au passionnant ouvrage de Marc Hauser "Wild Minds : what animals really think" (Allen Lane éditions, Penguin Press, London 2000) qui définit en termes clairs la notion "d’outillage mental". Même si de grands paramètres restent communs à la plupart des espèces psychiquement évoluées, dit en substance l’auteur (règle de la conservation des objets, cartes mentales pour s’orienter, capacité de numériser les choses, etc.), à chaque environnement correspond néanmoins une vision du monde, un mode de pensée propre, qui permet à l’individu de survivre au mieux.

Les écureuils sont capables de garder à l’esprit des cartes mentales d’une précision hallucinante, fondée sur des images géométriques. Les baleines chassent avec des rideaux de bulles, dont le réglage demande une grande concentration et une puissance de calcul peu commune. Les orques et les dauphins ne produisent rien, c’est vrai mais ils sont là depuis des millions d’années, ne détruisent pas leur biotope, vivent en belle harmonie, n’abandonnent pas leurs blessés, ne se font pas la guerre entre eux et dominaient tous les océans jusqu’à ce que l’Homme vienne pour les détruire. Toutes vertus généralement qualifiées de "sens moral" et qui révèlent un très haut degré de compréhension du monde.

Il en est de même pour l’être humain : technicien jusqu’au bout des doigts, champion incontesté de la manipulation d’objets et de chaînes de pensées, adepte des lignes droites, de la course et de la vitesse, il vit dans un monde à gravité forte qui le maintient au sol et lui donne de l’environnement une vision bidimensionnelle.

L’imprégnation génétique de nos modes de conscience est forte : nous avons gardé de nos ancêtres la structure sociale fission-fusion mâtinée de monogamie, la protection de nos "frontières" est toujours assurée, comme chez les autres chimpanzés, par des groupes de jeunes mâles familialement associés (frères, cousins puis soldats se battant pour la Mère Patrie), notre goût pour la science, le savoir et les découvertes n’est qu’une forme sublimée de la néophilie presque maladive que partagent tous les grands primates, et notre passion pour les jardins, les parcs, les pelouses bien dégagés et les "beaux paysages" vient de ce que ceux-ci évoquent la savane primitive, dont les grands espaces partiellement arborés nous permettaient autrefois de nous cacher aisément puis de courir sur la proie...

Mais bien sûr, l’homme est incapable de bondir de branche en branche en calculant son saut au plus juste, il est incapable de rassembler un banc de poissons diffus rien qu’en usant de sons, incapable de tuer un buffle à l’affût en ne se servant que de son corps comme arme, etc.

Ce n’est certes pas pour nous un titre de gloire que d’être les plus violents, les plus cruels, les plus astucieux, les plus carnivores, mais surtout les plus habiles et donc les plus polluants de tous les grands hominoïdes ayant jamais vécu sur cette planète, et cela du seul fait que nous n’avons pas su ou pas voulu renoncer à nos outils mentaux primordiaux ni à nos règles primitives.

Au-delà de nos chefs-d’oeuvre intellectuels – dont nous sommes les seuls à percevoir la beauté – et de nos créations architecturales si calamiteuses au niveau de l’environnement, la fureur primitive des chimpanzés est toujours bien en nous, chevillée dans nos moindres gestes et dans tous nos désirs : plus que jamais, le pouvoir et le sexe restent au centre des rêves de tous les mâles de la tribu...

De la Relativité Restreinte d’Einstein à la Bombe d’Hiroshima

Une dernière question se pose souvent à propos de l’intelligence des cétacés : représente-t-elle ou non un enjeu important dans le cadre de leur protection ?

Là encore, certaines associations s’indignent que l’on puisse faire une différence entre la tortue luth, le tamarin doré, le cachalot ou le panda. Toutes ces espèces ne sont-elles pas également menacées et leur situation dramatique ne justifie-t-elle pas une action de conservation d’intensité égale ? Ne sont-elles pas toutes des "animaux" qu’il convient de protéger ? Cette vision spéciste met une fois encore tous les animaux dans le même sac, et le primate humain dans un autre…

Par ailleurs, force est de reconnaître que l’intelligence prodigieuse des cétacés met un autre argument dans la balance : en préservant les dauphins et baleines, nous nous donnons une dernière chance d’entrer en communication avec une autre espèce intelligente. Il est de même pour les éléphants ou les grands singes mais le développement cognitif des cétacés semblent avoir atteint un tel degré que les contacts avec eux pourraient atteindre au niveau de vrais échanges culturels.

Les seuls animaux à disposer d’un outil de communication relativement similaire au nôtre c’est à dire transmis sur un mode syntaxique de nature vocale – sont en effet les cétacés. On pourrait certainement communiquer par certains signes et infra-sons avec les éléphants, par certains gestes-symboles et mimiques avec les chimpanzés libres, mais ces échanges ne fourniraient sans doute que des informations simples, du fait de notre incapacité à nous immerger complètement dans la subtilité de ces comportements non-verbaux. Tout autre serait un dialogue avec des dauphins libres qui sont, comme nous, de grands adeptes du "vocal labeling", de la désignation des choses par des sons, de l’organisation de ces sons en chaînes grammaticalement organisées et de la création de sons nouveaux pour désigner de nouveaux objets.

Cette possibilité, inouïe et jamais advenue dans l’histoire humaine, est pour nous l’un des principaux enjeux de la conservation des "peuples de la mer" véritables nations cétacéennes dont nous ne devinerons sans doute que très lentement les limites du prodigieux univers mental. Une telle révolution risque bien d’amener d’extraordinaires changements dans notre vision du monde.

Il n’est d’ailleurs pas impossible que notre pensée technologique nous rende irrémédiablement aveugle à certaines formes de réalité ou fermé à certains modes de fonctionnement de la conscience. Comme l’affirme Jim Nollman, il se peut en effet que les cachalots soient capables d’opérations mentales inaccessibles à notre compréhension.

Il se peut que leur cerveau prodigieusement développé les rende à même de percevoir, mettons, cinq ou six des onze dimensions fondamentales de l’univers (Lire à ce propos : "L’Univers élégant" de Brian Greene, Robert Laffont éditeur) plutôt que les quatre que nous percevons ? Quel aspect peut avoir l’océan et le ciel sous un regard de cette sorte ?

Si nous ne leur parlons pas, impossible à savoir.

On imagine la piètre idée qu’ont pu se faire les premiers colons anglais de ces yogis immobiles qu’ils découvraient au fond d’une grotte en train de méditer... Se doutaient-ils seulement à quoi ces vieux anachorètes pouvaient passer leur temps ? Avaient-ils la moindre idée du contenu des Upanishads ou des Shiva Sutras, la moindre idée de ce que pouvait signifier le verbe "méditer" pour ces gens et pour cette culture ?

Les baleines bleues, les cachalots, les cétacés les plus secrets des grands fonds (zyphius, mésoplodon) sont-ils, de la même manière, des sages aux pensées insondables nageant aux frontières d’autres réalités… et que nous chassons pour leur viande ?

On se souvient aussi du mépris profond que l’Occident manifestait jusqu’il y a peu aux peuples primitifs. Les Aborigènes d’Australie vivaient nus, n’avaient que peu d’outils et se contentaient de chasser. Stupides ? Eh bien non ! La surprise fut totale lorsque enfin, on pris la peine de pénétrer la complexité inouïe de leurs mythes, de leurs traditions non-écrites et de leur univers mental... notions quasi inaccessible à la compréhension cartésienne d’un homme "civilisé".

Auteur: Internet

Info: http://www.dauphinlibre.be/dauphins-cerveau-intelligence-et-conscience-exotiques

[ comparaisons ] [ Umwelt ] [ hiérarchie ] [ sociologie ] [ xénocommunication ] [ fermeture anthropienne ]

 

Commentaires: 0

univers protonique

À l’intérieur du Proton, " la chose la plus complexe qu'on puisse imaginer "

La particule chargée positivement au cœur de l’atome est un objet d’une complexité indescriptible, qui change d’apparence en fonction de la manière dont elle est sondée. Nous avons tenté de relier les nombreuses faces du proton pour former l'image la plus complète à ce jour.

(image : Des chercheurs ont récemment découvert que le proton comprend parfois un quark charmé et un antiquark charmé, particules colossales puisqeu chacune est plus lourde que le proton lui-même.)

Plus d’un siècle après qu’Ernest Rutherford ait découvert la particule chargée positivement au cœur de chaque atome, les physiciens ont encore du mal à comprendre pleinement le proton.

Les professeurs de physique des lycées les décrivent comme des boules sans relief contenant chacune une unité de charge électrique positive – des feuilles parfaites pour les électrons chargés négativement qui bourdonnent autour d’elles. Les étudiants apprennent que la boule est en réalité un ensemble de trois particules élémentaires appelées quarks. Mais des décennies de recherche ont révélé une vérité plus profonde, trop bizarre pour être pleinement saisie avec des mots ou des images.

"C'est la chose la plus compliquée que l'on puisse imaginer", a déclaré Mike Williams, physicien au Massachusetts Institute of Technology. "En fait, on ne peut même pas imaginer à quel point c'est compliqué."

Le proton est un objet de mécanique quantique qui existe sous la forme d’un brouillard de probabilités jusqu’à ce qu’une expérience l’oblige à prendre une forme concrète. Et ses formes diffèrent radicalement selon la manière dont les chercheurs mettent en place leur expérience. Relier les nombreux visages de la particule a été l’œuvre de plusieurs générations. "Nous commençons tout juste à comprendre ce système de manière complète", a déclaré Richard Milner , physicien nucléaire au MIT.

Alors que la poursuite se poursuit, les secrets du proton ne cessent de se dévoiler. Plus récemment, une analyse monumentale de données publiée en août a révélé que le proton contient des traces de particules appelées quarks charmés, plus lourdes que le proton lui-même.

Le proton " a été une leçon d’humilité pour les humains ", a déclaré Williams. " Chaque fois qu'on pense pouvoir maîtriser le sujet, il nous envoie des balles à trajectoires courbées (en référence aux Pitchers du baseball)

Récemment, Milner, en collaboration avec Rolf Ent du Jefferson Lab, les cinéastes du MIT Chris Boebel et Joe McMaster et l'animateur James LaPlante, ont entrepris de transformer un ensemble d'intrigues obscures qui compilent les résultats de centaines d'expériences en une série d'animations de la forme -changement de proton. Nous avons intégré leurs animations dans notre propre tentative de dévoiler ses secrets.

Ouvrir le proton

La preuve que le proton contient de telles multitudes est venue du Stanford Linear Accelerator Center (SLAC) en 1967. Dans des expériences antérieures, les chercheurs l'avaient bombardé d'électrons et les avaient regardés ricocher comme des boules de billard. Mais le SLAC pouvait projeter des électrons avec plus de force, et les chercheurs ont constaté qu'ils rebondissaient différemment. Les électrons frappaient le proton assez fort pour le briser – un processus appelé diffusion inélastique profonde – et rebondissaient sur des fragments ponctuels du proton appelés quarks. "Ce fut la première preuve de l'existence réelle des quarks", a déclaré Xiaochao Zheng , physicien à l'Université de Virginie.

Après la découverte du SLAC, qui remporta le prix Nobel de physique en 1990, l'examen minutieux du proton s'est intensifié. Les physiciens ont réalisé à ce jour des centaines d’expériences de diffusion. Ils déduisent divers aspects de l'intérieur de l'objet en ajustant la force avec laquelle ils le bombardent et en choisissant les particules dispersées qu'ils collectent par la suite.

En utilisant des électrons de plus haute énergie, les physiciens peuvent découvrir des caractéristiques plus fines du proton cible. De cette manière, l’énergie électronique définit le pouvoir de résolution maximal d’une expérience de diffusion profondément inélastique. Des collisionneurs de particules plus puissants offrent une vision plus nette du proton.

Les collisionneurs à plus haute énergie produisent également un plus large éventail de résultats de collision, permettant aux chercheurs de choisir différents sous-ensembles d'électrons sortants à analyser. Cette flexibilité s'est avérée essentielle pour comprendre les quarks, qui se déplacent à l'intérieur du proton avec différentes impulsions.

En mesurant l'énergie et la trajectoire de chaque électron diffusé, les chercheurs peuvent déterminer s'il a heurté un quark transportant une grande partie de l'impulsion totale du proton ou juste une infime partie. Grâce à des collisions répétées, ils peuvent effectuer quelque chose comme un recensement, déterminant si l'impulsion du proton est principalement liée à quelques quarks ou répartie sur plusieurs.

(Illustration qui montre les apparences du proton en fonction des types de collisions)

Même les collisions de division de protons du SLAC étaient douces par rapport aux normes actuelles. Lors de ces événements de diffusion, les électrons jaillissaient souvent d'une manière suggérant qu'ils s'étaient écrasés sur des quarks transportant un tiers de l'impulsion totale du proton. Cette découverte correspond à une théorie de Murray Gell-Mann et George Zweig, qui affirmaient en 1964 qu'un proton était constitué de trois quarks.

Le " modèle des quarks " de Gell-Mann et Zweig reste une façon élégante d'imaginer le proton. Il possède deux quarks " up " avec des charges électriques de +2/3 chacun et un quark " down " avec une charge de −1/3, pour une charge totale de protons de +1.

(Image mobile : Trois quarks sont présents dans cette animation basée sur les données.)

Mais le modèle avec des quarks est une simplification excessive qui présente de sérieuses lacunes.

Qui échoue, par exemple, lorsqu'il s'agit du spin d'un proton, une propriété quantique analogue au moment cinétique. Le proton possède une demi-unité de spin, tout comme chacun de ses quarks up et down. Les physiciens ont initialement supposé que — dans un calcul faisant écho à la simple arithmétique de charge — les demi-unités des deux quarks up moins celle du quark down devaient être égales à une demi-unité pour le proton dans son ensemble. Mais en 1988, la Collaboration européenne sur les muons a rapporté que la somme des spins des quarks était bien inférieure à la moitié. De même, les masses de deux quarks up et d’un quark down ne représentent qu’environ 1 % de la masse totale du proton. Ces déficits ont fait ressortir un point que les physiciens commençaient déjà à comprendre : le proton est bien plus que trois quarks.

Beaucoup plus que trois quarks

L'accélérateur annulaire de hadrons et d'électrons (HERA), qui a fonctionné à Hambourg, en Allemagne, de 1992 à 2007, a projeté des électrons sur des protons avec une force environ mille fois supérieure à celle du SLAC. Dans les expériences HERA, les physiciens ont pu sélectionner les électrons qui avaient rebondi sur des quarks à impulsion extrêmement faible, y compris ceux transportant aussi peu que 0,005 % de l'impulsion totale du proton. Et ils les ont détectés : Les électrons d'HERA ont rebondi sur un maelström de quarks à faible dynamique et de leurs contreparties d'antimatière, les antiquarks.

(Photo image animée : De nombreux quarks et antiquarks bouillonnent dans une " mer " de particules bouillonnantes."

Les résultats ont confirmé une théorie sophistiquée et farfelue qui avait alors remplacé le modèle des quarks de Gell-Mann et Zweig. Développée dans les années 1970, il s’agissait d’une théorie quantique de la " force forte " qui agit entre les quarks. La théorie décrit les quarks comme étant liés par des particules porteuses de force appelées gluons. Chaque quark et chaque gluon possède l'un des trois types de charges "colorées ", étiquetées rouge, verte et bleue ; ces particules chargées de couleur se tirent naturellement les unes sur les autres et forment un groupe – tel qu’un proton – dont les couleurs s’additionnent pour former un blanc neutre. La théorie colorée est devenue connue sous le nom de chromodynamique quantique, ou QCD.

Selon cette QCD, les gluons peuvent capter des pics d’énergie momentanés. Avec cette énergie, un gluon se divise en un quark et un antiquark – chacun portant juste un tout petit peu d’impulsion – avant que la paire ne s’annihile et ne disparaisse. C'est cette " mer " de gluons, de quarks et d'antiquarks transitoires qu'HERA, avec sa plus grande sensibilité aux particules de faible impulsion, a détecté de première main.

HERA a également recueilli des indices sur ce à quoi ressemblerait le proton dans des collisionneurs plus puissants. Alors que les physiciens ajustaient HERA pour rechercher des quarks à faible impulsion, ces quarks – qui proviennent des gluons – sont apparus en nombre de plus en plus grand. Les résultats suggèrent que dans des collisions à énergie encore plus élevée, le proton apparaîtrait comme un nuage composé presque entièrement de gluons. (Image)

Les gluons abondent sous une forme semblable à un nuage.

Ce pissenlit de gluon est exactement ce que prédit la QCD. "Les données HERA sont une preuve expérimentale directe que la QCD décrit la nature", a déclaré Milner.

Mais la victoire de la jeune théorie s'est accompagnée d'une pilule amère : alors que la QCD décrivait magnifiquement la danse des quarks et des gluons à durée de vie courte révélée par les collisions extrêmes d'HERA, la théorie est inutile pour comprendre les trois quarks à longue durée de vie observés suite à un plus léger bombardement du SLAC.

Les prédictions de QCD ne sont faciles à comprendre que lorsque la force forte est relativement faible. Et la force forte ne s'affaiblit que lorsque les quarks sont extrêmement proches les uns des autres, comme c'est le cas dans les paires quark-antiquark de courte durée. Frank Wilczek, David Gross et David Politzer ont identifié cette caractéristique déterminante de la QCD en 1973, remportant le prix Nobel 31 ans plus tard.

Mais pour des collisions plus douces comme celle du SLAC, où le proton agit comme trois quarks qui gardent mutuellement leurs distances, ces quarks s'attirent suffisamment fortement les uns les autres pour que les calculs de QCD deviennent impossibles. Ainsi, la tâche de démystifier plus loin une vision du proton à trois quarks incombe en grande partie aux expérimentateurs. (Les chercheurs qui mènent des " expériences numériques ", dans lesquelles les prédictions QCD sont simulées sur des superordinateurs, ont également apporté des contributions clés .) Et c'est dans ce genre d' images à basse résolution que les physiciens continuent de trouver des surprises.

Une charmante nouvelle approche

Récemment, une équipe dirigée par Juan Rojo de l'Institut national de physique subatomique des Pays-Bas et de l'Université VU d'Amsterdam a analysé plus de 5 000 instantanés de protons pris au cours des 50 dernières années, en utilisant l'apprentissage automatique pour déduire les mouvements des quarks et des gluons à l'intérieur du proton via une procédure qui évite les conjectures théoriques.

Ce nouvel examen a détecté un flou en arrière-plan dans les images qui avait échappé aux chercheurs antérieurs. Dans des collisions relativement douces, juste capables d'ouvrir à peine le proton, la majeure partie de l'impulsion était enfermée dans les trois quarks habituels : deux ups et un down. Mais une petite quantité d’impulsion semble provenir d’un quark " charmé " et d’un antiquark charmé – particules élémentaires colossales dont chacune dépasse de plus d’un tiers le proton entier.

(Image mobie : Le proton agit parfois comme une " molécule " de cinq quarks.)

Ces charmés de courte durée apparaissent fréquemment dans le panorama " mer des quarks " du proton (les gluons peuvent se diviser en six types de quarks différents s'ils ont suffisamment d'énergie). Mais les résultats de Rojo et de ses collègues suggèrent que les charmés ont une présence plus permanente, ce qui les rend détectables lors de collisions plus douces. Dans ces collisions, le proton apparaît comme un mélange quantique, ou superposition, d'états multiples : un électron rencontre généralement les trois quarks légers. Mais il rencontrera occasionnellement une " molécule " plus rare de cinq quarks, comme un quark up, down et charmé regroupés d'un côté et un quark up et un antiquark charmé de l'autre.

Des détails aussi subtils sur la composition du proton pourraient avoir des conséquences. Au Grand collisionneur de hadrons, les physiciens recherchent de nouvelles particules élémentaires en frappant ensemble des protons à grande vitesse et en observant ce qui en ressort ; Pour comprendre les résultats, les chercheurs doivent commencer par savoir ce que contient un proton. L’apparition occasionnelle de quarks charmés géants rendrait impossible la production de particules plus exotiques.

Et lorsque des protons appelés rayons cosmiques déferlent ici depuis l'espace et percutent les protons de l'atmosphère terrestre, des quarks charmés apparaissant au bon moment inonderaient la Terre de neutrinos extra-énergétiques, ont calculé les chercheurs en 2021. Cela pourrait dérouter les observateurs à la recherche de neutrinos à haute énergie provenant de tout le cosmos.

La collaboration de Rojo prévoit de poursuivre l'exploration du proton en recherchant un déséquilibre entre les quarks charmés et les antiquarks. Et des constituants plus lourds, comme le quark top, pourraient faire des apparitions encore plus rares et plus difficiles à détecter.

Les expériences de nouvelle génération rechercheront des fonctionnalités encore plus inconnues. Les physiciens du Laboratoire national de Brookhaven espèrent lancer le collisionneur électron-ion dans les années 2030 et reprendre là où HERA s'est arrêté, en prenant des instantanés à plus haute résolution qui permettront les premières reconstructions 3D du proton. L'EIC utilisera également des électrons en rotation pour créer des cartes détaillées des spins des quarks et des gluons internes, tout comme le SLAC et HERA ont cartographié leurs impulsions. Cela devrait aider les chercheurs à enfin déterminer l'origine du spin du proton et à répondre à d'autres questions fondamentales concernant cette particule déroutante qui constitue l'essentiel de notre monde quotidien.

 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Charlie Bois, 19 octobre 2022

[ univers subatomique ]

 

Commentaires: 0

Ajouté à la BD par miguel

paliers bayésiens

Une nouvelle preuve montre que les graphiques "expanseurs" se synchronisent.

La preuve établit de nouvelles conditions qui provoquent une synchronisation synchronisée des oscillateurs connectés.

Il y a six ans, Afonso Bandeira et Shuyang Ling tentaient de trouver une meilleure façon de discerner les clusters dans d'énormes ensembles de données lorsqu'ils sont tombés sur un monde surréaliste. Ling s'est rendu compte que les équations qu'ils avaient proposées correspondaient, de manière inattendue, parfaitement à un modèle mathématique de synchronisation spontanée. La synchronisation spontanée est un phénomène dans lequel des oscillateurs, qui peuvent prendre la forme de pendules, de ressorts, de cellules cardiaques humaines ou de lucioles, finissent par se déplacer de manière synchronisée sans aucun mécanisme de coordination central.

Bandeira, mathématicien à l' École polytechnique fédérale de Zurich , et Ling, data scientist à l'Université de New York , se sont plongés dans la recherche sur la synchronisation, obtenant une série de résultats remarquables sur la force et la structure que doivent avoir les connexions entre oscillateurs pour forcer les oscillateurs. à synchroniseur. Ce travail a abouti à un article d'octobre dans lequel Bandeira a prouvé (avec cinq co-auteurs) que la synchronisation est inévitable dans des types spéciaux de réseaux appelés graphiques d'expansion, qui sont clairsemés mais également bien connectés.

Les expanseurs graphiques s'avèrent avoir de nombreuses applications non seulement en mathématiques, mais également en informatique et en physique. Ils peuvent être utilisés pour créer des codes correcteurs d'erreurs et pour déterminer quand les simulations basées sur des nombres aléatoires convergents vers la réalité qu'elles tentent de simuler. Les neurones peuvent être modélisés dans un graphique qui, selon certains chercheurs, forme un expanseur, en raison de l'espace limité pour les connexions à l'intérieur du cerveau. Les graphiques sont également utiles aux géomètres qui tentent de comprendre comment parcourir des surfaces compliquées, entre autres problèmes.

Le nouveau résultat " donne vraiment un aperçu considérable des types de structures graphiques qui vont garantir la synchronisation ", a déclaré Lee DeVille , un mathématicien de l'Université de l'Illinois qui n'a pas participé aux travaux. 

Synchronisation douce-amère         

"La synchronisation est vraiment l'un des phénomènes fondamentaux de la nature", a déclaré Victor Souza , un mathématicien de l'Université de Cambridge qui a travaillé avec Bandeira sur l'article. Pensez aux cellules stimulantes cardiaques de votre cœur, qui synchronisent leurs pulsations via des signaux électriques. Lors d'expériences en laboratoire, "vous pouvez faire vibrer des centaines ou des milliers de cellules embryonnaires de stimulateur cardiaque à l'unisson", a déclaré Steven Strogatz , mathématicien à l'Université Cornell et autre co-auteur. " C'est un peu effrayant parce que ce n'est pas un cœur entier ; c'est juste au niveau des cellules. "

En 1975, le médecin japonais Yoshiki Kuramoto a introduit un modèle mathématique décrivant ce type de système. Son modèle fonctionne sur un réseau appelé graphique, où les nœuds sont reliés par des lignes appelées arêtes. Les nœuds sont appelés voisins s'ils sont liés par une arête. Chaque arête peut se voir attribuer un numéro appelé poids qui code la force de la connexion entre les nœuds qu'elle connecte.

Dans le modèle de synchronisation de Kuramoto, chaque nœud contient un oscillateur, représenté par un point tournant autour d'un cercle. Ce point montre, par exemple, où se trouve une cellule cardiaque dans son cycle de pulsation. Chaque oscillateur tourne à sa propre vitesse préférée. Mais les oscillateurs veulent également correspondre à leurs voisins, qui peuvent tourner à une fréquence différente ou à un moment différent de leur cycle. (Le poids du bord dépendant de deux oscillateurs mesure la force du couplage entre eux.) S'écarter de ces préférences contribue à l'énergie dépensée par un oscillateur. Le système tente d'équilibrer tous les désirs concurrents en minimisant son énergie totale. La contribution de Kuramoto a été de simplifier suffisamment ces contraintes mathématiques pour que les mathématiciens puissent progresser dans l'étude du système. Dans la plupart des cas, de tels systèmes d'équations différentielles couplées sont pratiquement impossibles à résoudre.

Malgré sa simplicité, le modèle Kuramoto s'est révélé utile pour modéliser la synchronisation des réseaux, du cerveau aux réseaux électriques, a déclaré Ginestra Bianconi , mathématicienne appliquée à l'Université Queen Mary de Londres. "Dans le cerveau, ce n'est pas particulièrement précis, mais on sait que c'est très efficace", at-elle déclaré.

"Il y a ici une danse très fine entre les mathématiques et la physique, car un modèle qui capture un phénomène mais qui est très difficile à analyser n'est pas très utile", a déclaré Souza.

Dans son article de 1975, Kuramoto supposait que chaque nœud était connecté à tous les autres nœuds dans ce qu'on appelle un graphe complet. À partir de là, il a montré que pour un nombre infini d'oscillateurs, si le couplage entre eux était suffisamment fort, il pouvait comprendre leur comportement à long terme. Faisant l'hypothèse supplémentaire que tous les oscillateurs avaient la même fréquence (ce qui en feraient ce qu'on appelle un modèle homogène), il a trouvé une solution dans laquelle tous les oscillateurs finiraient par tourner simultanément, chacun arrondissant le même point de son cercle exactement au même endroit. en même temps. Même si la plupart des graphiques du monde réel sont loin d'être complets, le succès de Kuramoto a conduit les mathématiciens à se demander ce qui se passerait s'ils assouplissaient ses exigences.  

Mélodie et silence

Au début des années 1990, avec son élève Shinya Watanabe , Strogatz a montré que la solution de Kuramoto était non seulement possible, mais presque inévitable, même pour un nombre fini d'oscillateurs. En 2011, Richard Taylor, de l'Organisation australienne des sciences et technologies de la défense, a renoncé à l'exigence de Kuramoto selon laquelle le graphique devait être complet. Il a prouvé que les graphiques homogènes où chaque nœud est connecté à au moins 94 % des autres sont assurés de se synchroniser globalement. Le résultat de Taylor avait l'avantage de s'appliquer à des graphes avec des structures de connectivité arbitraires, à condition que chaque nœud ait un grand nombre de voisins.

En 2018, Bandeira, Ling et Ruitu Xu , un étudiant diplômé de l'Université de Yale, ont abaissé à 79,3 % l'exigence de Taylor selon laquelle chaque nœud doit être connecté à 94 % des autres. En 2020, un groupe concurrent a atteint 78,89 % ; en 2021, Strogatz, Alex Townsend et Martin Kassabov ont établi le record actuel en démontrant que 75 % suffisaient.

Pendant ce temps, les chercheurs ont également attaqué le problème dans la direction opposée, en suggérant de trouver des graphiques hautement connectés mais non synchronisés globalement. Dans une série d'articles de 2006 à 2022 , ils ont découvert graphique après graphique qui pourrait éviter la synchronisation globale, même si chaque nœud était lié plus de 68 % des autres. Beaucoup de ces graphiques ressemblent à un cercle de personnes se tenant la main, où chaque personne tend la main à 10, voire 100 voisins proches. Ces graphiques, appelés graphiques en anneaux, peuvent s'installer dans un état dans lequel chaque oscillateur est légèrement décalé par rapport au suivant.

De toute évidence, la structure du graphique influence fortement la synchronisation. Ling, Xu et Bandeira sont donc devenus curieux des propriétés de synchronisation des graphiques générées aléatoirement. Pour rendre leur travail précis, ils ont utilisé deux méthodes courantes pour construire un graphique de manière aléatoire.

Le premier porte le nom de Paul Erdős et Alfréd Rényi, deux éminents théoriciens des graphes qui ont réalisé des travaux fondateurs sur le modèle. Pour construire un graphique à l'aide du modèle Erdős-Rényi, vous démarrez avec un groupe de nœuds non connectés. Ensuite, pour chaque paire de nœuds, vous les reliez au hasard avec une certaine probabilité  p  . Si  p  vaut 1 %, vous liez les bords 1 % du temps ; si c'est 50 %, chaque nœud se connectera en moyenne à la moitié des autres.

Si  p  est légèrement supérieur à un seuil qui dépend du nombre de nœuds dans le graphique, le graphique ancien, avec une très grande probabilité, un réseau interconnecté (au lieu de comprendre les clusters qui ne sont pas reliés). À mesure que la taille du graphique augmente, ce devient seuil minuscule, de sorte que pour des graphiques suffisamment grands, même si  p  est petit, ce qui rend le nombre total d'arêtes également petit, les graphiques d'Erdős-Rényi seront connectés .

Le deuxième type de graphe qu'ils ont considéré est appelé graphe  d  -régulier. Dans de tels graphes, chaque nœud a le même nombre d'arêtes,  d  . (Ainsi, dans un graphe 3-régulier, chaque nœud est connecté à 3 autres nœuds, dans un graphe 7-régulier, chaque nœud est connecté à 7 autres, et ainsi de suite.)

(Photo avec schéma)

Les graphiques bien connectés bien qu'ils soient clairsemés (n'ayant qu'un petit nombre d'arêtes) sont appelés graphiques d'expansion. Celles-ci sont importantes dans de nombreux domaines des mathématiques, de la physique et de l'informatique, mais si vous souhaitez construire un graphe d'expansion avec un ensemble particulier de propriétés, vous constaterez qu'il s'agit d'un " problème étonnamment non trivial", selon l'éminent mathématicien. Terry Tao. Les graphes d'Erdős-Rényi, bien qu'ils ne soient pas toujours extensibles, partagent bon nombre de leurs caractéristiques importantes. Et il s'avère que si vous construisez cependant un graphe  d'  ajustement et connectez les arêtes de manière aléatoire, vous obtiendrez un graphe d'expansion.

Joindre les deux bouts

En 2018, Ling, Xu et Bandeira ont deviné que le seuil de connectivité pourrait également mesurer l'émergence d'une synchronisation globale : si vous générerez un graphique d'Erdős-Rényi avec  p juste un peu plus grand que le seuil, le graphique devrait se synchroniser globalement. Ils ont fait des progrès partiels sur cette conjecture, et Strogatz, Kassabov et Townsend ont ensuite amélioré leur résultat. Mais il subsiste un écart important entre leur nombre et le seuil de connectivité.

En mars 2022, Townsend a rendu visite à Bandeira à Zurich. Ils ont réalisé qu'ils avaient une chance d'atteindre le seuil de connectivité et ont fait appel à Pedro Abdalla , un étudiant diplômé de Bandeira, qui à son tour a enrôlé son ami Victor Souza. Abdalla et Souza ont commencé à peaufiner les détails, mais ils se sont rapidement heurtés à des obstacles.

Il semblait que le hasard accompagnait des problèmes inévitables. À moins que  p  ne soit significativement plus grand que le seuil de connectivité, il y aurait probablement des fluctuations sauvages dans le nombre d'arêtes de chaque nœud. L'un peut être attaché à 100 arêtes ; un autre pourrait être attaché à aucun. "Comme pour tout bon problème, il riposte", a déclaré Souza. Abdalla et Souza ont réalisé qu'aborder le problème du point de vue des graphiques aléatoires ne fonctionnerait pas. Au lieu de cela, ils utiliseraient le fait que la plupart des graphiques d'Erdős-Rényi sont des expanseurs. "Après ce changement apparemment innocent, de nombreuses pièces du puzzle ont commencé à se mettre en place", a déclaré Souza. "En fin de compte, nous obtenons un résultat bien meilleur que ce à quoi nous nous attendons." Les graphiques sont accompagnés d'un nombre appelé expansion qui mesure la difficulté de les couper en deux, normalisé à la taille du graphique. Plus ce nombre est grand, plus il est difficile de le diviser en deux en supprimant des nœuds.

Au cours des mois suivants, l'équipe a complété le reste de l'argumentation en publiant son article en ligne en octobre. Leur preuve montre qu'avec suffisamment de temps, si le graphique a suffisamment d'expansion, le modèle homogène de Kuramoto se synchronisera toujours globalement.

Sur la seule route

L'un des plus grands mystères restants de l'étude mathématique de la synchronisation ne nécessite qu'une petite modification du modèle présenté dans le nouvel article : que se passe-t-il si certaines paires d'oscillateurs se synchronisent , mais que d'autres s'en écartent ? Dans cette situation, " presque tous nos outils disparaissent immédiatement ", a déclaré Souza. Si les chercheurs parviennent à progresser sur cette version du problème, ces techniques aideront probablement Bandeira à résoudre les problèmes de regroupement de données qu'il avait entrepris de résoudre avant de se tourner vers la synchronisation.

Au-delà de cela, il existe des classes de graphiques outre les extensions, des modèles plus complexes que la synchronisation globale et des modèles de synchronisation qui ne supposent pas que chaque nœud et chaque arête soient identiques. En 2018, Saber Jafarpour et Francesco Bullo de l'Université de Californie à Santa Barbara ont proposé un test de synchronisation globale qui fonctionne lorsque les rotateurs n'ont pas de poids ni de fréquences préférées identiques. L'équipe de Bianconi et d'autres ont travaillé avec des réseaux dont les liens impliquent trois, quatre nœuds ou plus, plutôt que de simples paires.

Bandeira et Abdalla tentent déjà d'aller au-delà des modèles Erdős-Rényi et  d  -regular vers d'autres modèles de graphiques aléatoires plus réalistes. En août dernier, ils ont partagé un article, co-écrit avec Clara Invernizzi, sur la synchronisation dans les graphiques géométriques aléatoires. Dans les graphes géométriques aléatoires, conçus en 1961, les nœuds sont dispersés de manière aléatoire dans l'espace, peut-être sur une surface comme une sphère ou un plan. Les arêtes sont placées entre des paires de nœuds s'ils se trouvent à une certaine distance les uns des autres. Leur inventeur, Edgar Gilbert, espérait modéliser des réseaux de communication dans lesquels les messages ne peuvent parcourir que de courtes distances, ou la propagation d'agents pathogènes infectieux qui exigeaient un contact étroit pour se transmettre. Des modèles géométriques aléatoires permettront également de mieux capturer les liens entre les lucioles d'un essaim, qui se synchronisent en observant leurs voisines, a déclaré Bandeira.

Bien entendu, relier les résultats mathématiques au monde réel est un défi. "Je pense qu'il serait un peu mensonger de prétendre que cela est imposé par les applications", a déclaré Strogatz, qui a également noté que le modèle homogène de Kuramoto ne peut jamais capturer la variation inhérente aux systèmes biologiques. Souza a ajouté : " Il y a de nombreuses questions fondamentales que nous ne savons toujours pas comment résoudre. C'est plutôt comme explorer la jungle. " 



 

Auteur: Internet

Info: https://www.quantamagazine.org - Leïla Sloman, 24 juillet 2023

[ évolution ] [ radiations adaptatives ] [ pressions de sélection ] [ palier évolutif ] [ équilibres ponctués ] [ syntonisations ]

 

Commentaires: 0

Ajouté à la BD par miguel

énactions grégaires

L'intelligence a évolué au moins deux fois chez les animaux vertébrés

Les circuits neuronaux complexes sont probablement apparus indépendamment chez les oiseaux et les mammifères, ce qui suggère que les vertébrés ont développé leur intelligence à plusieurs reprises.

Les humains ont tendance à mettre leur propre intelligence sur un piédestal. Notre cerveau peut faire des mathématiques, utiliser la logique, explorer des abstractions et penser de manière critique. Mais nous ne pouvons pas revendiquer le monopole de la pensée. Parmi les nombreuses espèces non humaines connues pour leur intelligence, les oiseaux ont démontré à maintes reprises des capacités cognitives avancées. Les corbeaux planifient pour l'avenir, les corbeaux comptent et utilisent des outils , les cacatoès s'ouvrent et pillent des poubelles piégées et des mésanges gardent la trace de dizaines de milliers de graines disséminées dans un paysage. Il est remarquable que les oiseaux accomplissent de telles prouesses avec des cerveaux complètement différents des nôtres : ils sont plus petits et dépourvus des structures hautement organisées que les scientifiques associent à l'intelligence des mammifères.

" Un oiseau avec un cerveau de 10 grammes fait à peu près la même chose qu'un chimpanzé avec un cerveau de 400 grammes ", a déclaré Onur Güntürkün, qui étudie les structures cérébrales à l'Université de la Ruhr à Bochum, en Allemagne. " Comment est-ce possible ? "

Les chercheurs débattent depuis longtemps du lien entre l'intelligence des oiseaux et celle des mammifères. Une hypothèse est que l'intelligence des vertébrés – animaux dotés d'une colonne vertébrale, dont les mammifères et les oiseaux – ait évolué une fois. Dans ce cas, les deux groupes auraient hérité des voies neuronales complexes qui sous-tendent la cognition d'un ancêtre commun : une créature ressemblant à un lézard qui vivait il y a 320 millions d'années, lorsque les continents terrestres étaient comprimés en une seule masse continentale. L'autre hypothèse est que les types de circuits neuronaux qui sous-tendent l'intelligence des vertébrés aient évolué indépendamment chez les oiseaux et les mammifères.

Il est difficile de retracer le chemin emprunté par l'évolution, étant donné que toute trace du cerveau de l'ancêtre a disparu en un éclair géologique. Les biologistes ont donc adopté d'autres approches, comme la comparaison des structures cérébrales des animaux adultes et en développement d'aujourd'hui, pour comprendre comment cette complexité neurobiologique a pu émerger.

Une série d'études publiées dans Science en février 2025 fournit la meilleure preuve à ce jour que les oiseaux et les mammifères n'ont pas hérité d'un ancêtre commun les voies neuronales génératrices de l'intelligence, mais les ont développées indépendamment. Cela suggère que l'intelligence des vertébrés est apparue non pas une fois, mais plusieurs fois. Pourtant, leur complexité neuronale n'a pas évolué dans des directions radicalement différentes : les cerveaux des oiseaux et des mammifères présentent des circuits étonnamment similaires, selon les études.

" C'est une étape importante dans la quête de compréhension et d'intégration des différentes idées sur l'évolution " de l'intelligence des vertébrés, a déclaré Güntürkün, qui n'a pas participé à la nouvelle recherche.

Ces découvertes, qui émergent dans un monde fasciné par les formes d'intelligence artificielle, pourraient nous éclairer sur l'évolution des circuits complexes de notre cerveau. Plus important encore, elles pourraient nous aider à nous éloigner de l'idée que nous sommes les meilleures créatures du monde, a déclaré Niklas Kempynck, un étudiant diplômé de la KU Leuven qui a dirigé l'une des études. " Nous ne sommes pas la solution optimale pour l'intelligence. "

Les oiseaux y sont également arrivés par leurs propres moyens.

Trouble du picage

Pendant la première moitié du XXe siècle, les neuroanatomistes pensaient que les oiseaux n'étaient tout simplement pas si intelligents. Ces créatures sont dépourvues de tout élément ressemblant à un néocortex – la structure externe hautement ordonnée du cerveau des humains et des autres mammifères, où résident le langage, la communication et le raisonnement. Le néocortex est organisé en six couches de neurones, qui reçoivent les informations sensorielles d'autres parties du cerveau, les traitent et les transmettent aux régions qui déterminent notre comportement et nos réactions.

" Pendant longtemps, on a pensé que c'était le centre de la cognition, et que ce type d'anatomie était nécessaire pour développer des capacités cognitives avancées ", a déclaré Bastienne Zaremba , chercheur postdoctoral étudiant l'évolution du cerveau à l'Université de Heidelberg.

Au lieu de couches bien nettes, les oiseaux ont " des boules de neurones non spécifiées sans repères ni distinctions ", a déclaré Fernando García-Moreno, neurobiologiste au Centre basque de neurosciences Achucarro, en Espagne. Ces structures ont poussé les neuroanatomistes, il y a un siècle, à suggérer qu'une grande partie du comportement des oiseaux est réflexive et non motivée par l'apprentissage et la prise de décision. Cela " implique que ce qu'un mammifère peut apprendre facilement, un oiseau ne l'apprendra jamais ", a déclaré Güntürkün.

La pensée conventionnelle a commencé à évoluer dans les années 1960, lorsque Harvey Karten, un jeune neuroanatomiste du Massachusetts Institute of Technology, a cartographié et comparé les circuits cérébraux des mammifères et des pigeons, puis de hiboux, de poulets et d'autres oiseaux. Sa découverte a été une surprise : les régions cérébrales que l'on pensait impliquées uniquement dans les mouvements réflexes étaient constituées de circuits neuronaux – des réseaux de neurones interconnectés – qui ressemblaient à ceux du néocortex des mammifères. Cette région du cerveau des oiseaux, la crête ventriculaire dorsale (DVR), semblait comparable à un néocortex ; elle n'en avait simplement pas l'apparence.

En 1969, Karten a écrit un " article très influent qui a complètement changé le débat dans le domaine ", a déclaré Maria Tosches, qui étudie le développement du cerveau des vertébrés à l'Université Columbia. " Ses travaux étaient véritablement révolutionnaires. " Il a conclu que, les circuits aviaires et mammifères étant similaires, ils étaient hérités d'un ancêtre commun. Cette pensée a dominé le domaine pendant des décennies, a déclaré Güntürkün, ancien postdoctorant au laboratoire de Karten. Elle a " suscité un vif intérêt pour le cerveau des oiseaux ". 

Quelques décennies plus tard, Luis Puelles, anatomiste à l'Université de Murcie en Espagne, est arrivé à la conclusion inverse de celle de Karten. En comparant des embryons à différents stades de développement, il a découvert que le néocortex des mammifères et le DVR aviaire se développaient à partir de zones distinctes du pallium de l'embryon – une région cérébrale commune à tous les vertébrés. Il en a conclu que ces structures avaient dû évoluer indépendamment.

Karten et Puelles " apportaient des réponses radicalement différentes à cette grande question ", a déclaré Tosches. Le débat a duré des décennies. À cette époque, les biologistes ont également commencé à s'intéresser à l'intelligence des oiseaux, en commençant par leurs études sur Alex, un perroquet gris d'Afrique capable de compter et d'identifier des objets. Ils ont alors réalisé à quel point les oiseaux pouvaient être intelligents.

Cependant, selon García-Moreno, aucun des deux groupes ne semblait vouloir résoudre la divergence entre leurs deux théories sur l'évolution des palliums des vertébrés. "Non, ils ont continué à travailler sur leur propre méthode ", a-t-il déclaré. Un camp a continué à comparer les circuits du cerveau des vertébrés adultes ; l'autre s'est concentré sur le développement embryonnaire.

Dans les nouvelles études, a-t-il déclaré, " nous avons essayé de tout rassembler ".

Pareil mais pas pareil

Deux nouvelles études, menées par des équipes de chercheurs indépendantes, se sont appuyées sur le même outil puissant d'identification des types cellulaires : le séquençage d'ARN unicellulaire. Cette technique permet aux chercheurs de comparer les circuits neuronaux, comme l'a fait Karten, non seulement dans le cerveau adulte, mais tout au long du développement embryonnaire, en suivant Puelles. Ils ont ainsi pu identifier le point de départ de la croissance des cellules dans l'embryon et leur évolution finale chez l'animal adulte : un processus développemental révélateur de voies évolutives.

Pour leur étude, García-Moreno et son équipe souhaitaient observer le développement des circuits cérébraux. Grâce au séquençage de l'ARN et à d'autres techniques, ils ont suivi des cellules dans les palliums de poulets, de souris et de geckos à différents stades embryonnaires afin d'horodater la génération et le stade de maturation des différents types de neurones.

Ils ont découvert que les circuits matures se ressemblaient remarquablement chez tous les animaux, comme l'avaient noté Karten et d'autres, mais ils étaient construits différemment, comme l'avait découvert Puelles. Les circuits qui composaient le néocortex des mammifères et le DVR aviaire se sont développés à des moments différents, dans des ordres différents et dans des régions différentes du cerveau.

(Image : 2 schémas comparés explicatif ) 

Parallèlement, García-Moreno collaborait avec Zaremba et ses collègues de l'Université de Heidelberg. Grâce au séquençage de l'ARN, ils ont créé " l'atlas le plus complet du pallium* aviaire dont nous disposons ", a déclaré Tosches, auteur d' un article de perspective connexe publié dans Science. En comparant le pallium des oiseaux à ceux des lézards et des souris, ils ont également découvert que le néocortex et le DVR étaient dotés de circuits similaires — cependant, les neurones qui composaient ces circuits neuronaux étaient distincts.

" La manière dont nous avons obtenu des circuits similaires était plus flexible que je ne l'aurais imaginé ", a déclaré Zaremba. " On peut construire les mêmes circuits à partir de différents types de cellules. "

Zaremba et son équipe ont également découvert que, dans le pallium des oiseaux, des neurones qui débutent leur développement dans différentes régions peuvent se développer en neurones du même type à l'âge adulte. Cela contredit les théories précédentes, selon lesquelles des régions distinctes de l'embryon doivent générer différents types de neurones.

Chez les mammifères, le développement cérébral suit un cheminement intuitif : les cellules de l’amygdale embryonnaire, au début du développement, se retrouvent dans l’amygdale adulte. Les cellules du cortex embryonnaire se retrouvent dans le cortex adulte. Mais chez les oiseaux, " on observe une réorganisation extraordinaire du cerveau antérieur ", explique Güntürkün, " qui est totalement inattendue ".

Prises ensemble, ces études apportent la preuve la plus claire à ce jour que les oiseaux et les mammifères ont développé indépendamment des régions cérébrales responsables de la cognition complexe. Elles font également écho à des recherches antérieures du laboratoire de Tosches , qui ont montré que le néocortex des mammifères avait évolué indépendamment du DVR des reptiles.

Il semble néanmoins probable qu'il y ait eu une certaine hérédité à partir d'un ancêtre commun. Dans une troisième étude utilisant l'apprentissage profond, Kempynck et son coauteur Nikolai Hecker ont découvert que les souris, les poulets et les humains partagent certains segments d'ADN qui influencent le développement du néocortex ou du DVR, suggérant que des outils génétiques similaires sont à l'œuvre chez les deux types d'animaux. Comme l'avaient suggéré des études précédentes, les groupes de recherche ont découvert que les neurones inhibiteurs, ou ceux qui inhibent et modulent les signaux neuronaux, étaient conservés chez les oiseaux et les mammifères.

Les résultats n'ont cependant pas complètement résolu le débat entre Karten et Puelles. Quelles idées étaient les plus proches de la vérité ? Tosches a affirmé que Puelles avait raison, tandis que Güntürkün estimait que les résultats reflétaient mieux les idées de Karten, même s'ils plairaient en partie à Puelles. García-Moreno a partagé la question : " Tous deux avaient raison ; aucun n'avait tort ", a-t-il déclaré.

Comment développer l'intelligence

L'intelligence n'est pas accompagnée d'un mode d'emploi. Elle est difficile à définir, il n'existe pas de méthode idéale pour y parvenir et sa conception n'est pas optimale, a déclaré Tosches. Des innovations peuvent survenir tout au long de la biologie d'un animal, qu'il s'agisse de nouveaux gènes et de leur régulation, ou de nouveaux types de neurones, circuits et régions cérébrales. Mais des innovations similaires peuvent évoluer plusieurs fois indépendamment – ​​un phénomène appelé évolution convergente – et ce phénomène est observé tout au long de la vie.

" L’une des raisons pour lesquelles j’aime ces articles, c’est qu’ils mettent vraiment en évidence de nombreuses différences ", a déclaré Bradley Colquitt, neuroscientifique moléculaire à l'Université de Californie à Santa Cruz. " Cela permet de se demander : quelles sont les différentes solutions neuronales que ces organismes ont imaginées pour résoudre des problèmes similaires, comme vivre dans un monde complexe et s'adapter à un environnement terrestre en rapide évolution ? "

Les pieuvres et les calmars, indépendamment des mammifères et de leur propre
intelligence corporelle, ont développé des yeux semblables à des caméras. Les oiseaux, les chauves-souris et les insectes ont tous pris leur envol par leurs propres moyens. Les peuples anciens d'Égypte et d'Amérique du Sud ont construit indépendamment des pyramides – la forme structurelle la plus efficace et qui résistera à l'épreuve du temps, a déclaré García-Moreno : " Si on construit une tour, elle s'effondrera. Si on construit un mur, ça ne marchera pas. "

De même, " il existe un degré de liberté limité permettant de générer un cerveau intelligent, du moins chez les vertébrés ", a déclaré Tosches. En revanche, si l'on s'éloigne du monde des vertébrés, on peut générer un cerveau intelligent de manières bien plus étranges, du moins de notre point de vue. " C'est le Far West ", a-t-elle déclaré. Les pieuvres, par exemple, " ont développé leur intelligence de manière totalement indépendante ". Leurs structures cognitives ne ressemblent en rien aux nôtres, si ce n'est qu'elles sont constituées du même type cellulaire : le neurone. Pourtant, on a pu observer des pieuvres accomplir des prouesses incroyables, comme s'échapper d'aquariums, résoudre des énigmes, dévisser des couvercles de bocaux et porter des coquillages comme boucliers.

Il serait passionnant de comprendre comment les pieuvres ont développé leur intelligence grâce à des structures neuronales très divergentes, a déclaré Colquitt. Ainsi, il pourrait être possible d'identifier les contraintes absolues pesant sur l'évolution de l'intelligence chez toutes les espèces animales, et pas seulement chez les vertébrés.

De telles découvertes pourraient à terme révéler des caractéristiques communes à diverses intelligences, a déclaré Zaremba. Quels sont les éléments constitutifs d'un cerveau capable de penser de manière critique, d'utiliser des outils ou de former des idées abstraites ? Cette compréhension pourrait contribuer à la recherche d'une intelligence extraterrestre et à l'amélioration de notre intelligence artificielle. Par exemple, notre façon actuelle d'envisager l'utilisation des connaissances issues de l'évolution pour améliorer l'IA est très anthropocentrique. " Je serais vraiment curieux de voir si nous pouvons construire une intelligence artificielle similaire à celle des oiseaux ", a déclaré Kempynck." Comment pense un oiseau ? Pouvons-nous l'imiter ? "






 

Auteur: Internet

Info: https://www.quantamagazine.org/, Yasemin Saplakoglu, 7 avril 2025. * fait ici référence aux couches de matière grise et blanche qui recouvrent la surface supérieure du cerveau chez les vertébrés

[ homme-animal ] [ intellection multiscalaire ] [ contraintes évolutives partagées ] [ phénétique ] [ individuel - collectif ] [ murmurations ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

question

La conscience est-elle partie prenante de l'univers et de sa structure ?

Des physiciens et des philosophes se sont récemment rencontrés pour débattre d'une théorie de la conscience appelée panpsychisme.

Il y a plus de 400 ans, Galilée a montré que de nombreux phénomènes quotidiens, tels qu'une balle qui roule sur une pente ou un lustre qui se balance doucement au plafond d'une église, obéissent à des lois mathématiques précises. Pour cette intuition, il est souvent salué comme le fondateur de la science moderne. Mais Galilée a reconnu que tout ne se prêtait pas à une approche quantitative. Des choses telles que les couleurs, les goûts et les odeurs "ne sont rien de plus que de simples noms", a déclaré Galilée, car "elles ne résident que dans la conscience". Ces qualités ne sont pas réellement présentes dans le monde, affirmait-il, mais existent uniquement dans l'esprit des créatures qui les perçoivent. "Par conséquent, si l'on supprimait la créature vivante, écrivait-il, toutes ces qualités seraient effacées et anéanties.

Depuis l'époque de Galilée, les sciences physiques ont fait un bond en avant, expliquant le fonctionnement des plus petits quarks jusqu'aux plus grands amas de galaxies. Mais expliquer les choses qui résident "uniquement dans la conscience" - le rouge d'un coucher de soleil, par exemple, ou le goût amer d'un citron - s'est avéré beaucoup plus difficile. Les neuroscientifiques ont identifié un certain nombre de corrélats neuronaux de la conscience - des états cérébraux associés à des états mentaux spécifiques - mais n'ont pas expliqué comment la matière forme les esprits en premier lieu. Comme l'a dit le philosophe Colin McGinn dans un article publié en 1989, "d'une manière ou d'une autre, nous avons l'impression que l'eau du cerveau physique est transformée en vin de la conscience". Le philosophe David Chalmers a célèbrement surnommé ce dilemme le "problème difficile" de la conscience*.

Des chercheurs se sont récemment réunis pour débattre de ce problème au Marist College de Poughkeepsie, dans l'État de New York, à l'occasion d'un atelier de deux jours consacré à une idée connue sous le nom de panpsychisme. Ce concept propose que la conscience soit un aspect fondamental de la réalité, au même titre que la masse ou la charge électrique. L'idée remonte à l'Antiquité - Platon l'a prise au sérieux - et a eu d'éminents partisans au fil des ans, notamment le psychologue William James et le philosophe et mathématicien Bertrand Russell. Elle connaît depuis peu un regain d'intérêt, notamment à la suite de la publication en 2019 du livre du philosophe Philip Goff, Galileo's Error, qui plaide vigoureusement en sa faveur.

M. Goff, de l'université de Durham en Angleterre, a organisé l'événement récent avec le philosophe mariste Andrei Buckareff, et il a été financé par une subvention de la Fondation John Templeton. Dans une petite salle de conférence dotée de fenêtres allant du sol au plafond et donnant sur l'Hudson, environ deux douzaines d'universitaires ont examiné la possibilité que la conscience se trouve peut-être en bas de l'échelle.

L'attrait du panpsychisme réside en partie dans le fait qu'il semble apporter une solution à la question posée par M. Chalmers : nous n'avons plus à nous préoccuper de la manière dont la matière inanimée forme des esprits, car l'esprit était là depuis le début, résidant dans le tissu de l'univers. Chalmers lui-même a adopté une forme de panpsychisme et a même suggéré que les particules individuelles pourraient être conscientes d'une manière ou d'une autre. Il a déclaré lors d'une conférence TED qu'un photon "pourrait avoir un élément de sentiment brut et subjectif, un précurseur primitif de la conscience". Le neuroscientifique Christof Koch est également d'accord avec cette idée. Dans son livre Consciousness paru en 2012, il note que si l'on accepte la conscience comme un phénomène réel qui ne dépend d'aucune matière particulière - qu'elle est "indépendante du substrat", comme le disent les philosophes - alors "il est facile de conclure que le cosmos tout entier est imprégné de sensibilité".

Pourtant, le panpsychisme va à l'encontre du point de vue majoritaire dans les sciences physiques et en philosophie, qui considère la conscience comme un phénomène émergent, quelque chose qui apparaît dans certains systèmes complexes, tels que le cerveau humain. Selon ce point de vue, les neurones individuels ne sont pas conscients, mais grâce aux propriétés collectives de quelque 86 milliards de neurones et à leurs interactions - qui, il est vrai, ne sont encore que mal comprises - les cerveaux (ainsi que les corps, peut-être) sont conscients. Les enquêtes suggèrent qu'un peu plus de la moitié des philosophes universitaires soutiennent ce point de vue, connu sous le nom de "physicalisme" ou "émergentisme", tandis qu'environ un tiers rejette le physicalisme et penche pour une alternative, dont le panpsychisme est l'une des nombreuses possibilités.

Lors de l'atelier, M. Goff a expliqué que la physique avait manqué quelque chose d'essentiel en ce qui concerne notre vie mentale intérieure. En formulant leurs théories, "la plupart des physiciens pensent à des expériences", a-t-il déclaré. "Je pense qu'ils devraient se demander si ma théorie est compatible avec la conscience, car nous savons qu'elle est réelle.

De nombreux philosophes présents à la réunion ont semblé partager l'inquiétude de M. Goff quant à l'échec du physicalisme lorsqu'il s'agit de la conscience. "Si vous connaissez les moindres détails des processus de mon cerveau, vous ne saurez toujours pas ce que c'est que d'être moi", déclare Hedda Hassel Mørch, philosophe à l'université des sciences appliquées de Norvège intérieure. "Il existe un fossé explicatif évident entre le physique et le mental. Prenons l'exemple de la difficulté d'essayer de décrire la couleur à quelqu'un qui n'a vu le monde qu'en noir et blanc. Yanssel Garcia, philosophe à l'université du Nebraska Omaha, estime que les faits physiques seuls sont inadéquats pour une telle tâche. "Il n'y a rien de physique que l'on puisse fournir [à une personne qui ne voit qu'en nuances de gris] pour qu'elle comprenne ce qu'est l'expérience de la couleur ; il faudrait qu'elle en fasse elle-même l'expérience", explique-t-il. "La science physique est, en principe, incapable de nous raconter toute l'histoire. Parmi les différentes alternatives proposées, il estime que "le panpsychisme est notre meilleure chance".

Mais le panpsychisme attire également de nombreuses critiques. Certains soulignent qu'il n'explique pas comment de petits morceaux de conscience s'assemblent pour former des entités conscientes plus substantielles. Ses détracteurs affirment que cette énigme, connue sous le nom de "problème de la combinaison", équivaut à une version du problème difficile propre au panpsychisme. Le problème de la combinaison "est le défi majeur de la position panpsychiste", admet M. Goff. "Et c'est là que se concentre la majeure partie de notre énergie.

D'autres remettent en question le pouvoir explicatif du panpsychisme. Dans son livre Being You (2021), le neuroscientifique Anil Seth écrit que les principaux problèmes du panpsychisme sont qu'"il n'explique rien et qu'il ne conduit pas à des hypothèses vérifiables. C'est une échappatoire facile au mystère apparent posé par le problème difficile".

Si la plupart des personnes invitées à l'atelier étaient des philosophes, les physiciens Sean Carroll et Lee Smolin, ainsi que le psychologue cognitif Donald Hoffman, ont également pris la parole. Carroll, un physicaliste pur et dur, a joué le rôle de chef de file officieux de l'opposition pendant le déroulement de l'atelier. (Lors d'un débat public très suivi entre Goff et Carroll, la divergence de leurs visions du monde est rapidement devenue évidente. Goff a déclaré que le physicalisme ne menait "précisément nulle part" et a suggéré que l'idée même d'essayer d'expliquer la conscience en termes physiques était incohérente. M. Carroll a affirmé que le physicalisme se porte plutôt bien et que, bien que la conscience soit l'un des nombreux phénomènes qui ne peuvent être déduits des phénomènes microscopiques, elle constitue néanmoins une caractéristique réelle et émergente du monde macroscopique. Il a présenté la physique des gaz comme un exemple parallèle. Au niveau micro, on parle d'atomes, de molécules et de forces ; au niveau macro, on parle de pression, de volume et de température. Il s'agit de deux types d'explications, en fonction du "niveau" étudié, mais elles ne présentent pas de grand mystère et ne constituent pas un échec pour la physique. En peu de temps, Goff et Carroll se sont enfoncés dans les méandres de l'argument dit de la connaissance (également connu sous le nom de "Marie dans la chambre noire et blanche"), ainsi que de l'argument des "zombies". Tous deux se résument à la même question clé : Y a-t-il quelque chose à propos de la conscience qui ne peut être expliqué par les seuls faits physiques ? Une grande partie du ping-pong rhétorique entre Goff et Carroll a consisté pour Goff à répondre oui à cette question et pour Carroll à y répondre non.

Une autre objection soulevée par certains participants est que le panpsychisme n'aborde pas ce que les philosophes appellent le problème des "autres esprits". (Vous avez un accès direct à votre propre esprit, mais comment pouvez-vous déduire quoi que ce soit de l'esprit d'une autre personne ?) "Même si le panpsychisme est vrai, il y aura toujours un grand nombre de choses - notamment des choses liées à l'expérience des autres - que nous ne connaîtrons toujours pas", déclare Rebecca Chan, philosophe à l'université d'État de San José. Elle craint que l'invocation d'une couche sous-jacente d'esprit ne revienne à invoquer Dieu. Je me demande parfois si la position panpsychiste n'est pas similaire aux arguments du "dieu des lacunes"", dit-elle, en référence à l'idée que Dieu est nécessaire pour combler les lacunes de la connaissance scientifique.

D'autres idées ont été évoquées. L'idée du cosmopsychisme a été évoquée - en gros, l'idée que l'univers lui-même est conscient. Paul Draper, philosophe à l'université de Purdue qui a participé via Zoom, a parlé d'une idée subtilement différente connue sous le nom de "théorie de l'éther psychologique", à savoir que les cerveaux ne produisent pas la conscience mais l'utilisent plutôt. Selon cette théorie, la conscience existait déjà avant que les cerveaux n'existent, comme un ether omniprésent. Si cette idée est correcte, écrit-il, "alors (selon toute vraisemblance) Dieu existe".

M. Hoffman, chercheur en sciences cognitives à l'université de Californie à Irvine, qui s'est également adressé à l'atelier via Zoom, préconise de rejeter l'idée de l'espace-temps et de rechercher quelque chose de plus profond. (Il a cité l'idée de plus en plus populaire en physique ces derniers temps selon laquelle l'espace et le temps ne sont peut-être pas fondamentaux, mais constituent plutôt des phénomènes émergents). L'entité plus profonde liée à la conscience, suggère Hoffman, pourrait consister en "sujets et expériences" qui, selon lui, "sont des entités au-delà de l'espace-temps, et non dans l'espace-temps". Il a développé cette idée dans un article de 2023 intitulé "Fusions of Consciousness" (Fusions de conscience).

M. Smolin, physicien à l'Institut Perimeter pour la physique théorique en Ontario, qui a également participé via Zoom, a également travaillé sur des théories qui semblent offrir un rôle plus central aux agents conscients. Dans un article publié en 2020, il a suggéré que l'univers "est composé d'un ensemble de vues partielles de lui-même" et que "les perceptions conscientes sont des aspects de certaines vues" - une perspective qui, selon lui, peut être considérée comme "une forme restreinte de panpsychisme".

Carroll, qui s'est exprimé après la session à laquelle participaient Hoffman et Smolin, a noté que ses propres opinions divergeaient de celles des intervenants dès les premières minutes (au cours du déjeuner, il a fait remarquer que participer à l'atelier donnait parfois l'impression d'être sur un subreddit pour les fans d'une série télévisée qui ne vous intéresse tout simplement pas). Il a admis que les débats interminables sur la nature de la "réalité" le laissaient parfois frustré. Les gens me demandent : "Qu'est-ce que la réalité physique ? C'est la réalité physique ! Il n'y a rien qu'elle 'soit'. Que voulez-vous que je dise, qu'elle est faite de macaronis ou d'autre chose ?" (Même Carroll admet cependant que la réalité est plus complexe qu'il n'y paraît. Il est un fervent partisan de l'interprétation "multi-mondes" de la mécanique quantique, selon laquelle notre univers n'est qu'une facette d'un vaste multivers quantique).

Si tout cela semble n'avoir aucune valeur pratique, M. Goff a évoqué la possibilité que la façon dont nous concevons les esprits puisse avoir des implications éthiques. Prenons la question de savoir si les poissons ressentent la douleur. La science traditionnelle ne peut étudier que le comportement extérieur d'un poisson, et non son état mental. Pour M. Goff, se concentrer sur le comportement du poisson n'est pas seulement une erreur, c'est aussi une "horreur", car cela laisse de côté ce qui est en fait le plus important : ce que le poisson ressent réellement. "Nous allons cesser de nous demander si les poissons sont conscients et nous contenter de regarder leur comportement ? Qui se soucie du comportement ? Je veux savoir s'il a une vie intérieure, c'est tout ce qui compte ! Pour les physicalistes comme Carroll, cependant, les sentiments et le comportement sont intimement liés, ce qui signifie que nous pouvons éviter de faire souffrir un animal en ne le plaçant pas dans une situation où il semble souffrir en raison de son comportement. "S'il n'y avait pas de lien entre eux [comportement et sentiments], nous serions en effet dans le pétrin", déclare Carroll, "mais ce n'est pas notre monde".

Seth, le neuroscientifique, n'était pas présent à l'atelier, mais je lui ai demandé quelle était sa position dans le débat sur le physicalisme et ses différentes alternatives. Selon lui, le physicalisme offre toujours plus de "prise empirique" que ses concurrents, et il déplore ce qu'il considère comme une crispation excessive sur ses prétendus échecs, y compris la difficulté supposée due à un problème complexe. Critiquer le physicalisme au motif qu'il a "échoué" est une erreur volontaire de représentation", déclare-t-il. "Il se porte très bien, comme l'attestent les progrès de la science de la conscience. Dans un article récemment publié dans le Journal of Consciousness Studies, Seth ajoute : "Affirmer que la conscience est fondamentale et omniprésente n'éclaire en rien la raison pour laquelle l'expérience du bleu est telle qu'elle est, et pas autrement. Cela n'explique pas non plus les fonctions possibles de la conscience, ni pourquoi la conscience est perdue dans des états tels que le sommeil sans rêve, l'anesthésie générale et le coma".

Même ceux qui penchent pour le panpsychisme semblent parfois hésiter à plonger dans le grand bain. Comme le dit Garcia, malgré l'attrait d'un univers imprégné de conscience, "j'aimerais qu'on vienne m'en dissuader".

 

Auteur: Internet

Info: Dan Falk, September 25, 2023

[ perspectiviste ] [ atman ] [ interrogation ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

monades intégrées

Renormalisation : quand la physique des particules met l'infini sous le tapis

La renormalisation est une astuce qui permet de s'affranchir des infinis gênants dans les calculs. Elle a sauvé la physique des particules, mais quel est son bien-fondé mathématique ?

(Image : Il n'est pas nécessaire d'analyser des molécules d'eau individuelles pour comprendre le comportement des gouttelettes, ou ces gouttelettes pour étudier une vague. Ce passage d'une échelle à une autre est l'essence même de la renormalisation ) 

À la fin des années 1920, plusieurs médecins, comme Werner Heisenberg, Paul Dirac, Pascual Jordan, Wolfgang Pauli… font disparaître les particules ! À la place, ils préfèrent y voir des ondulations dans un champ, une sorte d'océan dans lequel, en chaque point, la valeur d'une grandeur physique est donnée. Ainsi, une vague dans ce champ est un électron, une autre un photon, et leurs interactions semblent expliquer tous les événements électromagnétiques.

Devenu un des piliers conceptuels de la description physique de l'Univers et l'explication incontournable de nombreux phénomènes, cette théorie quantique des champs n'a qu'un seul problème : elle est adossée à une technique que l'on a longtemps supposée provisoire et regardé avec suspicion, la renormalisation. "Hélas", elle est conservée indispensable pour composer avec les infinis rédhibitoires qui apparaissent dans les calculs. D'où un sentiment inconfortable, même chez ceux qui ont l'élaborée, d'utiliser un outil qui s'apparente à un château de cartes bâties sur un artifice mathématique tordu.

"C'est un procédé douteux", a écrit plus tard Richard Feynman. " Devoir utiliser à de tels tours de passe-passe nous a empêché de prouver que la théorie de l'électrodynamique quantique est mathématiquement cohérente. "

Une justification de la renormalisation a pourtant été trouvée, des décennies plus tard, et en provenance d'une branche de la physique apparemment sans rapport. Le regard des médecins sur cette « hérésie » a alors changé la façon de la considérer. En effet, des chercheurs étudiant le magnétisme ont découvert que le processus ne concernait pas du tout les infinis, mais s'apparentait plutôt à une séparation de l'Univers en royaumes de tailles indépendantes, et cette nouvelle vision guide aujourd'hui de nombreux domaines. . . du physique. Quoi qu'il en soit, la renormalisation est, de l'avis de David Tong, théoricien à l'université de Cambridge, " sans doute l'avancée la plus importante de ces cinquante dernières années en physique théorique ".

L'histoire de deux charges

Selon certains critères, les théories des champs sont les plus abouties de toute la science. L'une d'elles, la théorie de l'électrodynamique quantique (QED), qui constitue l'un des piliers du modèle standard de la physique des particules, a permis des prédictions théoriques qui s'accordent aux résultats expérimentaux avec une précision de 1 partie sur 1 milliard.

Mais dans les années 1930 et 1940, l'avenir de la théorie était loin d'être assuré. L'approximation du comportement complexe des champs conduisait souvent à des réponses absurdes mettant en jeu l'infini, au point que des théoriciens ont envisagé que les théories des champs soient une impasse.

Richard Feynman et d'autres, notamment Freeman Dyson, ont donc cherché de nouvelles voies. Certaines pourraient-être remis les particules sur le devant de la scène, mais, à la place, elles ont abouti à un tour de magie. Ils ont découvert que les équations de la QED conduisaient à des prédictions acceptables, à condition d'être corrigées par cette procédure impénétrable qu'est la renormalisation. En première approximation, la recette est la suivante : lorsqu'un calcul de QED conduit à une série divergente, on abrège celle-ci en intégrant la partie qui tend à s'envoler vers l'infini dans un coefficient (un nombre fixe) placé devant la somme. Puis on remplace ce coefficient par une mesure finie issue d'expérimentations, et l'on peut ensuite laisser la série désormais apprivoisée repartir vers l'infini.

"Ce ne sont tout simplement pas des mathématiques raisonnables". Paul Dirac

Certains ont vu dans ce procédé un jeu de dupes, à commencer par Paul Dirac, pionnier de la théorie des champs, qui déplorait : " Ce ne sont tout simplement pas des mathématiques raisonnables. "

Le cœur du problème – et un germe de sa solution éventuelle – se trouve dans la façon dont les médecins ont traité la charge de l'électron. Dans le mécanisme décrit, la charge électrique naît du fameux coefficient qui « avale l'infini » pendant la tambouille mathématique. Pour les théoriciens qui s'interrogent sur la signification physique de la renormalisation, la QED laisse supposer que l'électron a deux charges : une charge théorique, qui est infinie, et la charge mesurée, qui ne l'est pas. Peut-être que le cœur de l'électron contient une charge infinie, mais elle serait masquée dans la pratique par les effets du champ quantique (que l'on peut se représenter ici comme un nuage virtuel de particules positives) : en fin de compte , les expérimentateurs ne mesurent qu'une charge nette modeste.

Deux physiciens, Murray Gell-Mann et Francis Low, ont pris à bras-le-corps cette idée en 1954. Ils ont relié les deux charges de l'électron à une charge « effective » qui varie selon la distance. Plus on se rapproche (et plus on pénètre le " manteau positif " de l'électron), plus la charge est importante. Leurs travaux ont été les premiers à lier la renormalisation à l'idée d'échelle. Ils laissaient entendre que les médecins quantiques avaient trouvé la bonne réponse à la mauvaise question. Plutôt que de se préoccuper des infinis, ils auraient dû s'attacher à relier le minuscule à l'énorme.

La renormalisation est " la version mathématique d'un microscope ", explique Astrid Eichhorn, physicienne à l'université du Danemark du Sud, qui utilise la renormalisation pour rechercher des théories de la gravité quantique. " Et, inversement, on peut commencer par le système microscopique et faire un zoom arrière. C'est l'association du microscope et du télescope. "

Les aimants du pont neuf

Un deuxième indice, après la piste de l'échelle, est venu du monde de la matière condensée, où les physiciens se demandaient comment l'approximation rudimentaire d'un aimant – le modèle d'Ising – parvenir à saisir les moindres détails de certaines transformations. Ce modèle n'est guère plus qu'une grille dans laquelle chaque case est dotée d'une flèche, représentant le moment magnétique d'un atome, qui pointe soit vers le haut soit vers le bas. Et pourtant, il prédit le comportement des aimants réels avec une précision remarquable.

À basse température, la plupart des moments magnétiques des atomes s'alignent (toutes les flèches de la grille pointent dans la même direction) et le matériau est donc magnétique. À l'inverse, à haute température, le désordre domine, et l'aimantation disparaît. Entre ces deux extrêmes, se niche un point de transition critique caractérisé par la coexistence d'îlots d'atomes alignés de toutes tailles. Le point essentiel est que la façon dont certaines quantités varient autour de ce " point critique " semble identique dans le modèle d'Ising, dans les aimants réels de différents matériaux et même dans des systèmes qui n'ont aucun rapport, tels que la transition. . à haute pression, où l'eau liquide devient indiscernable de la vapeur d'eau.

La mise au jour de ce phénomène ubiquitaire, que les théoriciens ont donc appelé « universalité », était aussi bizarre qu'une improbable découverte révélant que les éléphants et les aigrettes se déplaçaient exactement à la même vitesse maximale.

La renormalisation capture la tendance de la nature à se distribuer en mondes essentiellement indépendants.

Les médecins n'ont pas l'habitude de s'occuper d'objets de tailles différentes en même temps. Mais le comportement universel autour des points critiques les a obligés à tenir compte de toutes les échelles de longueur à la fois. Leo Kadanoff, spécialiste de la matière condensée, a trouvé comment y parvenir en 1966 en mettant au point une technique dite " par blocs de spins ". Elle consiste à diviser une grille d'Ising trop complexe pour être abordée de front en blocs plus petits et à déterminer pour chacun d'eux l'orientation moyenne, en l'occurrence celle de la majorité des flèches qu'ils contiennent. Tout le bloc prend alors cette valeur (haut ou bas), et l'on répète le processus. Ce faisant, les détails du réseau sont lissés, comme si un zoom arrière révélait le comportement global du système.

Enfin, Kenneth Wilson, un ancien étudiant de Murray Gell-Mann qui avait un pied dans le monde de la physique des particules et un autre dans celui de la matière condensée, à l'unité des idées de son mentor et de Francis Low à celles de Léo Kadanoff. Son " groupe de renormalisation ", qu'il a décrit pour la première fois en 1971, a justifié les calculs tortueux de la QED et a fourni une échelle permettant de gravir les échelons des systèmes universels. Ce travail a valorisé à Kenneth Wilson le prix Nobel de physique en 1982… et a changé la physique pour toujours.

Selon Paul Fendley, théoricien de la matière condensée à l'université d'Oxford, la meilleure façon de s'imaginer le groupe de renormalisation de Wilson est de le voir comme une " théorie des théories " reposant sur le microscopique au macroscopique. Considérons la grille magnétique. Au niveau microscopique, il est facile d'écrire une équation dépendante de l'orientation des flèches dans deux cas voisins. Mais extrapoler cette formule simple à des milliards de particules est impossible, parce que vous raisonnez à la mauvaise échelle.

Le groupe de renormalisation de Kenneth Wilson décrit la transformation d'une théorie des éléments constitutifs en une théorie des structures. Vous entreprenez par une théorie adaptée à de petites pièces, par exemple les atomes d'une bille de billard, puis vous actionnez la "moulinette mathématique" de Kenneth Wilson afin d'obtenir une théorie, cette fois pertinente pour des groupes de ces pièces, par exemple les molécules de la bille. En réitérant l'opération, vous serez finalement en mesure de calculer quelque chose d'intéressant, comme la trajectoire d'une bille entière.

C'est la magie du groupe de renormalisation : il met en évidence les quantités à grande échelle qu'il est utile de mesurer et les détails microscopiques alambiqués qui peuvent être ignorés. Un surfeur s'intéresse à la hauteur des vagues, et non à la bousculade des molécules d'eau. De même, en physique subatomique, la renormalisation indique aux physiciens quand ils peuvent s'occuper d'un proton plutôt que de l'enchevêtrement des quarks qui le constituent.

Le groupe de renormalisation de Kenneth Wilson a également suggéré que les malheurs de Richard Feynman et de ses contemporains ont fait qu'ils essayaient de comprendre l'électron d'un point de vue infiniment proche. De fait, « nous ne nous attendons pas à ce que [les théories] soient valables jusqu'à des échelles [de distance] arbitrairement petites », concède James Fraser, philosophe de la physique à l'université de Durham, au Royaume-Uni. . . Les médecins comprennent aujourd'hui que couper mathématiquement les sommes et disperser l'infini est la bonne façon de faire un calcul lorsque votre théorie a une taille de grille minimale intégrée. C'est comme si, explique James Fraser, " la coupure absorbait notre ignorance de ce qui se passe aux niveaux inférieurs " pour lesquels on ne dispose d'aucune information, d'aucune grille.

En d'autres termes, la QED et le modèle standard ne peuvent tout simplement rien dire de la charge nue de l'électron à une distance de zéro nanomètre. Il s'agit de ce que les médecins appellent des théories « efficaces », qui fonctionnent mieux sur des distances bien définies. L'un des principaux objectifs de la physique des hautes énergies est de découvrir ce qui se passe exactement quand on réduit ces distances.

Du grand au petit

Aujourd'hui, le "procédé douteux" de Feynman est devenu aussi omniprésent en physique que le calcul, et ses rouages ​​​​révèlent les raisons de certains des plus grands succès de la discipline et de ses défis actuels. Au cours de la renormalisation, les couches submicroscopiques complexes à prendre en compte ont tendance à disparaître : elles existent bel et bien, mais elles n'ont pas d'incidence sur le tableau d'ensemble. « La simplicité est une vertu », résume Paul Fendley.

Les fondements de la renormalisation illustrent la tendance de la nature à se répartir en mondes essentiellement indépendants. Lorsque les ingénieurs conçoivent un gratte-ciel, ils ignorent superbement les molécules individuelles de l'acier. Les chimistes font de même avec les quarks et les gluons quand ils analysent les liaisons moléculaires. La séparation des phénomènes en fonction de leur échelle, quantifiée par le groupe de renormalisation, a permis aux scientifiques de passer du grand au petit au fil des siècles, plutôt que de s'attaquer simultanément à toutes les échelles.

Cependant, l'hostilité de la renormalisation à l'égard des détails microscopiques va à la rencontre des efforts des médecins modernes, dans leur quête de comprendre le toujours plus petit. La séparation des échelles suggère qu'ils devront creuser en profondeur pour vaincre le penchant de la nature à dissimuler ses points les plus fins à des géants curieux comme nous.

« La renormalisation nous aide à simplifier le problème », explique Nathan Seiberg, médecin théoricien à l'Institut d'études avancées, à Princeton, aux États-Unis. Mais " elle cache aussi ce qui se passe à plus courte distance. On ne peut pas avoir le beurre et l'argent du beurre… " 



 

Auteur: Internet

Info: Pour la science, dossier 125, Charlie Wood, 9 octobre 2024, cet article est une traduction de " Comment le 'hocus-pocus' mathématique a sauvé la physique des particules "

[ théorie du tout ] [ autopoïèses cosmiques ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

" L’IA ne se heurte pas à un mur. Mais les LLMs si " : Gary Marcus à propos de la dernière recherche d’Apple

Les capacités de raisonnement des modèles actuels peuvent s’effondrer complètement au-delà d’un certain niveau de difficulté. Ces modèles semblent " abandonner " l’effort de raisonnement quand la tâche devient trop dure — même s’ils disposent des ressources nécessaires.

- Un article publié ce week-end par Apple parle d'une quantification des capacités de raisonnement des LLMs qui semblent s’effondrer au-delà d’un certain niveau de complexité des tâchesPlusieurs observateurs parlent d’un coup dur, un mur de complexité auquel se heurte la génération actuelle des grands modèles de langage (LLMs). Qu’en pensez-vous ?

(GM) - Il ne s’agit pas d’un simple coup dur, mais d’une mise au tapis, d’autant que cet article n’est pas un coup isolé. Il fait suite à une autre recherche publiée l’année dernière par plusieurs des mêmes auteurs qui montrait déjà qu’il est impossible de construire des agents fiables sans raisonnement formel et abstrait suffisamment développé.

- Pourriez-vous résumer brièvement l’argument de l’article ?

(GM) - Apple a testé les capacités de " raisonnement " des intelligences artificielles actuelles, telles que ChatGPT, Claude ou DeepSeek. Si tous ces modèles semblent intelligents au premier abord, ils échouent totalement dès que la complexité augmente. La force globale de l’argumentation est indéniable — même s’il y a une faiblesse intéressante dans le nouvel argumentaire, la conclusion est sans appel. 

Aucun des modèles fondés sur des LLMs ne fait preuve d’un raisonnement véritable. Il ne s’agit que de systèmes extrêmement coûteux de reconnaissance de motifs qui s’effondrent dès qu’on les confronte à des situations en dehors de leur zone d’entraînement.

- S’agit-il d’une impasse structurelle des LLMs pour certaines applications ?

(GM) - En effet, toutes les recherches sérieuses montrent désormais que les grands modèles de langage ne raisonnent pas de la même manière que les humains. Ils peuvent " réfléchir davantage " — mais seulement jusqu’à un certain point. 

Au-delà d’un certain seuil, ils abandonnent rapidement, même s’ils disposent encore de ressources de calcul en quantité plus que suffisante.

Même lorsqu’on leur fournit l’algorithme exact à suivre — les règles pour résoudre une tâche complexe —, ces modèles ont tendance à très mal l’exécuter. Cela met en lumière une distinction essentielle : exécuter ne signifie pas comprendre. 

Le problème ne réside pas dans un manque de créativité, mais dans une défaillance logique fondamentale. Les modèles ont tendance à " trop réfléchir " à des problèmes simples et à tester de mauvaises réponses même après avoir trouvé la bonne. Et face à des problèmes plus difficiles, ils réfléchissent moins. Il en résulte un gaspillage de ressources de calcul d’un côté et un abandon prématuré de l’autre.

- Comment cette nouvelle étude — qui prolonge l’analyse critique du paradigme actuel que nous publions déjà en 2023 dans nos pages — s’inscrit-elle, selon vous, dans le débat sur la capacité des LLMs à généraliser à des situations radicalement nouvelles ?

(GM) -  D’une part, cette recherche fait écho et amplifie l’argument sur la distribution d’entraînement que je développe depuis 1998 : les réseaux neuronaux, sous diverses formes, peuvent généraliser à l’intérieur de la distribution de données sur laquelle ils ont été entraînés, mais leurs généralisations ont tendance à s’effondrer en dehors de cette distribution. 

C’était le cœur d’un article que j’avais publié en 1998, dans lequel je critiquais les perceptrons multicouches (multilayer perceptrons) — les ancêtres des modèles de langage actuels — en montrant leurs échecs hors distribution sur des tâches simples de calcul et de prédiction de phrases.

Ce fut également l’axe central de mon premier livre, The Algebraic Mind (2001), qui élargissait cette critique, ainsi que de mon premier article dans Science (1999), où j’ai démontré, à travers une expérience, que des nourrissons de sept mois pouvaient extrapoler d’une manière que les réseaux neuronaux de l’époque étaient incapables de répliquer. C’était aussi la motivation principale de Deep Learning : Critical Appraisal (2018), puis de Deep Learning is Hitting a Wall (2022). J’ai identifié cette limite l’an dernier encore comme la faiblesse la plus importante — et la plus importante à comprendre — des LLMs. 

Cela fait donc un certain temps que je travaille sur ce sujet…

- L’article s’appuie également sur le travail de Subbarao Kambhampati, chercheur en informatique de l’Arizona State University.

(GM) - Oui, et je veux le souligner. Cette recherche ne fait pas simplement écho aux arguments que Rao développe depuis plusieurs années, mais les renforce.

Il s’agit des critiques sur les modèles dits de " raisonnement " et les fameuses "  chaînes de pensée " (CoT) qu’ils produisent qui semblent bien moins solides qu’on ne le prétend.

Pour ceux qui ne sont pas familiers du concept, une " chaîne de pensée " est, grossièrement, ce que le système prétend avoir " raisonné " pour arriver à une réponse, dans les cas où il effectue plusieurs étapes de réflexion. Les " modèles de raisonnement " désignent quant à eux la nouvelle génération de tentatives pour contourner les limites structurelles des LLMs, en les forçant à " raisonner " dans le temps, via une technique appelée inference-time compute (calcul au moment de l’inférence). 

Rao n’a jamais été convaincu par cet argument. 

Il a écrit une série d’articles brillants montrant, entre autres, que les chaînes de pensée générées par les LLMs ne correspondent pas toujours à ce que ces modèles font réellement. Récemment, par exemple, il a observé que nous avons tendance à sur-anthropomorphiser les traces de raisonnement des LLMs, en parlant de " pensée " là où ce terme ne paraît pas adéquat.

Un autre de ses articles récents montre que même lorsque les chaînes de raisonnement semblent correctes, les réponses finales, elles, ne le sont pas forcément.

Rao a d’ailleurs sans doute été le premier à démontrer que l’un de ces " modèles de raisonnement " — en l’occurrence o1 — souffrait du genre de problème que le rapport d’Apple documente aujourd’hui. Je conseille à tout le monde de lire son travail.

- Le papier d’Apple reprend la critique de Rao et la vôtre en se concentrant notamment sur un problème classique assez simple : la tour de Hanoï. De quoi s’agit-il ?

(GM) -  Il s’agit d’un jeu classique composé de trois tiges et de plusieurs disques de tailles différentes. L’objectif est de déplacer tous les disques de la tige de gauche vers celle de droite, en respectant une règle essentielle : il est interdit de placer un disque plus grand sur un disque plus petit.

Si vous ne connaissez pas encore ce jeu, il faut un tout petit moment pour comprendre son fonctionnement.

Avec un peu de pratique, un enfant de sept ans intelligent et patient peut y arriver — et pour un ordinateur, c’est un exercice qui ne présente aucune difficulté. N’importe quel étudiant en première année d’informatique devrait être capable de réaliser un programme qui pourrait systématiquement résoudre le jeu.

Or les modèles les plus récents comme Claude peinent déjà à résoudre le problème avec 7 disques — atteignant moins de 80 % de précision — et sont pratiquement incapables de réussir avec 8 disques.

Apple a constaté que même le très apprécié o3-min (high) ne faisait pas mieux et a observé des résultats similaires sur plusieurs autres tâches.

Il est véritablement embarrassant que les LLMs ne parviennent toujours pas à résoudre de façon fiable un problème aussi trivial que la tour de Hanoï. Et ce, alors qu’il existe de nombreuses bibliothèques de code source disponibles gratuitement sur le web !

- Qu’est-ce que cela dit de l’intelligence des LLMs ?

(GM) -  Si l’on ne peut pas utiliser un système d’IA à plusieurs milliards de dollars pour résoudre un problème que Herbert Simon — l’un des véritables " pères fondateurs " de l’IA — a résolu dès 1957 et que des étudiants de première année en intelligence artificielle résolvent sans problème alors la probabilité que des modèles comme Claude ou o3 atteignent un jour l’intelligence artificielle générale (AGI) paraît — au mieux — très éloignée.

L’un des coauteurs de la recherche, Iman Mirzadeh, a attiré mon attention sur la section 4.4 de l’article

Les chercheurs avaient fourni l’algorithme de solution au modèle qui n’avait plus qu’à suivre les étapes pour résoudre le problème. Or même dans ce contexte, ses performances ne s’étaient pas améliorées. Il a commenté ce paradoxe ainsi : " Notre argument n’est donc pas : ‘Les humains n’ont pas de limites, mais les modèles de raisonnement linguistique (LRMs) en ont, donc ils ne sont pas intelligents’. Mais plutôt : ‘ce que l’on observe de leur raisonnement ne ressemble ni à un processus logique, ni à une forme d’intelligence’ ".

- Vous dites avoir remarqué un point critique dans l’article, lequel ?

(GM) - Il s’agit d’une faiblesse qui a été bien exposée par un compte anonyme sur X — ce qui, en général, n’est pas une source réputée pour ses bons arguments… 

Elle est la suivante : les humains ordinaires présentent eux aussi un certain nombre de limites, qui ressemblent à celles mises en évidence par l’équipe d’Apple pour les LLMs. Beaucoup de personnes — pas toutes — se trompent en essayant de résoudre des versions de la tour de Hanoï avec 8 disques.

Mais justement, nous avons une réponse à cette faille. Nous avons inventé les ordinateurs — et avant les calculatrices — précisément pour résoudre de manière fiable des problèmes complexes, fastidieux ou de plus ou moins grande ampleur, comme la Tour de Hanoi.

L’objectif de l’AGI ne devrait pas être de répliquer parfaitement l’humain, mais — comme je l’ai souvent moi-même dit — de combiner le meilleur des deux mondes : l’adaptabilité humaine avec la force brute et la fiabilité computationnelle.

- Vous pensez qu’avec les LLMs, on risque de combiner le pire des deux mondes ?

(GM) - La vision que j’ai toujours eue de l’AGI est celle d’un système qui allie les forces humaines et celles de la machine, tout en dépassant les faiblesses humaines. Une AGI incapable de faire une addition correcte ne m’intéresse pas. Et je ne voudrais certainement pas confier l’infrastructure mondiale ou l’avenir de l’humanité à un tel système.

Nous ne voulons pas d’une AGI qui oublie de retenir une unité dans une addition élémentaire sous prétexte que les humains font parfois la même erreur — bonne chance dans ce cas pour obtenir un véritable " alignement " ou " sécurité " sans fiabilité !

Au passage, les modèles comme o3 commettent bien plus souvent des erreurs dues à l’hallucination et peinent lourdement à dessiner des schémas fiables. Ils partagent certaines faiblesses humaines, mais ils sont simplement moins bons sur plusieurs aspects. Et si les humains échouent, c’est souvent par manque de mémoire ; les LLMs, eux, disposent de gigaoctets de mémoire, ils n’ont donc aucune excuse.

- L’enthousiasme autour des LLMs vous semble-t-il détourner l’IA de son véritable potentiel scientifique — celui, notamment, d’une alliance entre raisonnement causal et puissance de calcul ?

(GM) - Ce qui est évident c’est que nous n’allons pas " extraire le cône de lumière " de la Terre ou " résoudre la physique " quoi que puissent signifier ces déclarations prétentieuses de Sam Altman avec des systèmes incapables de jouer à la Tour de Hanoï avec 8 disques.

Quand on me demande pourquoi — contrairement à ce qu’on dit — j’aime l’IA, et pourquoi je pense que l’IA — mais pas l’IA générative — pourrait, à terme, bénéficier profondément à l’humanité, je cite toujours le potentiel de progrès scientifiques et technologiques que nous pourrions accomplir si l’on parvenait à combiner les capacités de raisonnement causal de nos meilleurs scientifiques avec la puissance de calcul brut des ordinateurs numériques modernes.

Quelles seront les conséquences de cette progressive prise de conscience des limites de l’actuelle génération de modèles ?

(GM) - Ce que montre le papier d’Apple, de manière fondamentale — quelle que soit la façon dont on définit l’AGI —, c’est que les LLMs ne sont pas un substitut aux bons algorithmes conventionnels bien spécifiés.

Les LLMs ne savent pas jouer aux échecs aussi bien que les algorithmes classiques, ne peuvent pas replier des protéines aussi efficacement que certains hybrides neurosymboliques spécialisés, ne gèrent pas les bases de données aussi bien que les moteurs conçus pour cela… Dans le meilleur des cas — qui n’est pas toujours atteint —, ils peuvent écrire du code Python, en s’appuyant sur des blocs de code symboliques externes pour compenser leurs propres faiblesses — mais même cela n’est pas fiable.

La principale conséquence pour les entreprises et la société que je vois est la suivante : on ne peut pas simplement " brancher " o3 ou Claude sur un problème complexe et s’attendre à ce que cela fonctionne de manière robuste.

- Ne cherche-t-on pas à se rassurer ?  L’usage des LLMs n’a jamais été aussi grand. Plus de personnes utilisent désormais ChatGPT que Wikipedia

(GM) - Comme le montre le dernier article d’Apple, les LLMs peuvent très bien réussir sur un jeu de tests simple — comme la Tour de Hanoï à 4 disques —, et vous donner l’illusion d’avoir appris une solution généralisable, alors que ce n’est pas du tout le cas.

Au moins pour la prochaine décennie, les LLMs — avec ou sans " raisonnement " au moment de l’inférence — continueront d’être utiles, notamment pour le code, le brainstorming et la rédaction de textes. Et comme, me le disait récemment Rao : " Le fait que les LLMs/LRMs n’apprennent pas de manière fiable un seul algorithme sous-jacent n’est pas un obstacle absolu à leur utilisation. Je vois les LRMs comme des systèmes qui apprennent à approximer le déroulement d’un algorithme en allongeant progressivement le raisonnement à l’inférence. " Dans certains contextes, cela suffit. Dans d’autres, non.

Mais toute personne qui pense que les LLMs représentent un chemin direct vers une AGI capable de transformer radicalement la société pour le bien commun se berce d’illusions.

- Cela ne signifie pas que les réseaux neuronaux sont morts, ni que le deep learning est arrivé à sa fin.

(GM) -Les LLMs ne sont qu’une forme possible de deep learning, et peut-être que d’autres — en particulier ceux qui collaborent mieux avec des représentations symboliques — s’en sortiront mieux à l’avenir. Le temps le dira.

Mais cette approche actuelle a des limites qui deviennent chaque jour plus évidentes.

L’IA ne se heurte pas à un mur. 

Mais les LLMs, probablement si — ou du moins ils atteignent un point de rendements décroissants. 

Nous avons besoin de nouvelles approches, et de diversifier les voies qui sont explorées activement.

 



 

Auteur: Internet

Info: https://legrandcontinent.eu/, 10 juin 2025, Gary Marcus interviewé par Victor Storchan

[ spécialisation ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

vacheries

Le Top 10 des livres que vous n'avez jamais réussi à finir

Quel est le livre que vous n'avez jamais réussi à terminer ? Nous vous avons posé la question sur les réseaux sociaux, et vous avez été plus de trois mille à nous répondre. Voici le top 10 des livres qui vous sont tombés des mains.

On a rarement vu autant de pavés sur les tables des libraires ! Il n'existe pas forcément de lien entre la difficulté à lire un livre, et son épaisseur. Pour autant, cette rentrée littéraire riche en gros volumes nous a inspiré un sondage, que nous avons lancé sur nos réseaux sociaux le 27 septembre : nous avons voulu savoir quels romans vous n'aviez jamais réussi à terminer. Voici donc le top 10 des livres qui vous sont tombés des mains. Ceux qui détiennent la palme de l'ennui, de la complexité, ou du malaise... ! De l'Ulysse de James Joyce, au Voyage au bout de la nuit, de Céline.

1. "Ulysse", de James Joyce

La palme du livre le plus difficile à terminer revient sans conteste à l'Ulysse, de Joyce. Si ça peut ôter des scrupules à certains, notez que lors de sa parution, en 1922, Virginia Woolf elle-même l'avait jugé "prétentieux" et "vulgaire" !

Je n'y arrive pas. J'ai testé deux traductions différentes. J'ai même essayé en anglais. J'ai tout essayé. Impossible. Pour moi ce texte ne fait aucun sens. Je n'ai jamais dépassé la page 50. Marie-Claude

À la centième page ça lasse. Et il y en a bien plus ! Pourtant j'ai essayé trois fois. La dernière fois j'étais en Turquie : le livre y est resté. Échangé contre un polar dans une auberge. Moins bien écrit, mais lisible ! Delphine

Trop longuement perché pour moi, décourageant quand on pense que ces mille pages ne représentent qu'une journée narrée ! @Antilabe

Très touffu, assez opaque, nécessite, je pense, pour être bien compris, de solides connaissances en art littéraire, ou en tout cas d'avoir un parcours littéraire très développé, pour mettre à nu l'architecture du roman. Alexis

Ils disent tous que c'est immense mais quand tu prends le livre sur les étagères, à partir de la page 10 c'est du papier Canson. @xabicasto

Si vous cherchez à dompter l'Ulysse de James Joyce, vous pouvez commencer par réécouter ces Nouveaux chemins de la connaissance d'octobre 2014. Pour parler du roman, Adèle Van Reeth recevait Jacques Aubert, universitaire et éditeur des œuvres de Joyce (et de Virginia Woolf) dans la Bibliothèque de la Pléiade.

2. "Les Bienveillantes", de Jonathan Littell

Médaille d'argent pour Les Bienveillantes, prix Goncourt 2006, qui, à en croire vos témoignages, a donné la nausée à un certain nombre d'entre vous ! Notamment à cause d'une identification au narrateur (un ancien SS), vécue difficilement...

Une plume sublissime. Mais je finis par m'identifier au "je".... et je vomis. Impossible de prendre du recul tant l'écriture est puissante. Géraldine

J'ai étalé ma lecture sur neuf mois... malgré tout, impossible d'arriver au bout. Trop long, trop lourd, trop sordide, trop d'abréviations qui renvoient le lecteur tous les quatre paragraphes au glossaire de fin d'ouvrage (tout est en allemand) !! Je n'ai pas réussi, ni voulu me familiariser avec ce tout. Jeanne

Ce livre m'a plongée dans une angoisse monstre. Jusqu'à me poursuivre la nuit, sous forme de cauchemars... je l'ai arrêté à contre-cœur car je le trouvais aussi fascinant que perturbant. Anaïs

Le décalage, certes voulu, entre l’horreur des faits évoqués et la froideur du récit m’était insupportable. Par ailleurs, le profil du narrateur me semblait peu crédible et sans intérêt : sur neuf-cents pages, c’est long. Stéphane

Je n'ai pas trouvé la grille de lecture, pas compris le sens. Absence d'émotions, même négatives. Un catalogue d'horreurs aseptisées. Si quelqu’un peut m'aider à comprendre ce qui lui a valu le Prix Goncourt, je suis preneur. Geoffrey

En décembre 2006, année de publication des Bienveillantes, l'émission Répliques se posait la question de savoir si le succès de ce roman historique sur le génocide des Juifs pendant la Seconde Guerre mondiale, était ou non choquant. Au micro, la journaliste Nathalie Crom, qui qualifiait ce roman de "stupéfiant", mais aussi l'un des détracteurs de l'ouvrage, le philosophe Michel Terestchenko, qui le considérait comme "un mélange de lieux communs, de platitudes et de clichés" :

3. "À la Recherche du temps perdu", de Marcel Proust

Le bronze revient sans surprise à Marcel Proust, mondialement connu pour ses phrases interminables, et à son oeuvre cathédrale, À la recherche du temps perdu. Rappelons qu'en 1913, Gallimard avait dans un premier temps refusé de publier Du côté de chez Swann.

C'est illisible. Des paragraphes qui font cinq pages, des phrases qui n'en finissent jamais... Un éditeur moderne ne l'aurait jamais publié ! Pierre

Longtemps je me suis couchée de bonne heure... pour lire, mais celui-là m'a complètement endormie. @Tlih_Eilerua

Quand j'avais 15-16 ans, il a même traversé la fenêtre et a atterri dans la rue. Je trouvais ce livre insupportable. Olivier

C'est tellement riche et beau qu'après avoir lu une page, il faut la savourer et la méditer avant de passer à la suivante. Et après une dizaine de pages, je ressens comme un trop plein, une sorte d'écœurement. Rémi

Ah, "La Recherche"... Arrêtée au Temps retrouvé ! @TataMarceline

Les lecteurs du XXe siècles ont-ils eu du mal, eux aussi, à entrer dans La Recherche du temps perdu ? Pour le savoir, réécoutez ce Lieux de mémoire diffusé sur notre antenne en 1997. Antoine Compagnon et Jean-Yves Tadié y racontaient leur première lecture de La Recherche, et expliquaient comment donner envie de lire cette oeuvre... voilà qui tombe plutôt bien !

4. "Le Seigneur des anneaux", de J. R. R. Tolkien

La trilogie de Tolkien, parue entre 1954 et 1955, a recueilli également de très nombreux suffrages ! Beaucoup d'entre vous n'ont notamment pas su dépasser le très long préambule consacré aux mœurs des Hobbits et à leur vie dans La Comté.

Après avoir eu l'impression de passer une vie à errer dans la forêt, j'ai lâché l'affaire. @manel_bertrand

Le style, les longueurs, l'ennui... ! J'ai essayé de zapper les passages du début, comme on me l'avait conseillé. Mais rien à faire, je ne suis jamais arrivé à entrer dedans. Pourtant j'ai lu "Le Hobbit" facilement, ainsi que d'autres œuvres de fantasy. Sandrine

Au milieu du troisième tome, j'avais perdu tout intérêt de savoir si le bien allait triompher du mal. @emilycsergent

Tolkien, on aime, ou pas. Mais il faut reconnaître que l'écrivain était prodigieusement inventif, capable de créer un univers entier, doté de sa géographie particulière, et de ses langues singulières. En 1985, France Culture s'intéressait à ses inspirations, depuis le poème anglo-saxon de Béowulf, jusqu'aux légendes celtiques, en passant par les anciens livres gallois :

5. "Belle du Seigneur", d'Albert Cohen

Vous n'y êtes pas allés avec le dos de la cuillère pour dire votre incapacité à venir à bout du roman-fleuve de l'écrivain suisse francophone, publié en 1968 ! Joseph Kessel l'avait pourtant qualifié de "chef-d'œuvre absolu"...

J'avais l'impression de voir l'auteur se donner des tapes dans le dos et s'auto-contempler en train d'écrire. J'ai rarement lu quelque chose d'aussi satisfait et suffisant. Pas un personnage pour rattraper l'autre, on a envie de leur mettre des baffes à la Bud Spencer, à tour de rôle. Aucun humour en fait, pas de place pour l'autodérision, Cohen se prenant bien trop au sérieux. Samia

J'avais très envie d'aimer ce livre. Mais la scène où son sentiment pour le jeune homme bascule était tellement rapide et illogique, que ça m'a tout fichu en l'air. Je trouvais tout le monde tarte, j'ai arrêté au bout de deux-cents pages et je n'ai pas regretté. Solène

Impossible, malgré trois essais et à des années d’intervalle. Rien à faire. Ecriture trop poussive, métaphorique à l’excès, détails à foison... Impossible pour moi, grande lectrice et professeur de littérature, d’apprécier ce roman pourtant salué de tous. Françoise

En 2006, dans Carnet nomade, des artistes, des chercheurs et des zélateurs d'Albert Cohen venaient raconter leur lecture personnelle de Belle du seigneur. Nombre d'entre eux trouvaient à ce livre "humour, ferveur, et intelligence". Sauront-ils vous convaincre ?

6. "L'Homme sans qualités", de Robert Musil

Paru en 1932, le roman inachevé de l'écrivain autrichien Robert Musil a également fait consensus. Mille huit cents pages... on ne vous trouve pas très endurants !

Les premiers chapitres m'ont ravi : ce style et cet univers m'ont très vite pris. Pourquoi alors, au fur et à mesure, cette sensation d'enlisement, de stériles redites, d'absurdité, de vanité ? Et malgré tout l'impression saisissante de passer à côté de quelque chose d'énorme, pour lequel je ne serais pas outillé... Patrick

Des passages lents et interminables, et quelques éclats de génie qui m'ont fait m'accrocher jusqu'à la moitié (du premier tome), c'est déjà une performance. Méli

J'ai essayé maintes et maintes fois, il me tombe des mains et finit toujours sous mon lit ! Martine

Les premières pages sont prodigieuses, puis la magie disparaît. Musil ne l'a pas fini non plus ! @BrouLou

Et vous, êtes-vous parvenu(e) au bout de la grande oeuvre de Musil, qui met en scène des personnages ambivalents et en quête d'équilibre dans un monde en pleine mutation ? Peut-être que l'écoute de ce Une vie, une oeuvre, diffusé en 1989, vous décidera à en tenter ou en retenter la lecture !

7. "Le Rouge et le Noir", de Stendhal

Pour l'écrivain britannique William Somerset Maugham, il fait partie des dix plus grands romans jamais écrits. Pourtant, le grand classique de Stendhal, publié en 1830, vous tombe des mains ! Peut-être est-il trop étudié en classe ?

J'ai craqué au bout de quelques chapitres. Une à deux pages pour décrire une tapisserie de salon ou d'antichambre... juste imbuvable ! Nathalie

J'avais en permanence envie de secouer les protagonistes, insupportables de mollesse, à contempler leurs sentiments et émotions sous toutes les coutures (je reste polie). Je les hais. J'ai fini par jeter l'éponge, ce qui ne m'arrive jamais. Marie

Obligée de le lire à l'école deux années de suite, car la même prof de français. Je crois bien ne pas être allée jusqu'au bout, et ça m'a dégoûtée de la littérature classique ! Christine

Le professeur de littérature française Yves Ansel saura-t-il réconcilier les lecteurs avec Stendhal ? Il était venu en 2014, parler de ce fameux roman dans Les Nouveaux chemins de la connaissance :

8. "Madame Bovary", de Gustave Flaubert

Il ne pouvait pas ne pas faire partie de ce top 10 ! Il faut dire que Flaubert a tendu le bâton pour se faire battre : en écrivant ce roman publié en 1856, son but assumé était bel et bien de "faire un livre sur rien".

Alors que j'aime beaucoup Flaubert - j'ai adoré "Salammbô" ! -, je n'ai jamais réussi à finir "Madame Bovary". Je suppose que Flaubert est tellement doué pour décrire l'ennui d'Emma que cet ennui m'a gagné aussi. C'est un personnage qui m'ennuie, et m'agace... Certainement pour des raisons personnelles ! Caroline

Tous les personnages sont médiocres, lâches, stupides, on ne peut pas s'identifier à eux. Il faudrait que je m'y essaye à nouveau ! @AudeJavel1

Je n ai jamais pu aller plus loin que le mariage. Ça m'ennuyait trop. Un livre qui ne tient que par son style, ça ne m'intéresse pas. Il faut qu'il se passe des choses. Je suis peut être trop parisienne ? Caroline

En août 2017, nous consacrions un article à la manière dont Flaubert avait révolutionné l'écriture romanesque avec Madame Bovary. Car dès sa publication, en 1856, le roman choqua d'abord par son style, avant même d'être mis en procès pour son caractère "licencieux" l'année suivante. De quoi peut-être rassurer le lectorat récalcitrant !

9. "Cent ans de solitude", de Gabriel Garcia Marquez

Trop de personnages, et une traduction jugée "laborieuse" pour certains. La grande oeuvre de Gabriel Garcia Marquez (Nobel de littérature en 1982), parue en 1967, a dérouté un bon nombre d'entre vous ! Après tout, peut-être que l'on peut se contenter de la première phrase du roman, connue comme l'un des incipits les plus célèbres de la littérature : "Bien des années plus tard, face au peloton d'exécution, le colonel Aureliano Buendía devait se rappeler ce lointain après-midi au cours duquel son père l'emmena faire connaissance avec la glace."

Une oeuvre géniale dans laquelle je me suis plongé à corps perdu. Et puis, je ne sais plus quand, j'ai arrêté de le lire pendant une deux semaines. Et quand j'ai voulu m'y remettre, je ne savais plus qui était qui dans cette histoire (fichus Buendia avec leurs prénoms mélangés !), et j'ai abandonné. Lucas

J'ai eu l'impression de rentrer dans un monde distorsion avec des malheurs sans fin, je n'en pouvais plus. Anne-Sophie

Je ne sais pas pourquoi les éditeurs n'insèrent pas un arbre généalogique ! C'est bien ça qui manque pour le terminer... Dee Dee

En 1970, sur France Culture, l'émission Les Voix étrangères s'intéressait à Cent ans de solitude : "Il arrive parfois qu'un livre refuse sa condition de livre. La condition d'un volume que chacun ouvre ou pose à son gré, pour faire irruption dans la vie quotidienne du lecteur, s'installer d'un air résolu dans les rêves, mais aussi dans la conversation familiale du soir", commentait la critique littéraire Ugne Karvelis.

10. "Voyage au bout de la nuit", de Louis-Ferdinand Céline

"Voyage au bout de l'ennui", le jeu de mots est facile, mais vous êtes nombreux à l'avoir osé ! En avril 1932, Céline promettait pourtant à Gaston Gallimard que son roman était "du pain pour un siècle entier de littérature" !

J'avais et j'ai toujours l'impression que le vieux Céline sortait comme un diable de sa boîte à chaque ponctuation, ricanant, insultant et grinçant. Cette vision récurrente m'effraie encore, rien que d'y penser. C'est le seul livre que j'ai jeté au travers d'une pièce, de peur et de rage. Le seul roman qui me renvoie à un perpétuel effondrement. Hélène

Bien que je trouve l'écriture de Céline fascinante et d'une intelligence rare, le dernier tiers me laisse toujours moralement le cœur au bord des lèvres. J'avance toujours un peu plus mais ne le termine jamais. Stéfanie

J'ai essayé deux fois : style apprécié, mais c'est le contexte, je n'arrive jamais à garder mon attention quand l'objet parle des guerres du XXe siècle. Je ne saurais même pas dire si c'est par ennui ou par dégoût de cette période. Oda

,

Auteur: Internet

Info: Combis Hélène, https://www.franceculture.fr, 06/10/2017

[ survol littéraire ]

 
Commentaires: 2
Ajouté à la BD par miguel

sénescence humaine

Apprendre à vieillir (avec les romanciers)

Et si l'allongement de la durée de nos vies transformait la littérature ? C'est l'hypothèse d'Alexandre Lacroix, qui montre, à la lumière des œuvres de Richard Ford, Ian McEwan et Philip Roth qu'un champ de description inédit s'ouvre depuis quelques années : l'expérience de la vieillesse et la proximité de la mort.

La parution ces jours-ci du  Paradis des fous , le dernier roman de l'écrivain américain Richard Ford (né en 1944), est l'occasion de faire le point sur une sorte de continent noir, et nouveau, en train d'émerger dans le panorama de la littérature contemporaine. En effet, l'art du roman est depuis toujours lié à l'expérience – qu'un auteur à de sa propre psychologie, des relations avec les autres ou encore des circonstances sociopolitiques dans lesquelles il évolue. Or un phénomène s'est déroulé au cours du XXe siècle, qui tend à produire ses effets littéraires depuis une quinzaine d'années seulement – ​​je veux parler de l'allongement de l'espérance de vie. Nous avons aujourd'hui un certain nombre de romanciers de premier plan qui sont entrés dans le troisième âge, tout en restant parfaitement maîtres de leur art et de leurs moyens d'évocation, de leur capacité à construire des narrations ambitieuses. Ils sont donc en mesure de nous décrire, de l'intérieur, le vieillissement et la préparation à la mort. Qu'est-ce que ces grands auteurs ont à nous révéler sur ce qui se passe en nous, lorsqu'on passe au-delà de la ligne d'ombre qui sépare la maturité du terme de l'existence ?

Ne plus surjouer la forme

À un moment donné, une sorte de voile d'illusion tombe – celui de l'éternelle jeunesse, de l'invulnérabilité que notre société a tant l'habitude de mettre en scène. On ne peut plus feindre d'avoir un corps en pleine forme, il devient nécessaire de composer avec des douleurs et des maladies chroniques. De manière cruelle,  Le Paradis des fous  (à vrai dire l'un des romans les plus glauques qu'il m'ait été donné de lire, mais on hésite à formuler cette critique, Richard Ford est susceptible, le bonhomme ayant envoyé à une romancière qui l'avait démoli un livre criblé de balles), s'ouvre sur une réunion d'anciens combattants. Le narrateur, personnage qui est le double de l'auteur et qui revient dans ses romans depuis  Un week-end dans le Michigan , paru en 1986, Frank Bascombe, retrouve ses camarades de la promotion 1963 de l'Académie militaire de Gulf Pines. Tous sont désormais des "  connards racornis  ", au fil des années Frank les a vus devenir "  taiseux, renfermés, lourdsauds, un poil agressifs et souvent déglingués  ". Mais il ya ce soir-là, en particulier, Pug Minokur, qui était la vedette de l'équipe de basket de ces apprentis  marines. Frank s'empresse d'aller lui serrer la main. Pug Minokur a un regard vitreux et émerveillé. Il est doux, docile. Il marmonne entre ses dents pourries : "  Il faut que tu comprennes. Je suis vraiment heureux  ", puis il part dans des divagations sur sa mère et sur une petite pendule qui ne marche plus. Hélas ! Carlin est gaga.

Quelques pages plus loin, Frank, 74 ans, fait son bilan de santé dans un paragraphe acerbe : "  J'avais été victime d'un mini-AVC, mais rien d'inquiétant en fin de compte (j'ai pris des statines) . Le trou microscopique détecté dans mon cœur au centre médical de Haddam n'a pas été jugé assez grave pour qu'on me donne des anticoagulants (tant mieux pour l'érection  […]  J'avais parfois des palpitations, les pieds

). qui me brûlaient. Mes ongles poussaient comme ceux d'un cadavre.  Telles étaient les inexorables réalités de ma vie, qui réduisaient les fantasmes " bulletin de santé impeccable " et " je fais jeune pour mon âge " à une vaste couillonnade. à un univers mental plombé, c'est une toute autre tonalité qu'on trouve dans les pages finales du  Leçons magistrales  (2022) de Ian McEwan (né en 1948), assurément l'un des meilleurs livres de la littérature anglaise depuis longtemps.  Leçons  est ce que les Britanniques appellent un "  Whole Life Novel  ", dans une tradition qui remonte à Thackeray ou à Thomas Hardy, c'est-à-dire un roman qui raconte la vie entière de son personnage principal. En costume Roland Baines de ses 11 ans jusqu'au-delà de 70 ans. On assiste à ses amours, ses séparations, ses échecs et ses joies. Ian McEwan a expliqué dans ses interviews que jamais aucun de ses héros n'a été aussi proche de lui, de sa propre trajectoire, même si  Leçons  ne se présente pas comme des mémoires. À la toute fin du livre (ceux qui comptent le lire peuvent sauter ce paragraphe), Roland Baines retrouve son épouse qui l'a purement et simplement abandonnée plusieurs décennies auparavant. Alissa souffre d'un cancer et a été amputée d'une jambe. Ils discutent un peu, se mettent à boire énormément, et puis ils décident de parler de leur santé. "  Toi d'abord  ", lui demande-t-elle. Il n'omet rien : "  Glaucome à angle ouvert, cataractes, lésions causées par le soleil, hypertension, douleurs thoraciques dues à une côte cassée, risques de diabète de type 2 compte tenu de son tour de taille, arthrose dans les deux genoux, hyperplasie de la prostate – bénigne, maligne, aucune idée.  " Il n'a rien de grave, n'est pas spécialement hypocondriaque, mais il se rapporte désormais à son corps comme à une vieille voiture cabossée.

Nathan Zuckerman est à l'Américain Philip Roth (1933-2018) ce que représente Frank Bascombe pour Richard Ford, une sorte de jumeau littéraire, qui lui a permis de parler de lui-même sans se situer sur le terrain de l'autofiction ni de l'autobiographie, par le truchement de la fiction. Le cycle des romans de Nathan Zuckerman a débuté avec  L'Écrivain des ombres  en 1979, avant de s'achever avec  Exit le fantôme , publié en 2007. Dans ce dernier épisode de ses aventures, pudique, d'une grande maîtrise, Nathan Zuckerman un 71 ans. L'incipit du roman est mordant, dynamique, mais aussi direct, sans fausse promesse : "  Je n'étais pas retourné à New York depuis onze ans. À part un bref séjour à Boston afin d'y subir l'ablation de la prostate pour cause de cancer, j'étais, au cours de ces onze années, à peine sorti de mon coin perdu dans les hauteurs des Berkshires… "  Plus loin, Nathan Zuckerman évoque son incontinence, ses efforts pour se garder "  propre et exempt de toute odeur  ", les différents types de "  caleçons spéciaux  " correspondant à il a recours, et ses "  petits accidents  "…

Je me rends compte que les lignes qui précèdent sont peut-être un peu éprouvantes à lire, cependant ces romanciers font leur métier : au lieu de nous présenter une version édulcorée de la réalité, d'ajouter au jeunisme et à la pensée positive ambiante, ils affrontent le négatif, ils nomment les choses. Si Richard Ford semble au fond du trou à en juger par sa prose, ce n'est pas du tout le cas de Ian McEwan ni de Philip Roth, dont les personnages continuent à porter un amour certain à la vie.

" Pensez à l'an 4000 "

Parce que, si on en vient au positif de ces histoires, ces héros aux corps affaiblis ont un immense avantage : ils ont tombé le masque, ils n'essaient plus de paraître meilleurs qu'ils ne sont , ils n'ont aucune promesse d'avenir radieux à offrir à ceux qu'ils aiment, raison pour laquelle ils sont prêts à vivre des relations humaines authentiques, délestées du souci d'arrondir les angles. Dans  Le Paradis des fous  (le titre en anglais est  Be mine , " Sois mien ", mais cela pourrait annoncer une histoire d'amour), Frank Bascombe fait un dernier voyage avec son fils de 47 ans, condamné à mourir rapidement parce qu' il est frappé par une maladie de Charcot particulièrement agressive. Bizarrement, ils veulent se rendre au mont Rushmore, où les visages des présidents américains sont sculptés dans le roc. Ils dorment dans des motels, circulent à travers des villes enneigées, il ya des congères, il fait -20 °C dehors. À un moment donné, qui donne le ton, Paul Bascombe, le fils du narrateur donc, lâche à son père : "  T'es bizarre, comme connard. " C'est une déclaration d'amour, mais sans concession. Cela résume toute la tendresse qui passe entre ces deux hommes, tandis que Frank méprise plus ou moins son fils, qu'il considère comme un raté. Paul perd ses cheveux, est trop gros, n'a jamais rien fait de sa vie et justifie ses échecs par le traumatisme du divorce de ses parents. Mais Frank refuse de se laisser culpabiliser, et le mot de "  connard  " glisse sur lui. , sur ses vieux jours, aux deux femmes qui l'ont le plus fait souffrir, Alissa, au cœur de leur journée de rétrouvailles, mais aussi une professeure qui l'a abusée sexuellement et laissée avec des déséquilibres affectifs irréparables Quant à Nathan Zuckerman. , il réunit quelques amis le jour de son anniversaire, pour ses 70 ans. Et il leur annonce : "  Mon discours sera bref. Pensez à l'un 4000 . " Les autres se regardent, s'attendent à une bonne blague. Alors il précise le trait : "  Non, non. Pensez sérieusement à l’année 4000. Imaginez-la. Dans toutes ses dimensions, dans tous ses aspects. Prenez votre temps.  […]  Eh bien, voilà l'effet que ça fait d'avoir soixante-dix ans . "

La permanence du désir

Le seul problème qui vient hanter ces personnages, c'est qu'ils ont encore des désirs intacts, des désirs d'hommes jeunes, mais qu'ils ne peuvent plus les assouvir. Ils sont sensibles aux silhouettes, au charme des femmes qu'elles croisent dans la rue. Pathétique à souhait, Frank Bascombe s'amourache d'une certaine Betty Duong Tran, une Vietnamienne qui travaille dans un salon de massage – lieu où il se rend pour la première fois de sa vie. . Elle incarne, dit-il, le fantasme de "  la lycéenne qu'on aurait dû aimer et que, pour mille raisons, on n'a pas aimée, mais qu'on rêve pourtant de pouvoir aimer encore à présent  " Nathan Zuckerman est . sensible à la "  présence sensuelle très forte " qui émane de Jamie, une jeune femme qu'il fréquente à New York – mais il trouve un vade-mecum, une astuce, il va vivre son flirt avec elle sur le plan de l'écriture, de la fiction, il va l 'imaginer. Écrivain, Zuckerman a un sérieux avantage sur Bascombe, dans ce crépuscule de la chair : il a un moyen de sublimation, la littérature Quant à Roland, il joue de malchance : à 62 ans, il décide d'épouser une vieille. amie qui a aussi été longtemps sa maîtresse, et ils se marient effectivement, mais on diagnostique aussitôt à cette dernière un cancer, et ils organisent les mois suivants en trois phases un : ils voyagent pour revoir certains lieux qui ont compté pour elle. Phase deux : elle met de l'ordre dans ses affaires et ses archives. Phase trois : elle se concentre sur sa maladie, et après cette période d'amour très intense, tant sur. le plan physique que de l'affection, Roland se retrouve veuf. Bascombe a bien essayé de renouer avec la mère de Paul, qui fut tout compte fait la femme de sa vie, mais elle était déjà très atteinte par la maladie de Parkinson, et leurs ébats se reprennent à des tentatives tragi-comiques, décrites avec une forme de délicatesse étonnante étant donnée la brutalité psychique de ce narrateur : "  Nous sommes allés jusqu'à tenter l'amour tardif dans un Best Western de Davenport, sur un canapé Davenport, avec la sensation d'être des savants en gants de laboratoire en train de déplacer des éprouvettes radioactives à l'intérieur des caissons de verre hermétiquement scellés . " Plus tard, les deux sont capables d'en rire, avec autodérision.

Se réconcilier avec l'aléatoire

Ce qui est certain, c'est que ces personnages ont encore un pied dans la vie, mais de façon fantasmatique – parce que dans la En réalité, ils doivent entreprendre une forme de réconciliation avec la mort des autres, mais aussi la leur Frank s'émeut pour son fils, mais pense très peu à sa propre finitude, ou plutôt il une manière singulière de l'évoquer. – il place désormais son existence sous le signe de l'aléatoire. Le pire va lui tomber dessus, et d'ici là, il ne change rien à son organisation de vie "  Personnellement, un sentiment modéré d'aléatoire ne m'a. jamais gêné et j'ai cherché, autant que faire se peut, à nourrir l'aléatoire. En vivant comme je le fais avec mon fils, dont l'existence est désormais hermétiquement conditionnée à la vie (et à la mort) selon la maladie de Charcot mais qui est souvent dans l'incapacité de savoir comment agir dans l'avenir immédiat, je suis souvent dans l'incapacité de savoir tout bonnement comment être, sentiment que je considère comme l'essence même de l'aléatoire, pas nécessairement négatif à dose raisonnable . "

Nathan Zuckerman s'en tire parce qu'il a le sens de l'humour, de l'autodérision. Mais celui qui se livre à la méditation la plus étonnante sur la mort, c'est sans aucun doute Roland Baines. Au soir de sa vie, alors qu'il attend chaque jour l'heure de l'apéritif et de son premier verre d'alcool avec impatience, et qu'il est souvent plongé dans un état de catatonie, il imagine (en discutant avec sa petite fille Stefanie) qu'il existe un livre, dont chaque page est une année, et qui couvre tout le XXIe siècle. Son regret à lui, c'est qu'il n'en découvrira que le quart. En fait, il n'éprouve pas un sentiment de révolte égoïste ou autocentré contre la mort, il consent à son anéantissement personnel. Mais il aimerait connaître la suite de l'Histoire de l'humanité et de ses proches, et se désole de la manquer. C'est sa curiosité qui va demeurer inassouvie. "  La mort, selon Roland, avait le défaut majeur d'être en dehors de l'Histoire. Ayant suivi cette dernière jusque-là il avait besoin de savoir comment les choses allaient tourner.  […]  Un déclenchement catastrophique de la planète serait- il éviter ? La vague mondiale de nationalisme raciste ferait-elle place à quelque chose de  plus généreux, de plus constructif ?  […  Aux yeux de Roland, le simple fait d'être encore entier le dernier jour du vingt et unième siècle, à la fin du livre, serait un triomphe  " Roland trouve de la consolation, parce que sa petite-fille lui promet. qu'elle lui lira, elle, la fin du livre, sans bien se rendre compte de ce qu'elle dit là.

Au final, ces trois ténors de la littérature contemporaine – Philip Roth, Ian McEwan et Richard Ford – ne donnent pas une image réconfortante du vieillissement. Il n'y a pas d'épiphanie, pas d'apparition de la lumière, pas d'accès au souverain bien, pas de progression vers le nirvana. Mais plutôt une forme de pénombre qui s'installe. Dans ce pénombre, paradoxalement, ce qu'on est, ce que sont les autres, les contours du monde apparaissant plus clairement que durant la vie active, qui fut obnubilée par ses luttes, par les places qu'on occupait et les objectifs à atteindre. . Et après tout, cette clairvoyance des confins correspond à une certaine conception – non apaisée – de la sagesse.

Auteur: Internet

Info: Philomag, Alexandre Lacroix, le 27 septembre 2024

[ témoignages ]

 

Commentaires: 0

Ajouté à la BD par miguel