Citation
Catégorie
Tag – étiquette
Auteur
Info
Rechercher par n'importe quelle lettre



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits... Recherche mots ou phrases tous azimuts... Outil de précision sémantique et de réflexion communautaire... Voir aussi la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats ... Lire la suite >>
Résultat(s): 5316
Temps de recherche: 0.038s

homme-animal

Le processus d’encéphalisation
Parmi l’ensemble des animaux non-humains, les dauphins sont dotés du quotient encéphalique le plus élevé au monde, soit à peu près celui de l’être humain.
A ce petit jeu, d’ailleurs, le cachalot nous dépasse tous largement !
Une telle augmentation du volume cérébral, bien au-delà des simples besoins de la motricité ou de la sensorialité, est qualifiée "d’encéphalisation structurelle".
Ce phénomène n’est pas rare. Il semble que dès le Jurassique, des dinosauriens bipèdes de taille moyenne aient commencé à augmenter de manière encore timide leurs capacités cérébrales.
Au Tertiaire, les ancêtres des éléphants et des cétacés se sont lancés à leur tour dans la course au gros cerveau mais ce n’est qu’au Quaternaire, il y a de cela de trois à six millions d’années, que certains primates hominoïdes développent une boîte crânienne de type néoténique à fontanelles non suturées durant les premiers temps de l’enfance, afin de permettre une croissance ultérieure de l’un des cerveaux les plus puissants du monde.
Ce processus d’encéphalisation apparaît également chez certains oiseaux – corvidés, psittacidés – à peu près vers la même époque. A chaque fois, bien sûr, des comportements très élaborés sont toujours associés à un accroissement spectaculaire du tissu cérébral.
Une si curieuse convergence de formes, la survenance simultanée ou successive de tous ces "grands fronts", pose bien évidemment question en termes darwiniens.
Le ptérodactyle, la mouche, le colibri, la chauve-souris ont des ailes pour voler, la truite, l’ichtyosaure, le marsouin ont un corps fait pour nager, le grillon fouisseur et la taupe ont des pattes en forme de pelles pour creuser, etc.
Mais à quoi rime dès lors un vaste crâne et à quelle fonction est-il dévolu ?
Essentiellement à comprendre le monde et ceux qui le composent, en ce compris les membres de sa propre espèce, avec lesquels il faut sans cesse gérer une relation équilibrée.
Même les gros cerveaux les plus solitaires vivent en fait en société : tigres, baleines bleues, panthères, orangs-outans gardent des liens étroits, bien que distants ou différés, avec leur fratrie et leurs partenaires.
L’intelligence est à coup sûr l’arme suprême contre les aléas du monde, ses mutations incessantes, puisqu’elle permet notamment de gérer un groupe comme un seul corps mais aussi de pénétrer les lois subtiles qui sont à la base du mouvement des choses.
En augmentant d’un degré supérieur ces facultés par le moyen du langage, lequel conserve le savoir des générations mortes, l’homme et le cétacé ont sans doute franchi un nouveau pas vers une plus grande adaptabilité.
Le problème de l’humain, mais nous n’y reviendrons pas davantage, c’est qu’il ne s’est servi jusqu’à ce jour que d’une partie de son intelligence et qu’il se laisse ensevelir vivants dans ses propres déchets, et avec lui les reste du monde, pour n’avoir pas su contrôler sa propre reproduction ni la saine gestion de son environnement.
Intelligents ou non ? (Le point de vue de Ken Levasseur)
Dans un courrier CFN posté en avril 2003 relatif à l’utilisation de dauphins militaires en Irak, Ken Levasseur, l’un des meilleurs spécialistes actuels de cette question, a tenu à faire le point à propos de l’intelligence réelle ou supposée de ces mammifères marins. Aux questions que lui avait adressées un étudiant sur ce thème, Ken répond ici de manière définitive, sur la base de de son expérience et de ses intimes convictions.
Eu égard aux remarquables recherches menées par Ken depuis des années et au fait qu’il a travaillé longtemps aux côtés du professeur Louis Hermann, son point de vue n’est évidemment pas négligeable ni ses opinions sans fondements. On lira d’ailleurs sur ce site même son article en anglais relatif au cerveau du dauphin
Inutile de dire que le gestionnaire de ce site partage totalement le point de vue de Ken Levasseur, dont les travaux l’inspirent depuis de nombreuses années, au même titre que ceux de Wade Doak ou de Jim Nollman : tous ont en commun d’affirmer que les dauphins ne sont pas des animaux au sens strict mais bien l’équivalent marin de l’humanité terrestre.
Q- A quel niveau d’intelligence réelle les dauphins se situent-ils ? A celui du chien ? Du grand singe ? D’un être humain ?
R- Mon meilleur pronostic est qu’un jour prochain, nous pourrons prouver que la plupart des espèces de cétacés disposent d’une intelligence équivalente ou supérieure à celle d’un humain adulte.
Q- Quelles sont les preuves nous permettant d’affirmer que les dauphins sont intelligents ?
R- Il a été démontré depuis longtemps que les dauphins peuvent développer des capacités cognitives qui équivalent ou excèdent les possibilités mentales de l’être humain. Aujourd’hui, nous sommes à même de définir exactement en quoi consiste l’intelligence humaine. Une fois que nous parviendrons à définir l’intelligence d’une manière strictement objective et valable pour toutes les autres espèces, on permettra enfin aux cétacés de faire la preuve de la leur.
Q- Quelles preuves avons-nous que les dauphins ne sont PAS intelligents ?
R- Il n’y a aucune preuve scientifique qui tendrait à prouver que l’intelligence du dauphin serait située entre celle du chien et celle du chimpanzé (comme l’affirment les delphinariums et la marine américaine) .
Q- Est-ce que les dauphins possèdent un langage propre ?
R- La définition d’une "langue", comme celle de l’intelligence, repose sur des bases subjectives définies pour et par les humains. Une fois que nous pourrons disposer d’une définition plus objective de ce qu’est un langage, et que les recherches sur la communication des dauphins ne seront plus "classifiée" par les américains, il est fort probable que les chercheurs puissent enfin conduire les recherches appropriées et qu’ils reconnaissent que les dauphins disposent de langages naturels.
Q- Est-ce leur capacité à apprendre et à exécuter des tours complexes qui les rend plus intelligents ou non ?
R- La capacité du dauphin à apprendre à exécuter des tours complexes est surtout une indication de l’existence d’un niveau élevé des capacités mentales, interprétées comme synonymes d’une intelligence élevée.
Q- Jusqu’à quel point ont été menées les recherches sur les dauphins et leur intelligence ? Que savent vraiment les scientifiques à leur propos ?
R- La US Navy a "classifié" ses recherches sur les dauphins en 1967, au moment où l’acousticien Wayne Batteau est parvenu à développer des moyens efficaces pour communiquer avec des dauphins dressés. La communication et l’intelligence des dauphins constituent donc désormais des données militaires secrètes, qui ne peuvent plus être divulguées au public.
Q- Est-ce que les dauphins disposent d’un langage propre ? Y a t-il des recherches qui le prouvent ?
R- Vladimir Markov et V. M. Ostrovskaya en ont fourni la preuve en 1990 en utilisant la "théorie des jeux" pour analyser la communication des dauphins dans un environnement contrôlé et à l’aide de moyens efficaces. Il est donc très probable que les dauphins aient une langue naturelle.
Q- Les capacités tout à fait spéciales des dauphins en matière d’écholocation ont-elles quelque chose à voir avec leurs modes de communication?
R- A mon sens, les recherches futures fourniront la preuve que le langage naturel des cétacés est fondé sur les propriétés physiques de l’écholocation, de la même manière que les langues humaines se basent sur des bruits et des représentations.
Q- Quelle est VOTRE opinion à propos de l’intelligence des dauphins ?
R- Pendant deux ans, j’ai vécu à quinze pieds (1 Pied : 30 cm 48) d’un dauphin et à trente-cinq pieds d’un autre. À mon avis, les dauphins possèdent une intelligence équivalente à celle d’un être humain. Ils devraient bénéficier dès lors de droits similaires aux Droits de l’Homme et se trouver protégé des incursions humaines dans son cadre de vie.
Q- La ressemblance entre les humains et les dauphins a-t-elle quelque chose à voir avec leur intelligence commune ?
R- Les dauphins sont très éloignés des humains à de nombreux niveaux mais les ressemblances que nous pouvons noter sont en effet fondées sur le fait que les dauphins possèdent des capacités mentales plus élevées (que la plupart des autres animaux) et sont à ce titre interprétés en tant qu’intelligence de type humain.
Q- La grande taille de leur cerveau, relativement à celle de leur corps, est-elle un indicateur de leur haute intelligence ?
R- Le volume absolu d’un cerveau ne constitue pas une preuve d’intelligence élevée. Le coefficient encéphalique (taille du cerveau par rapport à la taille de corps) n’en est pas une non plus. Néanmoins, on pourrait dire que la taille absolue du cerveau d’une espèce donnée par rapport au volume global du corps constitue un bon indicateur pour comparer les capacités mentales de différentes espèces. Souvenons-nous par ailleurs que les cétacés ne pèsent rien dans l’eau, puisqu’ils flottent et qu’une grande part de leur masse se compose simplement de la graisse. Cette masse de graisse ne devrait pas être incluse dans l’équation entre le poids du cerveau et le poids du corps car cette graisse n’est traversée par aucun nerf ni muscle et n’a donc aucune relation de cause à effet avec le volume du cerveau.
Q- Est-ce que la capacité des dauphins à traiter des clics écholocatoires à une vitesse inouïe nous laisse-t-elle à penser qu’ils sont extrêmement intelligents ?
R- On a pu montrer que les dauphins disposaient, et de loin, des cerveaux les plus rapides du monde. Lorsqu’ils les observent, les humains leur semblent se mouvoir avec une extrême lenteur en émettant des sons extrêmement bas. Un cerveau rapide ne peut forcément disposer que de capacités mentales très avancées.
Q- Pensez-vous des scientifiques comprendront un jour complètement les dauphins?
R- Est-ce que nos scientifiques comprennent bien les humains? Si tout va bien, à l’avenir, les dauphins devraient être compris comme les humains se comprennent entre eux.
Q- Le fait que les dauphins possèdent une signature sifflée est-elle une preuve de l’existence de leur langage ?
R- Non. Cette notion de signature sifflée est actuellement mal comprise et son existence même est sujette à caution.
Q- Les dauphins font plein de choses très intelligentes et nous ressemblent fort. Est-ce parce qu’ils sont vraiment intelligents ou simplement très attractifs ?
R- La réponse à votre question est une question d’expérience et d’opinion. Ce n’est une question qui appelle une réponse scientifique, chacun a son opinion personnelle sur ce point.
Q- Pouvons-nous vraiment émettre des conclusions au sujet de l’intelligence des dauphins, alors que nous savons si peu à leur propos et qu’ils vivent dans un environnement si différent du nôtre ?
R- Jusqu’à présent, ce genre de difficultés n’a jamais arrêté personne. Chacun tire ses propres conclusions. Les scientifiques ne se prononcent que sur la base de ce qu’ils savent vrai en fonction des données expérimentales qu’ils recueillent.
Q- Est-ce que nous pourrons-nous jamais communiquer avec les dauphins ou même converser avec eux ?
R- Oui, si tout va bien, et ce seront des conversations d’adulte à adulte, rien de moins.
II. DAUPHIN : CERVEAU ET MONDE MENTAL
"Parmi l’ensemble des animaux non-humains, les dauphins disposent d’un cerveau de grande taille très bien développé, dont le coefficient encéphalique, le volume du néocortex, les zones dites silencieuses (non motrices et non sensorielles) et d’autres indices d’intelligence sont extrêmement proches de ceux du cerveau humain" déclare d’emblée le chercheur russe Vladimir Markov.
Lorsque l’on compare le cerveau des cétacés avec celui des grands primates et de l’homme en particulier, on constate en effet de nombreux points communs mais également des différences importantes :
– Le poids moyen d’un cerveau de Tursiops est de 1587 grammes.
Son coefficient encéphalique est de l’ordre de 5.0, soit à peu près le double de celui de n’importe quel singe. Chez les cachalots et les orques, ce même coefficient est de cinq fois supérieur à celui de l’homme.
– Les circonvolutions du cortex cervical sont plus nombreuses que celles d’un être humain. L’indice de "pliure" (index of folding) est ainsi de 2.86 pour l’homme et de 4.47 pour un cerveau de dauphin de taille globalement similaire.
Selon Sam Ridgway, chercheur "réductionniste de la vieille école", l’épaisseur de ce même cortex est de 2.9 mm en moyenne chez l’homme et de 1.60 à 1.76 mm chez le dauphin. En conséquence, continue-t-il, on peut conclure que le volume moyen du cortex delphinien (560cc) se situe à peu près à 80 % du volume cortical humain. Ce calcul est évidemment contestable puisqu’il ne tient pas compte de l’organisation très particulière du cerveau delphinien, mieux intégré, plus homogène et moins segmenté en zones historiquement distinctes que le nôtre.
Le fait que les cétacés possèdent la plus large surface corticale et le plus haut indice de circonvolution cérébral au monde joue également, comme on s’en doute, un rôle majeur dans le développement de leurs capacités cérébrales.
D’autres scientifiques, décidément troublés par le coefficient cérébral du dauphin, tentent aujourd’hui de prouver qu’un tel développement n’aurait pas d’autre usage que d’assurer l’écholocation. Voici ce que leur répond le neurologue H. Jerison : "La chauve-souris dispose à peu de choses près des mêmes capacités que le dauphin en matière d’écholocation, mais son cerveau est gros comme une noisette. L’outillage écholocatoire en tant que tel ne pèse en effet pas lourd. En revanche, le TRAITEMENT de cette même information "sonar" par les zones associatives prolongeant les zones auditives, voilà qui pourrait expliquer le formidable développement de cette masse cérébrale. Les poissons et tous les autres êtres vivants qui vivent dans l’océan, cétacés mis à part, se passent très bien d’un gros cerveau pour survivre et même le plus gros d’entre eux, le requin-baleine, ne dépasse pas l’intelligence d’une souris…"
La croissance du cerveau d’un cétacé est plus rapide et la maturité est atteinte plus rapidement que chez l’homme.
Un delphineau de trois ans se comporte, toutes proportions gardées, comme un enfant humain de huit ans. Cette caractéristique apparemment "primitive" est paradoxalement contredite par une enfance extrêmement longue, toute dévolue à l’apprentissage. Trente années chez le cachalot, vingt chez l’homme, douze à quinze chez le dauphin et environ cinq ans chez le chimpanzé.
Les temps de vie sont du même ordre : 200 ans en moyenne chez la baleine franche, 100 ans chez le cachalot, 80 chez l’orque, 78 ans chez l’homme, 60 chez le dauphin, sous réserve bien sûr des variations favorables ou défavorables de l’environnement.
Pourquoi un gros cerveau ?
"Nous devons nous souvenir que le monde mental du dauphin est élaboré par l’un des systèmes de traitement de l’information parmi les plus vastes qui ait jamais existé parmi les mammifères" déclare H.Jerison, insistant sur le fait que "développer un gros cerveau est extrêmement coûteux en énergie et en oxygène. Cet investissement a donc une raison d’être en terme d’évolution darwinienne. Nous devons dès lors considérer la manière dont ces masses importantes de tissu cérébral ont été investies dans le contrôle du comportement et de l’expérimentation du monde, ceci en comparaison avec l’usage qu’en font les petites masses cérébrales".
Un cerveau est par essence un organe chargé de traiter l’information en provenance du monde extérieur.
Les grands cerveaux exécutent cette tâche en tant qu’ensemble élaborés de systèmes de traitement, alors que le cerveau de la grenouille ou de l’insecte, par exemple, se contente de modules moins nombreux, dont la finesse d’analyse est comparativement plus simple.
Cela ne nous empêche pas cependant de retrouver des structures neuronales étonnamment semblables d’un animal à l’autre : lorsqu’un promeneur tombe nez à nez avec un crotale, c’est le même plancher sub-thalamique dévolue à la peur qui s’allume chez l’une et l’autre des ces créatures. Quant un chien ou un humain se voient soulagés de leurs angoisses par le même produit tranquillisant, ce sont évidemment les mêmes neuromédiateurs qui agissent sur les mêmes récepteurs neuronaux qui sont la cause du phénomène.
A un très haut niveau de cette hiérarchie, le traitement en question prend la forme d’une représentation ou d’un modèle du monde (Craik, 1943, 1967, Jerison, 1973) et l’activité neuronale se concentre en "paquets d’informations" (chunks) à propos du temps et de l’espace et à propos d’objets, en ce compris les autres individus et soi-même.
" Puisque le modèle du monde qui est construit de la sorte" insiste H.Jerison, "se trouve fondé sur des variables physiquement définies issues directement du monde externe et puisque ces informations sont traitées par des cellules nerveuses et des réseaux neuronaux structurellement semblables chez tous les mammifères supérieurs, les modèles du monde construits par différents individus d’une même espèce ou même chez des individus d’espèces différentes, ont de bonnes chances d’être également similaires".
Et à tout le moins compréhensibles l’un pour l’autre.

Auteur: Internet

Info: http://www.dauphinlibre.be/dauphins-cerveau-intelligence-et-conscience-exotiques

[ comparaisons ]

 

Commentaires: 0

évolution technologique

Intelligence artificielle ou stupidité réelle ?

Bien que le battage médiatique augmente la sensibilisation à l'IA, il facilite également certaines activités assez stupides et peut distraire les gens de la plupart des progrès réels qui sont réalisés.
Distinguer la réalité des manchettes plus dramatiques promet d'offrir des avantages importants aux investisseurs, aux entrepreneurs et aux consommateurs.

L'intelligence artificielle a acquis sa notoriété récente en grande partie grâce à des succès très médiatisés tels que la victoire d'IBM Watson à Jeopardy et celle de Google AlphaGo qui a battu le champion du monde au jeu "Go". Waymo, Tesla et d'autres ont également fait de grands progrès avec les véhicules auto-propulsés. Richard Waters a rendu compte de l'étendue des applications de l'IA dans le Financial Times : "S'il y a un message unificateur qui sous-tend la technologie grand public exposée [au Consumer Electronics Show] .... c'est : "L'IA partout."

Les succès retentissants de l'IA ont également capturé l'imagination des gens à un tel point que cela a suscité d'autres efforts d'envergure. Un exemple instructif a été documenté par Thomas H. Davenport et Rajeev Ronanki dans le Harvard Business Review. Ils écrirent, "En 2013, le MD Anderson Cancer Center a lancé un projet ""Moon shot " : diagnostiquer et recommander des plans de traitement pour certaines formes de cancer en utilisant le système cognitif Watson d'IBM". Malheureusement, ce système n'a pas fonctionné et en 2017 le projet fut mis en veilleuse après avoir coûté plus de 62 millions de dollars sans avoir été utilisé pour les patients.

Waters a également abordé un autre message, celui des attentes modérées. En ce qui concerne les "assistants personnels à commande vocale", note-t-elle, "on ne sait pas encore si la technologie est capable de remplacer le smartphone pour naviguer dans le monde numérique autrement autrement que pour écouter de la musique ou vérifier les nouvelles et la météo".

D'autres exemples de prévisions modérées abondent. Generva Allen du Baylor College of Medicine et de l'Université Rice a avertit , "Je ne ferais pas confiance à une très grande partie des découvertes actuellement faites qui utilisent des techniques de machine learning appliquées à de grands ensembles de données". Le problème, c'est que bon nombre des techniques sont conçues pour fournir des réponses précises et que la recherche comporte des incertitudes. Elle a précisé : "Parfois, il serait beaucoup plus utile qu'ils reconnaissent que certains sont vraiment consolidés, mais qu'on est pas sûr pour beaucoup d'autres".

Pire encore, dans les cas extrêmes, l'IA n'est pas seulement sous-performante ; elle n'a même pas encore été mise en œuvre. Le FT rapporte, "Quatre jeunes entreprises européennes sur dix n'utilisent aucun programme d'intelligence artificielle dans leurs produits, selon un rapport qui souligne le battage publicitaire autour de cette technologie.

Les cycles d'attentes excessives suivies de vagues de déception ne sont pas surprenants pour ceux qui ont côtoyé l'intelligence artificielle pendant un certain temps. Ils savent que ce n'est pas le premier rodéo de l'IA. En effet, une grande partie du travail conceptuel date des années 1950. D'ailleurs, en passant en revue certaines de mes notes récentes je suis tombé sur une pièce qui explorait les réseaux neuronaux dans le but de choisir des actions - datant de 1993.

La meilleure façon d'avoir une perspective sur l'IA est d'aller directement à la source et Martin Ford nous en donne l'occasion dans son livre, Architects of Intelligence. Organisé sous la forme d'une succession d'entrevues avec des chercheurs, des universitaires et des entrepreneurs de premier plan de l'industrie, le livre présente un historique utile de l'IA et met en lumière les principaux courants de pensée.

Deux perspectives importantes se dégagent de ce livre.

La première est qu'en dépit des origines et des personnalités disparates des personnes interrogées, il existe un large consensus sur des sujets importants.

L'autre est qu'un grand nombre des priorités et des préoccupations des principales recherches sur l'IA sont bien différentes de celles exprimées dans les médias grand public.

Prenons par exemple le concept d'intelligence générale artificielle (AGI). Qui est étroitement lié à la notion de "singularité" ce point où l'IA rejoindra celle de l'homme - avant un dépassement massif de cette dernière. Cette idée et d'autres ont suscité des préoccupations au sujet de l'IA, tout comme les pertes massives d'emplois, les drones tueurs et une foule d'autres manifestations alarmantes.

Les principaux chercheurs en AI ont des points de vue très différents ; ils ne sont pas du tout perturbés par l'AGI et autres alarmismes.

Geoffrey Hinton, professeur d'informatique à l'Université de Toronto et vice-président et chercheur chez Google, dit : "Si votre question est : Quand allons-nous obtenir un commandant-docteur Data (comme dans Star Trek ) je ne crois pas que ce sera comme çà que ça va se faire. Je ne pense pas qu'on aura des programmes uniques et généralistes comme ça."

Yoshua Bengio, professeur d'informatique et de recherche opérationnelle à l'Université de Montréal, nous dit qu'il y a des problèmes très difficiles et que nous sommes très loin de l'IA au niveau humain. Il ajoute : "Nous sommes tous excités parce que nous avons fait beaucoup de progrès dans cette ascension, mais en nous approchant du sommet, nous apercevons d'autres collines qui s'élèvent devant nous au fur et à mesure".

Barbara Grosz, professeur de sciences naturelles à l'Université de Harvard : "Je ne pense pas que l'AGI soit la bonne direction à prendre". Elle soutient que la poursuite de l'AGI (et la gestion de ses conséquences) sont si loin dans l'avenir qu'elles ne sont que "distraction".

Un autre fil conducteur des recherches sur l'IA est la croyance que l'IA devrait être utilisée pour améliorer le travail humain plutôt que le remplacer.

Cynthia Breazeal, directrice du groupe de robots personnels du laboratoire de médias du MIT, aborde la question : "La question est de savoir quelle est la synergie, quelle est la complémentarité, quelle est l'amélioration qui permet d'étendre nos capacités humaines en termes d'objectifs, ce qui nous permet d'avoir vraiment un plus grand impact dans le monde, avec l'IA."

Fei-Fei Li, professeur d'informatique à Stanford et scientifique en chef pour Google Cloud dit lui : "L'IA en tant que technologie a énormément de potentiel pour valoriser et améliorer le travail, sans le remplacer".

James Manyika, président du conseil et directeur du McKinsey Global Institute, fait remarquer que puisque 60 % des professions ont environ un tiers de leurs activités qui sont automatisables et que seulement environ 10 % des professions ont plus de 90 % automatisables, "beaucoup plus de professions seront complétées ou augmentées par des technologies qu'elles ne seront remplacées".

De plus, l'IA ne peut améliorer le travail humain que si elle peut travailler efficacement de concert avec lui.

Barbara Grosz fait remarquer : "J'ai dit à un moment donné que 'les systèmes d'IA sont meilleurs s'ils sont conçus en pensant aux gens'". Je recommande que nous visions à construire un système qui soit un bon partenaire d'équipe et qui fonctionne si bien avec nous que nous ne nous rendions pas compte qu'il n'est pas humain".

David Ferrucci, fondateur d'Elemental Cognition et directeur d'IA appliquée chez Bridgewater Associates, déclare : " L'avenir que nous envisageons chez Elemental Cognition repose sur une collaboration étroite et fluide entre l'intelligence humaine et la machine. "Nous pensons que c'est un partenariat de pensée." Yoshua Bengio nous rappelle cependant les défis à relever pour former un tel partenariat : "Il ne s'agit pas seulement de la précision [avec l'IA], il s'agit de comprendre le contexte humain, et les ordinateurs n'ont absolument aucun indice à ce sujet."

Il est intéressant de constater qu'il y a beaucoup de consensus sur des idées clés telles que l'AGI n'est pas un objectif particulièrement utile en ce moment, l'IA devrait être utilisée pour améliorer et non remplacer le travail et l'IA devrait fonctionner en collaboration avec des personnes. Il est également intéressant de constater que ces mêmes leçons sont confirmées par l'expérience des entreprises.

Richard Waters décrit comment les implémentations de l'intelligence artificielle en sont encore à un stade assez rudimentaire.

Éliminez les recherches qui monopolisent les gros titres (un ordinateur qui peut battre les humains au Go !) et la technologie demeure à un stade très primaire .

Mais au-delà de cette "consumérisation" de l'IT, qui a mis davantage d'outils faciles à utiliser entre les mains, la refonte des systèmes et processus internes dans une entreprise demande beaucoup de travail.

Ce gros travail prend du temps et peu d'entreprises semblent présentes sur le terrain. Ginni Rometty, responsable d'IBM, qualifie les applications de ses clients d'"actes aléatoires du numérique" et qualifie nombre de projets de "hit and miss". (ratages). Andrew Moore, responsable de l'intelligence artificielle pour les activités de Google Cloud business, la décrit comme "intelligence artificielle artisanale". Rometty explique : "Ils ont tendance à partir d'un ensemble de données isolé ou d'un cas d'utilisation - comme la rationalisation des interactions avec un groupe particulier de clients. Tout ceci n'est pas lié aux systèmes, données ou flux de travail plus profonds d'une entreprise, ce qui limite leur impact."

Bien que le cas HBR du MD Anderson Cancer Center soit un bon exemple d'un projet d'IA "au clair de lune "qui a probablement dépassé les bornes, cela fournit également une excellente indication des types de travail que l'IA peut améliorer de façon significative. En même temps que le centre essayait d'appliquer l'IA au traitement du cancer, son "groupe informatique expérimentait l'utilisation des technologies cognitives pour des tâches beaucoup moins ambitieuses, telles que faire des recommandations d'hôtels et de restaurants pour les familles des patients, déterminer quels patients avaient besoin d'aide pour payer leurs factures, et résoudre les problèmes informatiques du personnel".

Dans cette entreprise, le centre a eu de bien meilleures expériences : "Les nouveaux systèmes ont contribué à accroître la satisfaction des patients, à améliorer le rendement financier et à réduire le temps consacré à la saisie fastidieuse des données par les gestionnaires de soins de l'hôpital. De telles fonctions banales ne sont peut-être pas exactement du ressort de Terminator, mais elles sont quand même importantes.

Optimiser l'IA dans le but d'augmenter le travail en collaborant avec les humains était également le point central d'une pièce de H. James Wilson et Paul R. Daugherty "HBRpiece". Ils soulignent : "Certes, de nombreuses entreprises ont utilisé l'intelligence artificielle pour automatiser leurs processus, mais celles qui l'utilisent principalement pour déplacer leurs employés ne verront que des gains de productivité à court terme. Grâce à cette intelligence collaborative, l'homme et l'IA renforcent activement les forces complémentaires de l'autre : le leadership, le travail d'équipe, la créativité et les compétences sociales de la première, la rapidité, l'évolutivité et les capacités quantitatives de la seconde".

Wilson et Daugherty précisent : "Pour tirer pleinement parti de cette collaboration, les entreprises doivent comprendre comment les humains peuvent le plus efficacement augmenter les machines, comment les machines peuvent améliorer ce que les humains font le mieux, et comment redéfinir les processus commerciaux pour soutenir le partenariat". Cela demande beaucoup de travail et cela va bien au-delà du simple fait de balancer un système d'IA dans un environnement de travail préexistant.

Les idées des principaux chercheurs en intelligence artificielle, combinées aux réalités des applications du monde réel, offrent des implications utiles. La première est que l'IA est une arme à double tranchant : le battage médiatique peut causer des distractions et une mauvaise attribution, mais les capacités sont trop importantes pour les ignorer.

Ben Hunt discute des rôles de la propriété intellectuelle (PI) et de l'intelligence artificielle dans le secteur des investissements, et ses commentaires sont largement pertinents pour d'autres secteurs. Il note : "L'utilité de la propriété intellectuelle pour préserver le pouvoir de fixation des prix est beaucoup moins fonction de la meilleure stratégie que la PI vous aide à établir, et beaucoup plus fonction de la façon dont la propriété intellectuelle s'intègre dans le l'esprit du temps (Zeitgeist) dominant dans votre secteur.

Il poursuit en expliquant que le "POURQUOI" de votre PI doit "répondre aux attentes de vos clients quant au fonctionnement de la PI" afin de protéger votre produit. Si vous ne correspondez pas à l'esprit du temps, personne ne croira que les murs de votre château existent, même si c'est le cas". Dans le domaine de l'investissement (et bien d'autres encore), "PERSONNE ne considère plus le cerveau humain comme une propriété intellectuelle défendable. Personne." En d'autres termes, si vous n'utilisez pas l'IA, vous n'obtiendrez pas de pouvoir de fixation des prix, quels que soient les résultats réels.

Cela fait allusion à un problème encore plus grave avec l'IA : trop de gens ne sont tout simplement pas prêts à y faire face.

Daniela Rus, directrice du laboratoire d'informatique et d'intelligence artificielle (CSAIL) du MIT déclare : "Je veux être une optimiste technologique. Je tiens à dire que je vois la technologie comme quelque chose qui a le potentiel énorme d'unir les gens plutôt que les diviser, et de les autonomiser plutôt que de les désolidariser. Mais pour y parvenir, nous devons faire progresser la science et l'ingénierie afin de rendre la technologie plus performante et plus utilisable." Nous devons revoir notre façon d'éduquer les gens afin de nous assurer que tous ont les outils et les compétences nécessaires pour tirer parti de la technologie.

Yann Lecun ajoute : "Nous n'aurons pas de large diffusion de la technologie de l'IA à moins qu'une proportion importante de la population ne soit formée pour en tirer parti ".

Cynthia Breazeal répéte : "Dans une société de plus en plus alimentée par l'IA, nous avons besoin d'une société alphabétisée à l'IA."

Ce ne sont pas non plus des déclarations creuses ; il existe une vaste gamme de matériel d'apprentissage gratuit pour l'IA disponible en ligne pour encourager la participation sur le terrain.

Si la société ne rattrape pas la réalité de l'IA, il y aura des conséquences.

Brezeal note : "Les craintes des gens à propos de l'IA peuvent être manipulées parce qu'ils ne la comprennent pas."

Lecun souligne : " Il y a une concentration du pouvoir. À l'heure actuelle, la recherche sur l'IA est très publique et ouverte, mais à l'heure actuelle, elle est largement déployée par un nombre relativement restreint d'entreprises. Il faudra un certain temps avant que ce ne soit utilisé par une plus grande partie de l'économie et c'est une redistribution des cartes du pouvoir."

Hinton souligne une autre conséquence : "Le problème se situe au niveau des systèmes sociaux et la question de savoir si nous allons avoir un système social qui partage équitablement... Tout cela n'a rien à voir avec la technologie".

À bien des égards, l'IA est donc un signal d'alarme. En raison de l'interrelation unique de l'IA avec l'humanité, l'IA a tendance à faire ressortir ses meilleurs et ses pires éléments. Certes, des progrès considérables sont réalisés sur le plan technologique, ce qui promet de fournir des outils toujours plus puissants pour résoudre des problèmes difficiles. Cependant, ces promesses sont également limitées par la capacité des gens, et de la société dans son ensemble, d'adopter les outils d'IA et de les déployer de manière efficace.

Des preuves récentes suggèrent que nous avons du pain sur la planche pour nous préparer à une société améliorée par l'IA. Dans un cas rapporté par le FT, UBS a créé des "algorithmes de recommandation" (tels que ceux utilisés par Netflix pour les films) afin de proposer des transactions pour ses clients. Bien que la technologie existe, il est difficile de comprendre en quoi cette application est utile à la société, même de loin.

Dans un autre cas, Richard Waters nous rappelle : "Cela fait presque dix ans, par exemple, que Google a fait trembler le monde de l'automobile avec son premier prototype de voiture autopropulsée". Il continue : "La première vague de la technologie des voitures sans conducteur est presque prête à faire son entrée sur le marché, mais certains constructeurs automobiles et sociétés de technologie ne semblent plus aussi désireux de faire le grand saut. Bref, ils sont menacés parce que la technologie actuelle est à "un niveau d'autonomie qui fait peur aux constructeurs automobiles, mais qui fait aussi peur aux législateurs et aux régulateurs".

En résumé, que vous soyez investisseur, homme d'affaires, employé ou consommateur, l'IA a le potentiel de rendre les choses bien meilleures - et bien pires. Afin de tirer le meilleur parti de cette opportunité, un effort actif axé sur l'éducation est un excellent point de départ. Pour que les promesses d'AI se concrétisent, il faudra aussi déployer beaucoup d'efforts pour mettre en place des infrastructures de systèmes et cartographier les forces complémentaires. En d'autres termes, il est préférable de considérer l'IA comme un long voyage plutôt que comme une destination à court terme.

Auteur: Internet

Info: Zero Hedge, Ven, 03/15/2019 - 21:10

[ prospective ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

intelligence artificielle

Apprendre l'anglais n'est pas une tâche facile, comme le savent d'innombrables étudiants. Mais lorsque l'étudiant est un ordinateur, une approche fonctionne étonnamment bien : Il suffit d'alimenter un modèle mathématique géant, appelé réseau neuronal, avec des montagnes de textes provenant d'Internet. C'est le principe de fonctionnement des modèles linguistiques génératifs tels que ChatGPT d'OpenAI, dont la capacité à tenir une conversation cohérente (à défaut d'être toujours sincère) sur un large éventail de sujets a surpris les chercheurs et le public au cours de l'année écoulée.

Mais cette approche présente des inconvénients. D'une part, la procédure de "formation" nécessaire pour transformer de vastes archives textuelles en modèles linguistiques de pointe est coûteuse et prend beaucoup de temps. D'autre part, même les personnes qui forment les grands modèles linguistiques ont du mal à comprendre leur fonctionnement interne, ce qui, à son tour, rend difficile la prévision des nombreuses façons dont ils peuvent échouer.

Face à ces difficultés, certains chercheurs ont choisi d'entraîner des modèles plus petits sur des ensembles de données plus restreints, puis d'étudier leur comportement. "C'est comme le séquençage du génome de la drosophile par rapport au séquençage du génome humain", explique Ellie Pavlick, chercheuse sur les modèles de langage à l'université de Brown.

Dans un article récemment publié sur le serveur scientifique arxiv.org, deux chercheurs de Microsoft ont présenté une nouvelle méthode pour former de minuscules modèles de langage : Les élever avec un régime strict d'histoires pour enfants.

RÉSEAUX NEURONAUX

Des chercheurs acquièrent une nouvelle compréhension à partir d'une simple IA  

Les chercheurs en apprentissage automatique ont compris cette leçon. GPT-3.5, le grand modèle linguistique qui alimente l'interface ChatGPT, compte près de 200 milliards de paramètres et a été entraîné sur un ensemble de données comprenant des centaines de milliards de mots (OpenAI n'a pas publié les chiffres correspondants pour son successeur, GPT-4).  L'entraînement de modèles aussi vastes nécessite généralement au moins 1 000 processeurs spécialisés, appelés GPU, fonctionnant en parallèle pendant des semaines. Seules quelques entreprises peuvent réunir les ressources nécessaires, sans parler de l'entraînement et de la comparaison de différents modèles.

Les deux chercheurs ont montré que des modèles linguistiques des milliers de fois plus petits que les systèmes de pointe actuels apprenaient rapidement à raconter des histoires cohérentes et grammaticalement justes lorsqu'ils étaient formés de cette manière. Leurs résultats indiquent de nouvelles pistes de recherche qui pourraient être utiles pour former des modèles plus importants et comprendre leur comportement.

"J'ai trouvé tout  ça très instructif", a déclaré Chandra Bhagavatula, chercheur sur les modèles de langage à l'Allen Institute for Artificial Intelligence de Seattle. "Le concept lui-même est très intéressant.

Il était une fois

Les réseaux neuronaux au cœur des modèles de langage sont des structures mathématiques vaguement inspirées du cerveau humain. Chacun d'entre eux contient de nombreux neurones artificiels disposés en couches, avec des connexions entre les neurones des couches adjacentes. Le comportement du réseau neuronal est régi par la force de ces connexions, appelées paramètres. Dans un modèle linguistique, les paramètres contrôlent les mots que le modèle peut produire ensuite, compte tenu d'une invite initiale et des mots qu'il a déjà générés.

Un modèle ne prend véritablement vie qu'au cours de la formation, lorsqu'il compare de manière répétée ses propres résultats au texte de son ensemble de données de formation et qu'il ajuste ses paramètres afin d'accroître la ressemblance. Un réseau non entraîné avec des paramètres aléatoires est trivialement facile à assembler à partir de quelques lignes de code, mais il ne produira que du charabia. Après l'entraînement, il peut souvent poursuivre de manière plausible un texte peu familier. Les modèles de plus grande taille sont souvent soumis à des réglages plus fins qui leur apprennent à répondre à des questions et à suivre des instructions, mais l'essentiel de la formation consiste à maîtriser la prédiction des mots.

Pour réussir à prédire des mots, un modèle linguistique doit maîtriser de nombreuses compétences différentes. Par exemple, les règles de la grammaire anglaise suggèrent que le mot suivant le mot "going" sera probablement "to", quel que soit le sujet du texte. En outre, un système a besoin de connaissances factuelles pour compléter "la capitale de la France est", et compléter un passage contenant le mot "not" nécessite une connaissance rudimentaire de la logique.

"Le langage brut est très compliqué", explique Timothy Nguyen, chercheur en apprentissage automatique chez DeepMind. "Pour que des capacités linguistiques intéressantes apparaissent, les gens ont eu recours à l'idée que plus il y a de données, mieux c'est".

(photo) Ronen Eldan s'est rendu compte qu'il pouvait utiliser les histoires d'enfants générées par de grands modèles linguistiques pour en entraîner rapidement de plus petits.

Introduction

Ronen Eldan, mathématicien qui a rejoint Microsoft Research en 2022 pour étudier les modèles de langage génératifs, souhaitait développer un moyen moins coûteux et plus rapide d'explorer leurs capacités. Le moyen naturel d'y parvenir était d'utiliser un petit ensemble de données, ce qui signifiait qu'il devait entraîner les modèles à se spécialiser dans une tâche spécifique, afin qu'ils ne s'éparpillent pas. Au départ, il voulait entraîner les modèles à résoudre une certaine catégorie de problèmes mathématiques, mais un après-midi, après avoir passé du temps avec sa fille de 5 ans, il s'est rendu compte que les histoires pour enfants convenaient parfaitement. "L'idée m'est venue littéralement après lui avoir lu une histoire", a-t-il déclaré.

Pour générer des histoires cohérentes pour les enfants, un modèle de langage devrait apprendre des faits sur le monde, suivre les personnages et les événements, et observer les règles de grammaire - des versions plus simples des défis auxquels sont confrontés les grands modèles. Mais les grands modèles formés sur des ensembles de données massives apprennent d'innombrables détails non pertinents en même temps que les règles qui comptent vraiment. Eldan espérait que la brièveté et le vocabulaire limité des histoires pour enfants rendraient l'apprentissage plus gérable pour les petits modèles, ce qui les rendrait à la fois plus faciles à former et plus faciles à comprendre.

Dans le monde des modèles de langage, cependant, le terme "petit" est relatif : Un ensemble de données mille fois plus petit que celui utilisé pour former GPT-3.5 devrait encore contenir des millions d'histoires. "Je ne sais pas combien d'argent vous voulez dépenser, mais je suppose que vous n'allez pas engager des professionnels pour écrire quelques millions de nouvelles", a déclaré M. Nguyen.

Il faudrait un auteur extraordinairement prolifique pour satisfaire des lecteurs aussi voraces, mais Eldan avait quelques candidats en tête. Qui peut mieux écrire pour un public de petits modèles linguistiques que pour de grands modèles ?

Toys stories

Eldan a immédiatement entrepris de créer une bibliothèque d'histoires synthétiques pour enfants générées par de grands modèles linguistiques. Mais il a rapidement découvert que même les modèles de pointe ne sont pas naturellement très créatifs. Si l'on demande à GPT-4 d'écrire des histoires adaptées à des enfants de 4 ans, explique Eldan, "environ un cinquième des histoires concernera des enfants qui vont au parc et qui ont peur des toboggans". C'est apparemment la quintessence des histoires pour enfants d'âge préscolaire, selon l'Internet.

La solution a consisté à ajouter un peu d'aléatoire dans le message. Tout d'abord, Eldan a utilisé le GPT-4 pour générer une liste de 1 500 noms, verbes et adjectifs qu'un enfant de 4 ans pourrait connaître - suffisamment courte pour qu'il puisse facilement la vérifier lui-même. Il a ensuite écrit un programme informatique simple qui demanderait à plusieurs reprises à GPT-3.5 ou à GPT-4 de générer une histoire adaptée à l'âge de l'enfant, comprenant trois mots aléatoires de la liste, ainsi qu'un détail supplémentaire choisi au hasard, comme une fin heureuse ou un rebondissement de l'intrigue. Les histoires obtenues, heureusement, étaient moins axées sur des diapositives effrayantes.

Eldan disposait désormais d'une procédure pour produire des données de formation à la demande, mais il n'avait aucune idée du nombre d'histoires dont il aurait besoin pour former un modèle fonctionnel, ni de la taille de ce modèle. C'est alors qu'il s'est associé à Yuanzhi Li, chercheur en apprentissage automatique chez Microsoft et à l'université Carnegie Mellon, pour essayer différentes possibilités, en tirant parti du fait que les petits modèles peuvent être formés très rapidement. La première étape consistait à décider comment évaluer leurs modèles.

Introduction

Dans la recherche sur les modèles de langage - comme dans toute salle de classe - la notation est un sujet délicat. Il n'existe pas de rubrique parfaite qui englobe tout ce que les chercheurs veulent savoir, et les modèles qui excellent dans certaines tâches échouent souvent de manière spectaculaire dans d'autres. Au fil du temps, les chercheurs ont mis au point divers critères de référence standard basés sur des questions dont les réponses ne sont pas ambiguës, ce qui est une bonne approche si vous essayez d'évaluer des compétences spécifiques. Mais Eldan et Li se sont intéressés à quelque chose de plus nébuleux : quelle doit être la taille réelle des modèles linguistiques si l'on simplifie le langage autant que possible ?

"Pour vérifier directement si le modèle parle anglais, je pense que la seule chose à faire est de laisser le modèle générer de l'anglais de manière ouverte", a déclaré M. Eldan.

Il n'y a que deux façons de mesurer les performances d'un modèle sur des questions aussi qualitatives : S'appuyer sur des évaluateurs humains ou se tourner à nouveau vers le GPT-4. Les deux chercheurs ont opté pour cette dernière solution, laissant les grands modèles à la fois rédiger les manuels et noter les dissertations.

Bhagavatula a déclaré qu'il aurait aimé voir comment les évaluations de GPT-4 se comparaient à celles des correcteurs humains - GPT-4 peut être biaisé en faveur des modèles qu'il a aidé à former, et l'opacité des modèles de langage rend difficile la quantification de tels biais. Mais il ne pense pas que de telles subtilités affecteraient les comparaisons entre différents modèles formés sur des ensembles similaires d'histoires synthétiques - l'objectif principal du travail d'Eldan et Li.

Eldan et Li ont utilisé une procédure en deux étapes pour évaluer chacun de leurs petits modèles après la formation. Tout d'abord, ils ont présenté au petit modèle la première moitié d'une histoire distincte de celles de l'ensemble des données d'apprentissage, de manière à ce qu'il génère une nouvelle fin, en répétant ce processus avec 50 histoires de test différentes. Ensuite, ils ont demandé à GPT-4 d'évaluer chacune des fins du petit modèle en fonction de trois catégories : créativité, grammaire et cohérence avec le début de l'histoire. Ils ont ensuite fait la moyenne des notes obtenues dans chaque catégorie, obtenant ainsi trois notes finales par modèle.

Avec cette procédure en main, Eldan et Li étaient enfin prêts à comparer les différents modèles et à découvrir quels étaient les étudiants les plus brillants.

Résultats des tests

Après quelques explorations préliminaires, les deux chercheurs ont opté pour un ensemble de données de formation contenant environ 2 millions d'histoires. Ils ont ensuite utilisé cet ensemble de données, baptisé TinyStories, pour entraîner des modèles dont la taille varie de 1 million à 30 millions de paramètres, avec un nombre variable de couches. Le travail a été rapide : En utilisant seulement quatre GPU, l'entraînement du plus grand de ces modèles n'a pas pris plus d'une journée.

Les plus petits modèles ont eu du mal. Par exemple, l'une des histoires testées commence par un homme à l'air méchant qui dit à une fille qu'il va lui prendre son chat. Un modèle à un million de paramètres s'est retrouvé bloqué dans une boucle où la fille répète sans cesse à l'homme qu'elle veut être son amie. Mais les modèles plus grands, qui sont encore des milliers de fois plus petits que GPT-3.5, ont obtenu des résultats surprenants. La version à 28 millions de paramètres racontait une histoire cohérente, même si la fin était sinistre : "Katie s'est mise à pleurer, mais l'homme s'en fichait. Il a emporté le chat et Katie n'a plus jamais revu son chat. Fin de l'histoire".

En plus de tester leurs propres modèles, Eldan et Li ont soumis le même défi au GPT-2 d'OpenAI, un modèle de 1,5 milliard de paramètres publié en 2019. Le résultat a été bien pire - avant la fin abrupte de l'histoire, l'homme menace d'emmener la jeune fille au tribunal, en prison, à l'hôpital, à la morgue et enfin au crématorium.

Introduction

Selon M. Nguyen, il est passionnant que des modèles aussi petits soient aussi fluides, mais il n'est peut-être pas surprenant que GPT-2 ait eu du mal à accomplir la tâche : il s'agit d'un modèle plus grand, mais loin de l'état de l'art, et il a été formé sur un ensemble de données très différent. "Un enfant en bas âge qui ne s'entraînerait qu'à des tâches d'enfant en bas âge, comme jouer avec des jouets, obtiendrait de meilleurs résultats que vous ou moi", a-t-il fait remarquer. "Nous ne nous sommes pas spécialisés dans cette chose simple.

Les comparaisons entre les différents modèles de TinyStories ne souffrent pas des mêmes facteurs de confusion. Eldan et Li ont observé que les réseaux comportant moins de couches mais plus de neurones par couche étaient plus performants pour répondre aux questions nécessitant des connaissances factuelles ; inversement, les réseaux comportant plus de couches et moins de neurones par couche étaient plus performants pour garder en mémoire les personnages et les points de l'intrigue situés plus tôt dans l'histoire. Bhagavatula a trouvé ce résultat particulièrement intriguant. S'il peut être reproduit dans des modèles plus vastes, "ce serait un résultat vraiment intéressant qui pourrait découler de ce travail", a-t-il déclaré.

Eldan et Li ont également étudié comment les capacités de leurs petits modèles dépendaient de la durée de la période de formation. Dans tous les cas, les modèles maîtrisaient d'abord la grammaire, puis la cohérence. Pour Eldan, ce schéma illustre comment les différences dans les structures de récompense entraînent des différences dans les schémas d'acquisition du langage entre les réseaux neuronaux et les enfants. Pour les modèles de langage, qui apprennent en prédisant des mots, "l'incitation pour les mots "je veux avoir" est aussi importante que pour les mots "crème glacée"", a-t-il déclaré. Les enfants, en revanche, "ne se soucient pas de savoir s'ils disent 'j'aimerais avoir de la glace' ou simplement 'glace, glace, glace'".

Qualité contre quantité

Eldan et Li espèrent que cette étude incitera d'autres chercheurs à entraîner différents modèles sur l'ensemble des données de TinyStories et à comparer leurs capacités. Mais il est souvent difficile de prédire quelles caractéristiques des petits modèles apparaîtront également dans les plus grands.

"Peut-être que les modèles de vision chez la souris sont de très bons substituts de la vision humaine, mais les modèles de dépression chez la souris sont-ils de bons modèles de la dépression chez l'homme ? a déclaré M. Pavlick. "Pour chaque cas, c'est un peu différent.

Le succès des modèles TinyStories suggère également une leçon plus large. L'approche standard pour compiler des ensembles de données de formation consiste à aspirer des textes sur l'internet, puis à filtrer les déchets. Le texte synthétique généré par des modèles de grande taille pourrait constituer une autre façon d'assembler des ensembles de données de haute qualité qui n'auraient pas besoin d'être aussi volumineux.

"Nous avons de plus en plus de preuves que cette méthode est très efficace, non seulement pour les modèles de la taille de TinyStories, mais aussi pour les modèles plus importants", a déclaré M. Eldan. Ces preuves proviennent d'une paire d'articles de suivi sur les modèles à un milliard de paramètres, rédigés par Eldan, Li et d'autres chercheurs de Microsoft. Dans le premier article, ils ont entraîné un modèle à apprendre le langage de programmation Python en utilisant des extraits de code générés par GPT-3.5 ainsi que du code soigneusement sélectionné sur l'internet. Dans le second, ils ont complété l'ensemble de données d'entraînement par des "manuels" synthétiques couvrant un large éventail de sujets, afin d'entraîner un modèle linguistique à usage général. Lors de leurs tests, les deux modèles ont été comparés favorablement à des modèles plus importants formés sur des ensembles de données plus vastes. Mais l'évaluation des modèles linguistiques est toujours délicate, et l'approche des données d'entraînement synthétiques n'en est qu'à ses balbutiements - d'autres tests indépendants sont nécessaires.

Alors que les modèles linguistiques de pointe deviennent de plus en plus volumineux, les résultats surprenants de leurs petits cousins nous rappellent qu'il y a encore beaucoup de choses que nous ne comprenons pas, même pour les modèles les plus simples. M. Nguyen s'attend à ce que de nombreux autres articles explorent l'approche inaugurée par TinyStories.

"La question est de savoir où et pourquoi la taille a de l'importance", a-t-il déclaré. "Il devrait y avoir une science à ce sujet, et cet article est, je l'espère, le début d'une riche histoire.



 



 

Auteur: Internet

Info: https://www.quantamagazine.org/ Ben Brubaker, 5 octobre 2023

[ synthèse ]

 

Commentaires: 0

Ajouté à la BD par miguel

vacuité

Comment le cerveau humain fait face à l'étrangeté du zéro

Le zéro, inventé tardivement dans l'histoire, est un nombre particulier. De nouvelles études révèlent comment le cerveau crée quelque chose à partir de rien.

(image : À certains égards, le zéro ressemble à n'importe quel autre chiffre sur une droite numérique. Mais une nouvelle étude suggère que l'esprit pourrait traiter différemment le symbole de l'absence.) 

Il y a environ 2 500 ans, des commerçants babyloniens en Mésopotamie ont gravé deux pièces inclinées sur des tablettes d'argile. Ces formes représentaient un chiffre de remplacement, coincé entre d'autres, pour distinguer des nombres tels que 50, 505 et 5 005. Une version élémentaire du concept de zéro était née.

Des centaines d'années plus tard, au VIIe siècle en Inde, le zéro a pris une nouvelle identité. Ce n'était plus un simple symbole, mais un chiffre qui avait une valeur et qui avait trouvé sa place sur la droite numérique, avant le chiffre 1. Son invention a donné naissance à des avancées historiques dans les domaines de la science et de la technologie. C'est du zéro que sont nées les lois de l'univers, la théorie des nombres et les mathématiques modernes.

" Le zéro est, pour de nombreux mathématiciens, certainement considéré comme l'une des plus grandes – ou peut-être la plus grande – réalisation de l'humanité ", a déclaré le neuroscientifique Andreas Nieder., qui étudie l'intelligence animale et humaine à l'université de Tübingen en Allemagne. " Il a fallu une éternité pour que les mathématiciens inventent enfin le zéro comme nombre. "

Ce n'est peut-être pas surprenant, car le concept peut être difficile à saisir pour le cerveau. Les enfants mettent plus de temps à comprendre et à utiliser le zéro que les autres nombres, et les adultes mettent plus de temps à le lire que les autres petits nombres. En effet, pour comprendre le zéro, notre esprit doit créer quelque chose à partir de rien. Il doit reconnaître l'absence comme un objet mathématique.

 C'est comme un niveau d'abstraction supplémentaire par rapport au monde qui vous entoure ", a déclaré Benjy Barnett, qui termine ses études supérieures sur la conscience à l'University College de Londres. Les nombres non nuls correspondent à des objets dénombrables dans l'environnement : trois chaises, chacune avec quatre pieds, à une table. Avec zéro, dit-il, " nous devons aller plus loin et dire : " OK, il n'y avait rien là. Par conséquent, il doit y en avoir zéro." 

 (images : À gauche : une entrée pointue du temple de Chaturbhuj, avec une colonne de chaque côté, est creusée dans une paroi rocheuse rouge. À droite : un petit cercle fait partie d'une inscription gravée en sanskrit. À l'intérieur du temple de Chaturbhuj en Inde (à gauche), une inscription murale présente le plus ancien exemple connu du chiffre zéro, daté de 876 de notre ère (à droite). Il fait partie du nombre 270.)

Ces dernières années, les chercheurs ont commencé à découvrir comment le cerveau humain représente les nombres, mais personne n'a examiné comment il gère le zéro. Deux études indépendantes, dirigées respectivement par Nieder et Barnett, ont montré que le cerveau code le zéro comme il le fait pour les autres nombres, sur une ligne numérique mentale. Mais, comme l'a révélé l'une des études, le zéro occupe également un statut particulier dans le cerveau.

" Le fait que [zéro] ne représente rien n'est une contradiction en soi ", a déclaré Carlo Semenza, professeur émérite de neurosciences à l'université de Padoue en Italie, qui n'a participé à aucune des deux études. " Cela semble être du béton parce que les gens le placent sur la droite numérique, mais cela n'existe pas. […] C'est fascinant, absolument fascinant "

Penser à rien

L'idée du zéro, appelée à l'origine sunya pour " vide " en sanskrit, a d'abord été introduite en Inde dans le monde arabe. Au XIIIe siècle, un humble voyageur du nom de Fibonacci a repris l'idée en Afrique du Nord et l'a ramenée en Europe médiévale, avec le système numérique à base 10 et les chiffres indo-arabes.

Au début, le zéro a semé la confusion. " Sa capacité à représenter le " rien " et à permettre des opérations mathématiques complexes a remis en question des idées théologiques et philosophiques profondément ancrées ", a déclaré Nieder. En raison notamment de l'influence de l'Église, les philosophes et les théologiens ont associé le " rien " au chaos et au désordre et étaient peu enclins à l'accepter. Beaucoup le craignaient même, le considérant comme " le nombre du diable ", a déclaré Barnett.

Mais les commerçants ont vite compris que le zéro était précieux pour les affaires. Au XVe siècle, il s'était répandu dans le commerce, la finance et les mathématiques à travers l'Europe, mais n'a jamais perdu son aura de mystère. " Si vous multipliez un nombre par zéro, il disparaît. C'était vraiment difficile à comprendre ", a déclaré Semenza. Ce sentiment persiste aujourd'hui : bien que le zéro soit désormais omniprésent et apparemment simple, les étudiants en mathématiques et les mathématiciens continuent de se débattre avec lui.

Le zéro est " l'oncle excentrique de la famille des nombres ", a déclaré Nieder. Pour utiliser le zéro dans les calculs, les mathématiciens ont dû établir toutes sortes de règles. On ne peut diviser aucun autre nombre par zéro, mais on peut diviser zéro par n'importe quel autre nombre. Un nombre non nul à la puissance de zéro donne un ; zéro à une puissance d'un nombre non nul donne zéro, mais zéro à une puissance de zéro donne une erreur de calcul – et un mal de tête.

Pourtant, " l'idée du zéro, ou de quelque chose qui joue le rôle d'un zéro, apparaît d'une manière ou d'une autre partout dans les mathématiques ", a déclaré Neil Barton., philosophe des mathématiques à l'Université nationale de Singapour. Sans elle, les mathématiques modernes n'existeraient pas : vous ne seriez pas capable de résoudre une fonction, de faire des calculs ou de faire la distinction entre 1 et 1 million.

Quelle que soit la façon dont on l’envisage, le zéro est unique. Pour les chercheurs qui s'intéressent à la façon dont le cerveau traite les nombres, le zéro est " le nombre le plus fascinant de tous ", a déclaré Nieder. Il semble que si le zéro est spécial en histoire et en mathématiques, alors le cerveau doit aussi le traiter de manière spéciale.

L'équipe de Nieder a déjà montré que certains neurones du cerveau ont des nombres préférés. Certains ont une préférence pour le 3 et s'activent plus rapidement lorsqu'on leur présente trois pommes, par exemple, que lorsqu'on leur présente deux ou quatre pommes – et bien plus rapidement que lorsqu'on leur présente cinq ou sept. Plus les neurones s'activent rapidement, plus ils s'intéressent à un nombre spécifique. Cela est vrai non seulement chez les humains, mais aussi chez d'autres animaux. Si les animaux non humains ne comprennent pas les nombres lorsqu'ils sont représentés sous forme de chiffres – une construction entièrement humaine – ils peuvent estimer des quantités, également appelées nombres. Les chercheurs ont déjà découvert que les singes et les corbeaux ont des neurones spécifiquement réglés sur la numérosité zéro.

Mais jusqu'à très récemment, personne n'avait jamais sondé la base neuronale du zéro chez l'homme.

"Juste un autre numéro"

Barnett s'intéresse à l'absence avant de s'intéresser au zéro. La majeure partie des travaux sur la conscience et la perception au cours du siècle dernier se sont concentrés sur ce qui se passe dans le cerveau lorsque nous détectons quelque chose dans l'environnement. " Mais cela ignore tout l'autre aspect des choses ", at-il déclaré, " à savoir que nous pouvons souvent avoir l'impression que quelque chose n'est pas là. " Par exemple, si vous allez chercher vos clés et qu'elles ne sont pas là où vous les avez laissées sur la table du couloir, vous ressentez l'absence.

Jusqu'à présent, les chercheurs pensaient que l'absence était représentée dans le cerveau par des neurones qui ne s'activaient pas. Mais des études récentes ont montré que le cerveau code l'absence avec des schémas neuronaux uniques. Pour aller plus loin dans ses travaux, Barnett s'est tourné vers le zéro, " un concept d'absence que nous connaissons tous ", at-il déclaré.

Il y a quelques années, Barnett a commencé ses études sur l'absence avec le nombre zéro. Il a recruté 24 participants pour effectuer des tâches liées au zéro alors qu'ils étaient assis dans un scanner magnétoencéphalographique, qui " ressemble à ces machines de coiffeur à l'ancienne ", at-il déclaré. Lorsque les neurones s'activent, ils génèrent des tensions, qui à leur tour créent un champ magnétique qui peut être détecté par la machine. En analysant les champs magnétiques, les chercheurs peuvent apprendre comment les populations de neurones réagissent lorsqu'on les incite à réfléchir à des sujets spécifiques, comme le zéro.

Barnett et son conseiller à l'University College de Londres, Stephen Fleming, cherchaient des preuves de l'effet de distance numérique, un phénomène qui se produit lorsque le cerveau traite des nombres non nuls. En gros, le cerveau peut plus facilement distinguer deux nombres s'ils sont éloignés de l'un de l'autre sur la droite numérique que s'ils sont proches de l'un de l'autre. Il confond donc plus souvent 6 et 7 que 6 et 9. Les chercheurs ont estimé que si le cerveau traite le zéro de la même manière que les autres nombres, il devrait également présenter l'effet de distance numérique.

En effet, dans des résultats publiés dans Current Biology en août, Barnett et Fleming ont conclu que le cerveau traite zéro, à la fois comme chiffre et comme quantité, de la même manière qu'il traite les autres nombres. " Le zéro est représenté sur cette ligne de nombres neuronaux ", a déclaré Barnett.

Nieder, pour sa part, est obsédé par le zéro et l'absence depuis près d'une décennie. En 2016, il a suggéré que les mécanismes neurologiques qui codent l'absence pourraient être partagés avec ceux qui codent le zéro. Il a émis l'hypothèse que le zéro devait avoir évolué. Il a commencé par des représentations plus fondamentales de l'absence perceptive. Tout d'abord, le cerveau devait comprendre l'absence d'un stimulus, comme une lumière éteinte ; ce n'est qu'ensuite qu'il pouvait reconnaître le " rien " comme une catégorie apparentée à " quelque chose ", mais représentant tout ce qui n'est pas quelque chose. Enfin, il devait transformer le " rien " en un concept quantitatif. En comprenant comment le cerveau code le zéro, pensant-il, nous serons bientôt capables de comprendre comment le cerveau gérer l'absence.

Depuis 2015, Nieder collabore avec Florian Mormann, responsable du groupe de neurophysiologie cognitive et clinique de l'université de Bonn, qui traite des patients épileptiques. Pour leur traitement, ces patients se voient implanter des électrodes dans le cerveau, grâce à laquelle Mormann peut recueillir des données de recherche en neurosciences avec le consentement du patient. "Le zéro est codé avec d'autres petits nombres, mais il est représenté plus distinctement par rapport à eux", a déclaré Nieder. " Il s'agit simplement d'une valeur aberrante excentrique et représentée comme telle dans le cerveau. "

Mormann a enregistré l'activité cérébrale de neurones individuels pendant que les patients effectuaient des tâches liées aux nombres. Dans l'analyse, lui et Nieder se sont d'abord concentrés sur les nombres non nuls et ils ont découvert que le cerveau traite les grands nombres différemment des petits. Ils sont ensuite retournés à leurs données pour se concentrer uniquement sur le zéro.

Comme ils l'ont rapporté dans Current Biology en septembre, Nieder et Mormann ont trouvé la même chose que Barnett, à savoir que le zéro présentait un effet de distance numérique. Dans le cerveau, cela signifie que, pour le cerveau, zéro n'est qu'un autre nombre, a déclaré Nieder.

Ou est-ce le cas ?

" Si l'on regarde de plus près, dit-il, zéro reste une valeur aberrante parmi les autres nombres. "

Ce qui rend Zero spécial

L'équipe de Nieder a découvert quelques différences entre la façon dont le cerveau représente le zéro et la façon dont il traite les autres nombres. D'une part, plus de neurones avaient le zéro comme nombre préféré que n'importe quel autre petit nombre. Comme il y a plus de neurones qui codent pour le zéro, le cerveau peut représenter l'ensemble vide avec plus de précision que d'autres petites quantités, ont-ils découverts.

Cependant, ils n'ont pas constaté de différence de précision dans la façon dont le cerveau représentait la version numérique du zéro (0) par rapport aux autres chiffres. "Tous les symboles numériques sont des abstractions, fonctionnant comme des symboles formels au sein d'un système symbolique", a déclaré Nieder. " En tant que tel, le zéro est traité comme n'importe quel autre nom formel. "

(image : Un point rempli fait partie d'un texte sanskrit griffonné à l'encre. Dans le manuscrit Bakhshali, un texte mathématique indien datant du IVe siècle, un zéro réservé est représenté par un point.)

Les bibliothèques Bodleian, Université d'Oxford

Les conclusions de Nieder sont légèrement différentes de celles de Barnett. Barnett n'a observé aucune différence, même minime, dans la manière dont le zéro était représenté par rapport aux autres nombres.

Comment expliquer cette différence ? Après avoir examiné leurs articles respectifs, Barnett et Nieder ont convenu que leurs résultats étaient complémentaires. Selon eux, toute différence est probablement liée à l'échelle : l'étude de Barnett a porté sur de grandes populations de neurones, tandis que celle de Nieder s'est intéressée à des neurones isolés.

Brian Butterworth, un neuroscientifique cognitif de l'University College de Londres, a noté que les différences entre les études pourraient plutôt être dues à la zone cérébrale étudiée. Le groupe de Barnett a pu examiner l'ensemble du cerveau, y compris le cortex pariétal, la région considérée comme le centre du traitement des nombres. Cependant, Nieder et Mormann étaient limités par l'endroit où les électrodes des patients étaient placées ; ils ont examiné de près des neurones individuels dans le lobe temporal médian, qui sont connus pour traiter la mémoire. " C'est comme chercher vos clés perdues sous le lampadaire ", a déclaré Butterworth. Le duo a peut-être examiné "les souvenirs pour le zéro", at-il ajouté, plutôt que le chiffre ou l'idée elle-même. Nieder n'est pas d'accord : cette zone du cerveau, ainsi que beaucoup d'autres, s'est également avérée capable de traiter les nombres, at-il déclaré.

Malgré les différences, les résultats ont enthousiasmé Semenza. Il avait déjà émis l'hypothèse que le zéro aurait sa place sur la ligne numérique mentale et ne serait pas un concept distinct des autres nombres. " J'aurais aimé faire ces expériences moi-même ", at-il déclaré.

Tous les chercheurs ont convenu que ces études ne sont qu'un début pour comprendre comment notre cerveau traite le zéro et comment concilier ses différents modes. Aucun des deux groupes de recherche, par exemple, n'a étudié la façon dont le cerveau traite le " zéro " comme un mot écrit.

" Combien de concepts zéro différents existent-t-il et comment pouvons-nous unifier ces idées sous un même toit ? ", a déclaré Barton. " C'est une notion mathématique bien comprise, mais j'aimerais en voir davantage de la part des neurobiologistes. "

Tandis que Nieder espère continuer à s'intéresser au monde des neurosciences numériques, Barnett a les yeux rivaux sur le concept d'absence. S'il parvient à trouver des similitudes dans la façon dont l'esprit représente le zéro et l'absence, dit-il, alors peut-être que la théorie de Nieder est juste – le zéro pourrait être le résultat d'une capacité plus fondamentale à saisir l'idée que " rien " est vraiment " quelque chose ".

Auteur: Internet

Info: https://www.quantamagazine.org/, Yasemin Saplakoglu, 18 octobre 2024

[ viduité ] [ nada ] [ zilch ] [ oualou ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

protérozoïque

Des molécules fossilisées révèlent un monde perdu de vie ancienne

Une nouvelle analyse de sédiments vieux d’un milliard d’années comble une lacune dans les archives fossiles, révélant une dynastie de premiers eucaryotes qui pourraient avoir façonné l’histoire de la vie sur Terre.

Un arbre a quelque chose en commun avec les mauvaises herbes et les champignons qui poussent autour de ses racines, les écureuils qui grimpent sur son tronc, les oiseaux perchés sur ses branches et le photographe qui prend des photos de la scène. Ils ont tous un génome et une machinerie cellulaire soigneusement emballés dans des compartiments reliés par des membranes, un système organisationnel qui les place dans un groupe de formes de vie extrêmement performantes appelés eucaryotes.

Les débuts de l’histoire des eucaryotes fascinent depuis longtemps les scientifiques qui aspirent à comprendre quand la vie moderne a commencé et comment elle a évolué. Mais retracer les premiers eucaryotes à travers l’histoire de la Terre a été difficile. Des données fossiles limitées montrent que leur premier ancêtre est apparu il y a au moins 1,6 milliard d’années. Pourtant, d’autres preuves révélatrices de leur existence manquent. Les eucaryotes devraient produire et laisser derrière eux certaines molécules distinctives, mais les versions fossilisées de ces molécules n'apparaissent dans les archives rocheuses qu'il y a 800 millions d'années. Cet écart inexpliqué de 800 millions d'années dans l'histoire des premiers eucaryotes, période cruciale au cours de laquelle le dernier ancêtre commun de toute la vie complexe d'aujourd'hui est apparu, a enveloppé de mystère l'histoire des débuts de la vie.

"Il existe un énorme écart temporel entre les archives fossiles de ce que nous pensons être les premiers eucaryotes et les premiers biomarqueurs des eucaryotes", a déclaré Galen Halverson , professeur à l'Université McGill de Montréal.

Il existe de nombreuses explications possibles à cet écart paradoxal. Peut-être que les eucaryotes étaient trop rares à cette époque pour laisser derrière eux des preuves de fossiles moléculaires. Ou peut-être étaient-ils abondants, mais leurs fossiles moléculaires n’ont pas survécu aux dures conditions géologiques.

Une étude récente publiée dans Nature propose une explication alternative : les scientifiques ont peut-être recherché les mauvaises molécules fossilisées pendant tout ce temps. Lorsque les auteurs de l’étude ont recherché des versions plus primitives des produits chimiques recherchés par d’autres, ils les ont découverts en abondance – révélant ce qu’ils ont décrit comme " un monde perdu " d’eucaryotes qui vivaient il y a 800 millions à au moins 1,6 milliard d’années.

"Ces molécules ont toujours été là", a déclaré Jochen Brocks , géochimiste à l'Université nationale australienne de Canberra, qui a codirigé l'étude avec Benjamin Nettersheim, alors étudiant diplômé . "Nous ne pouvions pas les trouver parce que nous ne savions pas à quoi elles ressemblaient."

Les résultats apportent une nouvelle clarté à la dynamique de la vie eucaryote précoce. L'abondance de ces fossiles moléculaires suggère que les organismes primitifs ont prospéré dans les océans pendant des centaines de millions d'années avant que les ancêtres des eucaryotes modernes ne prennent le relais, semant des formes de vie qui évolueraient un jour vers les animaux, les plantes, les champignons et les protistes que nous voyons. aujourd'hui.

"C'est une hypothèse élégante qui semble réconcilier ces enregistrements très disparates", a déclaré Halverson, qui n'a pas participé à l'étude. " Cela donne un sens à tout."

Ces découvertes ont été une bonne nouvelle pour des paléontologues comme Phoebe Cohen , présidente de géosciences au Williams College dans le Massachusetts, qui a longtemps pensé qu'il manquait quelque chose dans le dossier des biomarqueurs. "Il existe une histoire riche et dynamique de la vie avant l'évolution des animaux, qui est plus difficile à comprendre car nous ne pouvons pas la voir", a déclaré Cohen. "Mais c'est extrêmement important car cela prépare le terrain pour le monde que nous avons aujourd'hui."

Le casse-tête des protostéroïdes

Lorsque les archives fossiles sont décevantes, les scientifiques disposent d’autres moyens pour estimer le moment où différentes espèces se sont dérivées les unes des autres dans l’arbre évolutif. Parmi ces outils figurent principalement les horloges moléculaires : des fragments d’ADN qui mutent à un rythme constant, permettant aux scientifiques d’estimer le passage du temps. Selon les horloges moléculaires, le dernier ancêtre commun des eucaryotes modernes, qui appartenait à un ensemble diversifié d’organismes appelé groupe couronne, est apparu pour la première fois il y a au moins 1,2 milliard d’années.

Mais l’histoire des eucaryotes ne commence pas là. D’autres eucaryotes primitifs, connus sous le nom de groupe souche, ont vécu des centaines de millions d’années avant l’évolution de notre premier ancêtre commun. Les chercheurs en savent peu sur eux, au-delà du fait qu’ils ont existé. La petite poignée d’anciens fossiles d’eucaryotes découverts sont trop ambigus pour être identifiés comme une tige ou une couronne.

En l’absence de fossiles corporels convaincants, les chercheurs recherchent des fossiles moléculaires. Les fossiles moléculaires, qui se conservent séparément des fossiles corporels, peuvent être difficiles à cerner pour les scientifiques. Ils doivent d’abord identifier quelles molécules auraient pu être produites uniquement par les organismes qu’ils souhaitent étudier. Ensuite, ils doivent composer avec le fait que toutes ces molécules ne se fossilisent pas bien.

La matière organique se désintègre à des rythmes différents et certaines parties des eucaryotes se conservent mieux que d’autres dans la roche. Les tissus se dissolvent en premier. L’ADN peut rester plus longtemps, mais pas trop longtemps : l’ADN le plus ancien jamais découvert a environ 2 millions d’années. Les molécules de graisse, cependant, peuvent potentiellement survivre pendant des milliards d’années.

Les eucaryotes créent de grandes quantités de molécules de graisse appelées stérols, un type de stéroïde qui constitue un composant essentiel des membranes cellulaires. Étant donné que la présence d’une membrane cellulaire est révélatrice des eucaryotes et que les molécules de graisse ont tendance à persister dans la roche, les stérols sont devenus le fossile moléculaire de référence pour ce groupe.

Les eucaryotes modernes fonctionnent avec trois grandes familles de stérols : le cholestérol chez les animaux, les phytostérols chez les plantes et l'ergostérol chez les champignons et certains protistes. Leur synthèse commence par une molécule linéaire, que la cellule façonne en quatre anneaux afin que la forme résultante s'intègre parfaitement dans une membrane, a déclaré Brocks. Ce processus comporte de nombreuses étapes : il faut huit étapes enzymatiques supplémentaires aux cellules animales pour fabriquer du cholestérol, tandis que les cellules végétales nécessitent 11 étapes enzymatiques supplémentaires pour fabriquer un phytostérol.

En route pour fabriquer son stérol avancé, une cellule crée une série de molécules plus simples à chaque étape du processus. Lorsqu’ils sont branchés sur une membrane artificielle, même ces stérols intermédiaires offrent la perméabilité et la rigidité dont une cellule a besoin pour fonctionner comme elle le devrait. Le biochimiste Konrad Bloch, qui a reçu le prix Nobel en 1964 en partie pour avoir découvert les étapes cellulaires de fabrication du cholestérol , "en a été perplexe", a déclaré Brocks. Pourquoi une cellule déploierait-elle des efforts supplémentaires pour fabriquer un stérol plus complexe alors qu’une molécule plus simple ferait le travail ?

En 1994, Bloch a écrit un livre dans lequel il prédisait que chacun de ces stérols intermédiaires avait été autrefois le produit final utilisé dans la membrane d'une cellule eucaryote ancestrale. Chaque étape supplémentaire a peut-être nécessité plus d'énergie de la cellule, mais la molécule résultante constituait une légère amélioration par rapport à la précédente – une amélioration suffisante pour surpasser le précurseur et s'imposer dans l'histoire de l'évolution.

Si cela était vrai, cela expliquerait pourquoi personne n’avait pu trouver de fossiles moléculaires de stérols avant l’expansion rapide des eucaryotes modernes, il y a environ 800 millions d’années. Les chercheurs recherchaient des cholestérols et d’autres structures modernes dans les archives rocheuses. Ils ne se rendaient pas compte que les anciennes voies biochimiques étaient plus courtes et que les organismes des groupes souches ne produisaient pas de stérols modernes : ils  faisaient des protostérols.

Mouture de café moléculaire

En 2005, environ cinq ans après la mort de Bloch, Brocks et ses collègues ont rapporté dans Nature les premiers indices de l'existence de telles molécules intermédiaires. Dans d'anciens sédiments, ils avaient trouvé des stéroïdes de structure inhabituelle qu'ils ne reconnaissaient pas. Mais à l’époque, Brocks ne pensait pas qu’un eucaryote aurait pu les créer. " À l’époque, j’étais assez convaincu qu’ils étaient bactériens ", a-t-il déclaré. "Personne ne pensait du tout à la possibilité d'avoir des eucaryotes du groupe souche."

Il a continué à échantillonner des roches anciennes et à rechercher ces curieuses molécules. Environ une décennie après le début de leurs travaux, Nettersheim et lui ont réalisé que de nombreuses structures moléculaires dans les échantillons de roche semblaient " primitives " et ne ressemblaient pas à celles que fabriquent généralement les bactéries, a déclaré Brocks. Serait-ce les stérols intermédiaires de Bloch ?

(Photo : De rares fossiles microscopiques de la vie ancienne fournissent des horodatages sur l’évolution des eucaryotes.  Satka favosa  (à gauche) et  Valeria lophostriata  datent d'il y a 1,6 milliard d'années. On ne sait pas si les organismes, probablement des protistes, appartiennent au groupe tige ou couronne. )

Il leur fallait davantage de preuves. Au cours de la décennie qui a suivi, Brocks et Nettersheim ont contacté des sociétés pétrolières et minières pour demander des échantillons de tout sédiment ancien qu'elles avaient accidentellement découvert lors d'expéditions de forage.

"La plupart des gens auraient trouvé deux exemples et publiés", a déclaré Andrew Knoll , professeur d'histoire naturelle à l'Université Harvard qui n'a pas participé à l'étude. (Il était le conseiller postdoctoral de Brocks il y a des années.) " Jochen a passé la majeure partie de la décennie à étudier les roches du Protérozoïque du monde entier. "

Pendant ce temps, les chercheurs ont créé un modèle de recherche pour identifier les molécules présentes dans les sédiments. Ils ont converti les molécules intermédiaires modernes fabriquées lors de la synthèse des stérols en équivalents géologiques plausibles des stéroïdes. (Le cholestérol, par exemple, se fossilise sous forme de cholestane.) " Si vous ne savez pas à quoi ressemble la molécule, vous ne la verrez pas 2, a déclaré Brocks.

En laboratoire, ils ont extrait des molécules fossiles des échantillons de sédiments en utilisant un processus qui " ressemble un peu à la préparation du café ", a déclaré Nettersheim. Après avoir broyé les roches, ils ont ajouté des solvants organiques pour en extraire les molécules – tout comme l’eau chaude est utilisée pour extraire le café des grains torréfiés et moulus.

(Photo :Benjamin Nettersheim, géochimiste à l'Université de Brême, examine les cartes moléculaires d'anciens sédiments rocheux à la recherche de biomarqueurs de la vie ancienne.)

Pour analyser leurs échantillons et les comparer à leurs références, ils ont utilisé la spectrométrie de masse, qui détermine le poids des molécules, et la chromatographie, qui révèle leur composition atomique.

Le processus est ardu. "Vous analysez des centaines de roches et ne trouvez rien", a déclaré Brocks. Lorsque l’on trouve quelque chose, il s’agit souvent d’une contamination récente. Mais plus ils analysaient d’échantillons, plus ils trouvaient de fossiles.

Certains échantillons étaient remplis à ras bord de protostéroïdes. Ils ont découvert ces molécules dans des roches datant d'il y a 800 millions à 1,6 milliard d'années. Il semblait que non seulement les eucaryotes anciens étaient présents depuis environ 800 millions d’années avant le décollage des eucaryotes modernes, mais qu’ils étaient également abondants.

Les chercheurs ont même pu reconnaître le processus évolutif des eucaryotes à mesure que leurs stéroïdes devenaient plus complexes. Par exemple, dans des roches vieilles de 1,3 milliard d’années, ils ont découvert une molécule intermédiaire plus avancée que les protostéroïdes vieux de 1,6 milliard d’années, mais pas aussi avancée que les stéroïdes modernes.

"C'était une façon très intelligente de traiter les archives manquantes de fossiles moléculaires", a déclaré David Gold , géobiologiste à l'Université de Californie à Davis, qui n'a pas participé à l'étude. Leur découverte a immédiatement comblé une lacune de 800 millions d’années dans l’histoire de la naissance de la vie moderne.

Un monde perdu

Les découvertes moléculaires, combinées aux données génétiques et fossiles, révèlent l'image la plus claire à ce jour de la dynamique eucaryote précoce d'il y a environ 1 milliard d'années, au cours de la mystérieuse ère médiane du Protérozoïque, ont déclaré les experts. D'après les preuves de Brocks et Nettersheim, les eucaryotes des groupes tige et couronne (stem and crown)  ont probablement vécu ensemble pendant des centaines de millions d'années et se sont probablement fait concurrence pendant une période que les géologues appellent le milliard ennuyeux en raison de sa lente évolution biologique.

L'absence de stéroïdes plus modernes à cette époque suggère que le groupe couronne n'a pas immédiatement pris le dessus. Au contraire, les organismes liés à la membrane ont commencé petit à mesure qu'ils trouvaient des niches dans l'ancien écosystème, a déclaré Gold. " Il faut beaucoup de temps pour que les [eucaryotes] deviennent écologiquement dominants ", a-t-il déclaré.

(Photo : Ces anciens microfossiles partagent un ancêtre avec tous les eucaryotes vivant aujourd’hui. Vieille d’un milliard d’années, l’algue benthique  Proterocladus antiquus  (au centre) est le plus ancien fossile de couronne connu. Il y a 750 millions d'années, les eucaryotes du groupe couronne tels que l'amibozoaire Bonniea dacruchares  (à gauche) et le rhizarien  Melicerion poikilon  (à droite) étaient courants.)

De gauche à droite : Susannah Porter ; Avec l'aimable autorisation de Virginia Tech ; Susannah Porter

Au début, le groupe souche avait peut-être un avantage. Les niveaux d’oxygène dans l’atmosphère étaient nettement inférieurs à ce qu’ils sont aujourd’hui. Étant donné que la construction de protostérols nécessite moins d’oxygène et d’énergie que les stérols modernes, les eucaryotes du groupe souche étaient probablement plus efficaces et plus abondants.

Leur influence déclina lorsque le monde traversa une transition critique connue sous le nom de période tonienne. Il y a entre 1 milliard et 720 millions d’années, l’oxygène, les nutriments et autres matières premières cellulaires ont augmenté dans les océans. Des fossiles d'eucaryotes modernes, comme des algues et des champignons, commencent à apparaître dans les archives rocheuses, et les stéroïdes modernes commencent à dépasser en nombre les protostéroïdes dans les biomarqueurs fossilisés – des preuves qui suggèrent que les eucaryotes du groupe couronne avaient commencé à prospérer, à augmenter en nombre et à se diversifier.

Pourquoi les stérols deviendraient-ils plus compliqués avec le temps ? Les auteurs suggèrent que les stérols les plus complexes confèrent à leurs propriétaires un certain avantage évolutif, peut-être lié à la dynamique des membranes cellulaires des créatures. Quelle que soit la raison, le changement de stérol était significatif sur le plan évolutif. La composition des stérols modernes a probablement donné aux eucaryotes du groupe couronne un avantage par rapport au groupe souche. Finalement, " ce monde perdu d’anciens eucaryotes a été remplacé par les eucaryotes modernes ", a déclaré Brocks.

Une ride bactérienne

L’histoire évolutive des chercheurs sur les stérols est convaincante, mais elle n’est pas solide comme le roc.

"Je ne serais pas surpris" si leur interprétation est correcte, a déclaré Gold. Cependant, il existe une autre possibilité. Bien que les scientifiques aient tendance à associer les stérols aux eucaryotes, certaines bactéries peuvent également les fabriquer. Les fossiles moléculaires de l’étude auraient-ils pu être laissés par des bactéries ?Gordon Love , géochimiste à l'Université de Californie à Riverside, pense que le scénario bactérien est plus logique. "Ces protostéroïdes se retrouvent dans les roches de tous âges", a-t-il déclaré. "Ils ne disparaissent pas tout simplement, ce qui signifie que quelque chose d'autre que les eucaryotes souches est capable de les fabriquer." Il a fait valoir que les bactéries, qui dominaient la mer à cette époque, auraient pu facilement produire des protostéroïdes.

Les auteurs ne peuvent pas exclure cette possibilité. En fait, ils soupçonnent que certaines de leurs molécules fossiles ont été fabriquées par des bactéries. Mais la possibilité que leur vaste collection de protostéroïdes fossilisés, s'étendant sur des centaines de millions d'années, ait été entièrement constituée de bactéries semble peu probable, a déclaré Brocks.


" Si vous regardez l'écologie de ces bactéries aujourd'hui et leur abondance, il n'y a tout simplement aucune raison de croire qu'elles pourraient devenir si abondantes qu'elles auraient pu produire toutes ces molécules", a-t-il déclaré. Dans le monde moderne, les bactéries produisent des protostérols uniquement dans des environnements de niche tels que les sources hydrothermales ou les suintements de méthane.

Cohen, paléontologue du Williams College, est d'accord avec Brocks. L’interprétation selon laquelle ces molécules ont été faites par des eucaryotes " est cohérente avec toutes les autres sources de preuves ", a-t-elle déclaré – des archives fossiles aux analyses de l’horloge moléculaire. " Je ne suis pas aussi inquiète 2 quant à cette possibilité, a-t-elle déclaré.

L’une ou l’autre interprétation présente plus de questions que de réponses. "Les deux histoires seraient absolument folles et bizarres", a déclaré Brocks. Ce sont " des visions différentes de notre monde ", a-t-il ajouté, et il serait bien de savoir laquelle est la vraie.

Faute de machine à remonter le temps, les chercheurs recherchent davantage de preuves pour améliorer leur certitude dans un sens ou dans l’autre. Mais il n’existe qu’un nombre limité de façons de reconstruire ou de percevoir la vie ancienne – et même les meilleures suppositions des scientifiques ne peuvent jamais combler complètement cette lacune. "La plupart des formes de vie n'ont laissé aucune trace sur Terre", a déclaré Nettersheim. " Le bilan que nous voyons est limité. … Pendant la majeure partie de l’histoire de la Terre, la vie aurait pu être très différente. "

Auteur: Internet

Info: Quanta Magazine, Yasemin Saplakoglu, 23 octobre 2023

[ unicité ] [ microbiote ] [ paliers évolutifs ] [ précambrien ] [ protérozoïque ] [ radiations adaptatives ] [ pressions de sélection ] [ équilibres ponctués ]

 

Commentaires: 0

Ajouté à la BD par miguel

régulation post-transcriptionnelle

Les cellules de l'arbre de vie échangent des " messages texte " à l'aide de l'ARN

Connu depuis longtemps comme un messager au sein des cellules, l’ARN est de plus en plus considéré comme le système de communication moléculaire de la vie, même entre des organismes largement séparés par l’évolution.

( photo) Les cellules de l’arbre de la vie peuvent échanger des messages de courte durée codés par l’ARN – des missives qui ressemblent à un texte rapide plutôt qu’à une note formelle sur papier à en-tête.

Pour une molécule d’ARN, le monde est un endroit dangereux. Contrairement à l’ADN, qui peut persister pendant des millions d’années sous sa forme à double brin remarquablement stable, l’ARN n’est pas conçu pour durer, pas même dans la cellule qui l’a créé. À moins d’être attaché de manière protectrice à une molécule plus grosse, l’ARN peut se dégrader en quelques minutes, voire moins. Et à l’extérieur d’une cellule ? Oubliez ça. Les enzymes voraces qui détruisent l’ARN sont partout, sécrétées par toutes les formes de vie pour se défendre contre les virus qui écrivent leur identité génétique dans un code ARN.

L’ARN peut survivre indemne à l’extérieur d’une cellule d’une manière ou d’une autre : dans une minuscule bulle protectrice. Depuis des décennies, les chercheurs ont remarqué que les cellules libèrent ces bulles de membrane cellulaire, appelées vésicules extracellulaires (VE), remplies d’ARN dégradé, de protéines et d’autres molécules. Mais ces sacs étaient considérés comme de simples sacs poubelles qui évacuent les déchets moléculaires décomposés d’une cellule lors d’un nettoyage de routine.

Puis, au début des années 2000, des expériences menées par Hadi Valadi, biologiste moléculaire à l'université de Göteborg, a révélé que l'ARN à l'intérieur de certaines EV ne ressemblait pas à des déchets. Le cocktail de séquences d'ARN était considérablement différent de celui trouvé à l'intérieur de la cellule, et ces séquences étaient intactes et fonctionnelles. Lorsque l’équipe de Valadi a exposé des cellules humaines à des EV provenant de cellules de souris, ils ont été choqués d’observer que les cellules humaines absorbaient les messages d’ARN et les " lisaient " pour créer des protéines fonctionnelles qu’elles n’auraient pas pu fabriquer autrement.

Valadi a conclu que les cellules empaquetaient des brins d’ARN dans des vésicules spécifiquement pour communiquer entre elles. " Si je suis sorti et que je vois qu’il pleut, dit-il, je peux vous dire : si vous sortez, prenez un parapluie avec vous. " De la même manière, a-t-il suggéré, une cellule pourrait avertir ses voisines d’une exposition à un agent pathogène ou à un produit chimique nocif avant qu’elles ne soient elles-mêmes confrontées au danger.

Depuis, de nombreuses preuves ont été avancées pour étayer cette théorie, grâce aux progrès de la technologie de séquençage qui permettent aux scientifiques de détecter et de décoder des segments d’ARN de plus en plus petits. Depuis que Valadi a publié ses expériences, d’autres chercheurs ont également observé des EV remplis de combinaisons d’ARN complexes. Ces séquences d’ARN peuvent contenir des informations détaillées sur la cellule qui les a créées et déclencher des effets spécifiques dans les cellules réceptrices. Ces résultats ont conduit certains chercheurs à suggérer que l’ARN pourrait être une lingua franca moléculaire qui transcende les frontières taxonomiques traditionnelles et peut donc coder des messages qui restent intelligibles dans tout l’arbre de la vie.

En 2024, de nouvelles études ont révélé des couches supplémentaires de cette histoire, montrant, par exemple, qu'avec les bactéries et les cellules eucaryotes, les archées échangent également. L'ARN lié aux vésicules confirme que le phénomène est universel dans les trois domaines de la vie. Une autre étude a élargi notre compréhension de la communication cellulaire entre les règnes en montrant que les plantes et les champignons infectieux peuvent utiliser des paquets d'ARN dévastateurs comme une forme de guerre de l’information coévolutionnaire : une cellule ennemie lit l’ARN et construit des protéines autodestructrices avec sa propre machinerie moléculaire.

" J'ai été impressionnée par ce que l'ARN peut faire ", a déclaré Amy Buck, biologiste spécialiste de l’ARN à l’Université d’Édimbourg, qui n’a pas participé à la nouvelle recherche. Pour elle, comprendre l’ARN comme moyen de communication " va au-delà de l’appréciation de la sophistication et de la nature dynamique de l’ARN au sein de la cellule ". La transmission d’informations au-delà de la cellule pourrait être l’un de ses rôles innés.

Livraison dans des délais serrés

La microbiologiste Susanne Erdmann étudie les infections virales chez Haloferax volcanii , un organisme unicellulaire qui prospère dans des environnements incroyablement salés comme la mer Morte ou le Grand Lac Salé. On sait que les bactéries unicellulaires échangent largement des VE, mais H. volcanii n'est pas une bactérie - c'est un archéen , un membre de la troisième branche évolutive de la vie, qui présente des cellules construites différemment des bactéries ou des eucaryotes comme nous.

Comme les EV ont la même taille et la même densité que les particules virales étudiées par l'équipe d'Erdmann à l'Institut Max Planck de microbiologie marine en Allemagne, ils " apparaissent toujours lorsque vous isolez et purifiez des virus ", a-t-elle déclaré. Finalement, son groupe est devenu curieux et a décidé de jeter un œil à ce qu'il y avait à l'intérieur.

" Je m’attendais à de l’ADN ", se souvient Erdmann, après avoir appris que d’autres espèces d’archées intégraient de l’ADN dans des EV. Au lieu de cela, son laboratoire a découvert tout un assortiment d’ARN – en particulier des ARN non codants, de mystérieux fragments de nucléotides sans fonction connue dans les archées. Ces séquences d’ARN non codantes étaient beaucoup plus abondantes dans les EV que dans les cellules archéennes elles-mêmes. " C’était la première fois que nous trouvions de l’ARN dans des EV chez des archées ", a-t-elle déclaré.

Erdmann s'est demandé si les vésicules archaïques avaient une utilité. Une cellule peut produire spontanément des vésicules lorsque sa membrane se resserre sur elle-même pour former une petite bulle qui se détache ensuite. Cependant, d'autres mécanismes impliquent des processus plus actifs et délibérés, similaires à ceux qui déplacent les molécules à l'intérieur de la cellule. Le groupe d'Erdmann a identifié une protéine archaïque essentielle à la production d'EV contenant de l'ARN.


Cela lui a permis de penser que l’ARN ne se retrouvait pas dans les vésicules par hasard et que le processus n’était pas simplement une question d’élimination des déchets. " Il est très probable que les archées les utilisent pour communiquer entre cellules ", a-t-elle déclaré. " Sinon, pourquoi investir autant d’énergie à éliminer de l’ARN aléatoire dans des vésicules ? "

Erdmann ne sait pas exactement pourquoi les microbes Haloferax remplissent leurs vésicules d'ARN alors que d'autres espèces d'archées préfèrent l'ADN. Mais elle soupçonne que cela est lié à la sensibilité temporelle du message moléculaire. " L'ARN est un langage différent de l'ADN ", a-t-elle déclaré, et il remplit une fonction fondamentalement différente à l'intérieur comme à l'extérieur des cellules. 

L'acide ribonucleique est mieux connu comme molécule messagère qui copie des recettes de protéines à partir de l'ADN. Cependant sa structure chimique lui permet de se plier en des formes complexes qui jouent des rôles variés dans la cellule.

1. Support de l'information génétique (ARN messager, ARNm)   L'ARNm est une copie temporaire d'un gène de l'ADN qui est utilisée pour produire des protéines. Il sert de pont entre l'ADN (qui reste dans le noyau) et les ribosomes, les machines de production des protéines dans le cytoplasme.

2. Rôle dans la traduction des protéines (ARN de transfert, ARNt et ARN ribosomal, ARNr)   ARNt : L'ARN de transfert joue un rôle crucial dans la traduction de l'ARNm en protéines. Il transporte les acides aminés spécifiques vers le ribosome en fonction du codon présent sur l'ARNm.   ARNr : L'ARN ribosomal constitue une partie essentielle des ribosomes, les structures où la synthèse des protéines a lieu. Il catalyse les réactions qui relient les acides aminés entre eux.

3. Régulation de l’expression génétique (microARN, ARN interférents, etc.) Les microARN (miARN) et les petits ARN interférents (siARN) sont des régulateurs de l'expression génétique. Ils agissent en ciblant des ARNm spécifiques pour inhiber leur traduction ou favoriser leur dégradation, jouant ainsi un rôle dans le contrôle de la stabilité et de la quantité des protéines produites dans la cellule.

4. ARN catalytiques (ribozymes) Contrairement à la croyance traditionnelle que seuls les protéines peuvent catalyser des réactions biochimiques, certains ARN, appelés ribozymes, ont des capacités catalytiques. Ils peuvent catalyser des réactions chimiques, telles que la liaison ou la coupure de liaisons phosphodiester dans l'ARN lui-même, jouant ainsi un rôle dans des processus comme l'épissage.

5. Épissage alternatif et régulation post-transcriptionnelle L'ARN pré-messager subit souvent un processus appelé épissage, où certaines parties (introns) sont éliminées et les parties restantes (exons) sont réunies pour former l'ARNm final. L'épissage alternatif permet à un même gène de produire plusieurs variantes d'ARNm, ce qui conduit à la production de protéines différentes à partir du même gène.

6. ARNs non codants (ARNnc) En dehors de leur rôle dans la synthèse des protéines, de nombreux ARN ne codent pas pour des protéines, mais assurent des fonctions régulatrices et structurales dans la cellule. Par exemple, les longs ARN non codants (lncRNA) sont impliqués dans la régulation de l'expression génique, la structure chromatinienne et d'autres processus biologiques complexes.

7. ARN circulaires (circRNA) Les ARN circulaires sont une classe d'ARNs non codants qui forment une boucle continue. Ils jouent un rôle dans la régulation génique, notamment en séquestrant les miARN, en stabilisant d'autres ARN ou en servant de matrice pour la traduction non conventionnelle.

8. Rôle dans la défense immunitaire (ARN viraux) - Certains virus, comme les virus à ARN (par exemple, le virus de la grippe ou le SARS-CoV-2), utilisent l'ARN comme matériel génétique. Les cellules hôtes utilisent des mécanismes d'interférence à ARN pour détecter et dégrader l'ARN viral, soulignant le rôle de l'ARN dans l'immunité innée.

En résumé, l'ARN est une molécule extraordinairement versatile qui remplit des rôles multiples dans les cellules, allant de la traduction de l'information génétique à la régulation et la catalyse. Cette diversité fonctionnelle fait de l'ARN un acteur clé dans presque tous les aspects de la biologie moléculaire.

L'ADN d'un organisme doit être stable et relativement immuable au cours de sa vie. Il peut subir des mutations spontanées ou même des gènes supplémentaires, mais il faut des générations de sélection naturelle pour que des changements temporaires dans les séquences d'ADN s'installent dans une population. L'ARN, en revanche, est en constante évolution, réagissant aux conditions dynamiques à l'intérieur et à l'extérieur de la cellule. Les signaux d'ARN ne durent pas longtemps, mais ce n'est pas nécessaire, car ils peuvent très vite devenir inutiles.

En tant que message, l’ARN est transitoire. Il s’agit d’une caractéristique, pas d’un bug : il ne peut avoir que des effets à court terme sur d’autres cellules avant de se dégrader. Et comme l’ARN à l’intérieur d’une cellule change constamment, " le message que vous pouvez envoyer à votre cellule voisine " peut également changer très rapidement, a déclaré Erdmann. En ce sens, il s’apparente davantage à un message texte ou à un e-mail rapide destiné à communiquer des informations opportunes qu’à des runes gravées dans la pierre ou à un mémo officiel sur papier à en-tête.

Bien qu'il semble que les archées voisines absorbent et internalisent les EV provenant de leurs cellules voisines, on ne sait pas encore si ces messages les affectent. Erdmann se demande également ce qui arrive à ces vésicules dans la nature, où de nombreux organismes différents pourraient être à portée d'oreille des messages qu'elles transportent.

" Combien d’autres organismes dans le même environnement pourraient capter ce message ? ", s’est-elle interrogée. " Et le mangent-ils simplement et utilisent-ils l’ARN comme nourriture, ou détectent-ils réellement le signal ? "

Bien que cela puisse encore être un mystère pour Haloferax , d’autres chercheurs ont démontré que des cellules à travers des espèces, des règnes et même des domaines de la vie peuvent envoyer et recevoir des missives moléculaires remarquablement pointues.

Dialogue biologique croisé

Bien que l'ARN ait une durée de vie courte, il s'est révélé être une merveille moléculaire capable de changer de forme. Il est surtout connu pour aider les cellules à produire de nouvelles protéines en copiant les instructions de l'ADN (sous forme d'ARN messager, ou ARNm) et en les transmettant au ribosome pour construction. Cependant, son squelette flexible permet à l'ARN de se replier dans un certain nombre de formes qui peuvent avoir un impact sur la biologie cellulaire. Il peut agir comme une enzyme pour accélérer les réactions chimiques au sein des cellules. Il peut se lier à l'ADN pour activer ou désactiver l'expression des gènes. Et des brins d'ARN concurrents peuvent emmêler les instructions de l'ARNm dans un processus appelé interférence ARN qui empêche la production de nouvelles protéines.

Les chercheurs se sont de plus en plus intéressés aux façons dont l'ARN modifie l'activité cellulaire. Ils ont donc étudié des stratégies pour utiliser cette petite molécule mutable comme outil expérimental, comme traitement contre les maladies et même comme base du vaccin à ARNm contre la Covid-19 . Toutes ces applications nécessitent le transfert d'ARN dans les cellules, mais il semble que l'évolution nous ait devancés : les VE transmettent l'ARN même aux cellules qui ne souhaitent pas recevoir le message.

Il y a environ 10 ans, la généticienne moléculaire Hailing Jin et son laboratoire à l'Université de Californie, Riverside a découvert que deux organismes de règnes différents - une plante et un champignon - échangent de l'ARN comme une forme de guerre. Jin étudiait Botrytis cinerea , une moisissure grise duveteuse qui ravage des cultures telles que les fraises et les tomates, lorsqu'elle a vu qu'elle échangeait de l'ARN avec la plante Arabidopsis (arabette) pendant l'infection. Le champignon Botrytis a délivré de l'ARN qui interférait avec la capacité de la plante à combattre l'infection. Des travaux ultérieurs ont montré que les cellules végétales pouvaient répondre avec leur propre volée d'ARN qui a endommagé le champignon.

Dans cette " course aux armements coévolutionnaires ", comme l’a décrite Jin, les deux organismes ont utilisé des EV comme vecteurs de ces messages ARN délicats mais dommageables. Auparavant, les scientifiques intéressés par la dynamique hôte-pathogène se concentraient principalement sur les protéines et les métabolites, a expliqué Jin, car ces molécules peuvent être plus faciles à étudier. Mais il est logique que les organismes disposent de plusieurs moyens de résister aux défis environnementaux, a-t-elle ajouté, notamment en utilisant l’ARN pour interagir avec des parents évolutifs éloignés.

Au cours de la dernière décennie, de plus en plus de scientifiques ont découvert des exemples d'échange d'ARN entre règnes comme stratégie offensive lors d'une infection. Les vers parasites vivant dans les intestins de souris libèrent de l'ARN dans les EV qui désactivent les protéines immunitaires défensives de l'hôte. Les bactéries peuvent envoyer des messages aux cellules humaines qui atténuent les réponses immunitaires antibactériennes. Le champignon Candida albicans a même appris à détourner un message des véhicules électriques humains à son propre avantage : il utilise l'ARN humain pour favoriser sa propre croissance.

La correspondance entre les règnes n'est pas toujours un courrier haineux. Ces interactions ont également été observées dans des relations amicales (ou neutres), a déclaré Jin. Par exemple, les bactéries qui vivent en symbiose dans les racines des légumineuses envoient des messages ARN pour favoriser la nodulation — la croissance de petites bosses où les bactéries vivent et fixent l’azote pour la plante.

Comment l’ARN d’une branche de l’arbre de la vie peut-il être compris par les organismes d’une autre branche ? C’est un langage commun, explique Buck. L’ARN existe probablement depuis le tout début de la vie. Alors que les organismes ont évolué et se sont diversifiés, leur mécanisme de lecture de l’ARN est resté en grande partie le même. " L’ARN a déjà une signification dans chaque cellule ", explique Buck. " Et c’est un code assez simple. "

C'est tellement simple qu'une cellule réceptrice peut ouvrir et interpréter le message avant de se rendre compte qu'il pourrait être dangereux, de la même manière que nous pourrions cliquer instinctivement sur un lien dans un e-mail avant de remarquer l'adresse suspecte de l'expéditeur. En effet, plus tôt cette année, le laboratoire de Jin a montré que les cellules végétales d'Arabidopsis peuvent envoyer des instructions d'ARN apparemment inoffensives qui ont un impact surprenant sur un champignon ennemi. Au cours d'expériences, l'équipe de Jin a vu le champignon Botrytis lire l'ARNm envahissant ainsi que ses propres molécules et créer sans le vouloir des protéines qui endommageaient ses capacités infectieuses.

C'est presque comme si les plantes créaient un " pseudo-virus ", a expliqué Jin : de petits paquets d'ARN qui infectent une cellule et utilisent ensuite la machinerie de cette cellule pour produire des protéines.

" C’est un mécanisme assez puissant ", a-t-elle déclaré. " Un ARNm peut être traduit en de très nombreuses copies de protéines. […] C’est beaucoup plus efficace que le transport de la protéine elle-même. "

À sa connaissance, Jin a déclaré que c'était la première fois qu'elle observait des preuves d'organismes de différents règnes échangeant des messages d'ARNm et les lisant dans des protéines. Mais elle pense que ce phénomène sera probablement observé dans de nombreux autres systèmes, une fois que les gens commenceront à le rechercher.

Le domaine est jeune, a déclaré Buck, ce qui est passionnant. Il reste encore beaucoup à apprendre : par exemple, si les autres molécules contenues dans les VE aident à transmettre le message de l'ARN. " C'est un défi amusant de démêler tout cela ", a-t-elle déclaré. " Nous devrions être inspirés par la puissance et le dynamisme incroyables de l'ARN, et par la façon dont nous découvrons encore toutes les façons dont il façonne et régule la vie. " 



 

Auteur: Internet

Info: https://www.quantamagazine.org/, Annie Melchor, 16 sept 2024

[ . ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

méta-moteur

Le comportement de cet animal est programmé mécaniquement.

Des interactions biomécaniques, plutôt que des neurones, contrôlent les mouvements de l'un des animaux les plus simples. Cette découverte offre un aperçu de la façon dont le comportement animal fonctionnait avant l'apparition des neurones.

L'animal extrêmement simple Trichoplax adhaerens se déplace et réagit à son environnement avec agilité et avec un but apparent, mais il n'a pas de neurones ou de muscles pour coordonner ses mouvements. De nouveaux travaux montrent que les interactions biomécaniques entre les cils de l'animal suffisent à en expliquer ses mouvements.

Le biophysicien Manu Prakash se souvient très bien du moment où, tard dans la nuit, dans le laboratoire d'un collègue, il y a une douzaine d'années, il a regardé dans un microscope et a rencontré sa nouvelle obsession. L'animal sous les lentilles n'était pas très beau à voir, ressemblant plus à une amibe qu'à autre chose : une tache multicellulaire aplatie, de 20 microns d'épaisseur et de quelques millimètres de diamètre, sans tête ni queue. Elle se déplaçait grâce à des milliers de cils qui recouvraient sa face inférieure pour former la "plaque velue collante" qui lui a inspiré son nom latin, Trichoplax adhaerens.

Cette étrange créature marine, classée dans la catégorie des placozoaires, dispose pratiquement d'une branche entière de l'arbre de l'évolution de la vie pour elle-même, ainsi que du plus petit génome connu du règne animal. Mais ce qui a le plus intrigué Prakash, c'est la grâce, l'agilité et l'efficacité bien orchestrées avec lesquelles les milliers ou les millions de cellules du Trichoplax se déplacent.

Après tout, une telle coordination nécessite habituellement des neurones et des muscles - et le Trichoplax n'en a pas.

Prakash s'est ensuite associé à Matthew Storm Bull, alors étudiant diplômé de l'université de Stanford, pour faire de cet étrange organisme la vedette d'un projet ambitieux visant à comprendre comment les systèmes neuromusculaires ont pu évoluer et comment les premières créatures multicellulaires ont réussi à se déplacer, à trouver de la nourriture et à se reproduire avant l'existence des neurones.

"J'appelle souvent ce projet, en plaisantant, la neuroscience sans les neurones", a déclaré M. Prakash.

Dans un trio de prétirés totalisant plus de 100 pages - publiés simultanément sur le serveur arxiv.org l'année dernière - lui et Bull ont montré que le comportement de Trichoplax pouvait être décrit entièrement dans le langage de la physique et des systèmes dynamiques. Les interactions mécaniques qui commencent au niveau d'un seul cilium, puis se multiplient sur des millions de cellules et s'étendent à des niveaux supérieurs de structure, expliquent entièrement la locomotion coordonnée de l'animal tout entier. L'organisme ne "choisit" pas ce qu'il doit faire. Au contraire, la horde de cils individuels se déplace simplement - et l'animal dans son ensemble se comporte comme s'il était dirigé par un système nerveux. Les chercheurs ont même montré que la dynamique des cils présente des propriétés qui sont généralement considérées comme des signes distinctifs des neurones.

Ces travaux démontrent non seulement comment de simples interactions mécaniques peuvent générer une incroyable complexité, mais ils racontent également une histoire fascinante sur ce qui aurait pu précéder l'évolution du système nerveux.

"C'est un tour de force de la biophysique", a déclaré Orit Peleg, de l'université du Colorado à Boulder, qui n'a pas participé aux études. Ces découvertes ont déjà commencé à inspirer la conception de machines mécaniques et de robots, et peut-être même une nouvelle façon de penser au rôle des systèmes nerveux dans le comportement animal. 

La frontière entre le simple et le complexe

Les cerveaux sont surestimés. "Un cerveau est quelque chose qui ne fonctionne que dans le contexte très spécifique de son corps", a déclaré Bull. Dans les domaines connus sous le nom de "robotique douce" et de "matière active", la recherche a démontré que la bonne dynamique mécanique peut suffire à accomplir des tâches complexes sans contrôle centralisé. En fait, les cellules seules sont capables de comportements remarquables, et elles peuvent s'assembler en systèmes collectifs (comme les moisissures ou les xénobots) qui peuvent accomplir encore plus, le tout sans l'aide de neurones ou de muscles.

Mais est-ce possible à l'échelle d'un animal multicellulaire entier ?

Le Trichoplax fut un cas d'étude parfait : assez simple pour être étudié dans les moindres détails, mais aussi assez compliqué pour offrir quelque chose de nouveau aux chercheurs. En l'observant, "vous regardez simplement une danse", a déclaré Prakash. "Elle est d'une incroyable complexité". Elle tourne et se déplace sur des surfaces. Elle s'accroche à des plaques d'algues pour les piéger et les consommer comme nourriture. Elle se reproduit asexuellement en se divisant en deux.

"Un organisme comme celui-ci se situe dans un régime intermédiaire entre quelque chose de réellement complexe, comme un vertébré, et quelque chose qui commence à devenir complexe, comme les eucaryotes unicellulaires", explique Kirsty Wan, chercheur à l'université d'Exeter en Angleterre, qui étudie la locomotion ciliaire.

Ce terrain intermédiaire entre les cellules uniques et les animaux dotés de muscles et de systèmes nerveux semblait être l'endroit idéal pour que Prakash et Bull posent leurs questions. "Pour moi, un organisme est une idée", a déclaré Prakash, un terrain de jeu pour tester des hypothèses et un berceau de connaissances potentielles.

Prakash a d'abord construit de nouveaux microscopes permettant d'examiner le Trichoplax par en dessous et sur le côté, et a trouvé comment suivre le mouvement à grande vitesse de ses cils. (Ce n'était pas un terrain entièrement nouveau pour lui, puisqu'il était déjà célèbre pour ses travaux sur le Foldscope, un microscope facile à assembler et dont la fabrication coûte moins d'un dollar). Il pouvait alors voir et suivre des millions de cils individuels, chacun apparaissant comme une minuscule étincelle dans le champ de vision du microscope pendant une fraction de seconde à la fois. "Vous ne voyez que les empreintes lorsqu'elles se posent sur la surface", a déclaré Prakash.

Lui-même - et plus tard Bull, qui a rejoint son laboratoire il y a six ans - ont passé des heures à observer l'orientation de ces petites empreintes. Pour que ces motifs complexes soient possibles, les scientifiques savaient que les cils devaient être engagés dans une sorte de communication à longue distance. Mais ils ne savaient pas comment.

Ils ont donc commencé à rassembler les pièces du puzzle, jusqu'à ce que, l'année dernière, ils décident enfin qu'ils avaient leur histoire.

Une marche en pilote automatique

Au départ, Prakash et Bull s'attendaient à ce que les cils glissent sur des surfaces, avec une fine couche de liquide séparant l'animal du substrat. Après tout, les cils sont généralement vus dans le contexte des fluides : ils propulsent des bactéries ou d'autres organismes dans l'eau, ou déplacent le mucus ou les fluides cérébrospinaux dans un corps. Mais lorsque les chercheurs ont regardé dans leurs microscopes, ils ont constaté que les cils semblaient marcher, et non nager.

Bien que l'on sache que certains organismes unicellulaires utilisent les cils pour ramper, ce type de coordination n'avait jamais été observé à cette échelle. "Plutôt qu'utiliser les cils pour propulser un fluide, il s'agit de mécanique, de friction, d'adhésion et de toutes sortes de mécanismes solides très intéressants", a-t-elle déclaré.

Prakash, Bull et Laurel Kroo, une étudiante diplômée en génie mécanique de Stanford, ont donc entrepris de caractériser la démarche des cils. Ils ont suivi la trajectoire de l'extrémité de chaque cilium au fil du temps, l'observant tracer des cercles et pousser contre des surfaces. Ils ont défini trois types d'interactions : le glissement, au cours duquel les cils effleurent à peine la surface ; la marche, lorsque les cils adhèrent brièvement à la surface avant de se détacher ; et le calage, lorsque les cils restent coincés contre la surface.

Dans leurs modèles, l'activité de marche émergeait naturellement de l'interaction entre les forces motrices internes des cils et l'énergie de leur adhésion à la surface. Le bon équilibre entre ces deux paramètres (calculé à partir de mesures expérimentales de l'orientation, de la hauteur et de la fréquence des battements des cils) permettant une locomotion régulière, chaque cilium se collant puis se soulevant, comme une jambe. Un mauvais équilibre produisant les phases de glissement ou de décrochage.

Nous pensons généralement, lorsque quelque chose se passe comme ça, qu'il y a un signal interne semblable à une horloge qui dit : "OK, allez-y, arrêtez-vous, allez-y, arrêtez-vous", a déclaré Simon Sponberg, biophysicien à l'Institut de technologie de Géorgie. "Ce n'est pas ce qui se passe ici. Les cils ne sont pas rythmés. Il n'y a pas une chose centrale qui dit 'Go, go, go' ou autre. Ce sont les interactions mécaniques qui mettent en place quelque chose qui va, qui va, qui va."

De plus, la marche pourrait être modélisée comme un système excitable, c'est-à-dire un système dans lequel, sous certaines conditions, les signaux se propagent et s'amplifient au lieu de s'atténuer progressivement et de s'arrêter. Un neurone est un exemple classique de système excitable : De petites perturbations de tension peuvent provoquer une décharge soudaine et, au-delà d'un certain seuil, le nouvel état stimulé se propage au reste du système. Le même phénomène semble se produire ici avec les cils. Dans les expériences et les simulations, de petites perturbations de hauteur, plutôt que de tension, entraînent des changements relativement importants dans l'activité des cils voisins : Ils peuvent soudainement changer d'orientation, et même passer d'un état de stase à un état de marche. "C'est incroyablement non linéaire", a déclaré Prakash.

En fait, les modèles de cils de Prakash, Bull et Kroo se sont avérés très bien adaptés aux modèles établis pour les potentiels d'action au sein des neurones. "Ce type de phénomène unique se prête à une analogie très intéressante avec ce que l'on observe dans la dynamique non linéaire des neurones individuels", a déclaré Bull. Sponberg est d'accord. "C'est en fait très similaire. Il y a une accumulation de l'énergie, et puis pop, et puis pop, et puis pop".

Les cils s'assemblent comme des oiseaux

Forts de cette description mathématique, Prakash et Bull ont examiné comment chaque cilium pousse et tire sur ses voisins lors de son interaction avec la surface, et comment toute ces activités indépendantes peuvent se transformer en quelque chose de synchronisé et cohérent.

Ils ont mesuré comment la démarche mécanique de chaque cilium entraînait de petites fluctuations locales de la hauteur du tissu. Ils ont ensuite écrit des équations pour expliquer comment ces fluctuations pouvaient influencer le comportement des cellules voisines, alors même que les cils de ces cellules effectuaient leurs propres mouvements, comme un réseau de ressorts reliant de minuscules moteurs oscillants.

Lorsque les chercheurs ont modélisé "cette danse entre élasticité et activité", ils ont constaté que les interactions mécaniques - de cils poussant contre un substrat et de cellules se tirant les unes les autres - transmettaient rapidement des informations à travers l'organisme. La stimulation d'une région entraînait des vagues d'orientation synchronisée des cils qui se déplaçaient dans le tissu. "Cette élasticité et cette tension dans la physique d'un cilium qui marche, maintenant multipliées par des millions d'entre eux dans une feuille, donnent en fait lieu à un comportement mobile cohérent", a déclaré Prakash.

Et ces modèles d'orientation synchronisés peuvent être complexes : parfois, l'activité du système produit des tourbillons, les cils étant orientés autour d'un seul point. Dans d'autres cas, les cils se réorientent en quelques fractions de seconde, pointant d'abord dans une direction puis dans une autre - se regroupant comme le ferait un groupe d'étourneaux ou un banc de poissons, et donnant lieu à une agilité qui permet à l'animal de changer de direction en un clin d'œil.

"Nous avons été très surpris lorsque nous avons vu pour la première fois ces cils se réorienter en une seconde", a déclaré M. Bull.

Ce flocage agile est particulièrement intriguant. Le flocage se produit généralement dans des systèmes qui se comportent comme des fluides : les oiseaux et les poissons individuels, par exemple, peuvent échanger librement leurs positions avec leurs compagnons. Mais cela ne peut pas se produire chez Trichoplax, car ses cils sont des composants de cellules qui ont des positions fixes. Les cils se déplacent comme "un troupeau solide", explique Ricard Alert, physicien à l'Institut Max Planck pour la physique des systèmes complexes.

Prakash et Bull ont également constaté dans leurs simulations que la transmission d'informations était sélective : Après certains stimuli, l'énergie injectée dans le système par les cils se dissipe tout simplement, au lieu de se propager et de modifier le comportement de l'organisme. Nous utilisons notre cerveau pour faire cela tout le temps, pour observer avec nos yeux et reconnaître une situation et dire : "Je dois soit ignorer ça, soit y répondre", a déclaré M. Sponberg.

Finalement, Prakash et Bull ont découvert qu'ils pouvaient écrire un ensemble de règles mécaniques indiquant quand le Trichoplax peut tourner sur place ou se déplacer en cercles asymétriques, quand il peut suivre une trajectoire rectiligne ou dévier soudainement vers la gauche, et quand il peut même utiliser sa propre mécanique pour se déchirer en deux organismes distincts.

"Les trajectoires des animaux eux-mêmes sont littéralement codées" via ces simples propriétés mécaniques, a déclaré Prakash.

Il suppose que l'animal pourrait tirer parti de ces dynamiques de rotation et de reptation dans le cadre d'une stratégie de "course et culbute" pour trouver de la nourriture ou d'autres ressources dans son environnement. Lorsque les cils s'alignent, l'organisme peut "courir", en continuant dans la direction qui vient de lui apporter quelque chose de bénéfique ; lorsque cette ressource semble s'épuiser, Trichoplax peut utiliser son état de vortex ciliaire pour se retourner et tracer une nouvelle route.

Si d'autres études démontrent que c'est le cas, "ce sera très excitant", a déclaré Jordi Garcia-Ojalvo, professeur de biologie systémique à l'université Pompeu Fabra de Barcelone. Ce mécanisme permettrait de faire le lien entre beaucoups d'échelles, non seulement entre la structure moléculaire, le tissu et l'organisme, mais aussi pour ce qui concerne écologie et environnement.

En fait, pour de nombreux chercheurs, c'est en grande partie ce qui rend ce travail unique et fascinant. Habituellement, les approches des systèmes biologiques basées sur la physique décrivent l'activité à une ou deux échelles de complexité, mais pas au niveau du comportement d'un animal entier. "C'est une réussite...  vraiment rare", a déclaré M. Alert.

Plus gratifiant encore, à chacune de ces échelles, la mécanique exploite des principes qui font écho à la dynamique des neurones. "Ce modèle est purement mécanique. Néanmoins, le système dans son ensemble possède un grand nombre des propriétés que nous associons aux systèmes neuro-mécaniques : il est construit sur une base d'excitabilité, il trouve constamment un équilibre délicat entre sensibilité et stabilité et il est capable de comportements collectifs complexes." a déclaré Sponberg.

"Jusqu'où ces systèmes mécaniques peuvent-ils nous mener ?... Très loin." a-t-il ajouté.

Cela a des implications sur la façon dont les neuroscientifiques pensent au lien entre l'activité neuronale et le comportement de manière plus générale. "Les organismes sont de véritables objets dans l'espace", a déclaré Ricard Solé, biophysicien à l'ICREA, l'institution catalane pour la recherche et les études avancées, en Espagne. Si la mécanique seule peut expliquer entièrement certains comportements simples, les neuroscientifiques voudront peut-être examiner de plus près comment le système nerveux tire parti de la biophysique d'un animal pour obtenir des comportements complexes dans d'autres situations.

"Ce que fait le système nerveux n'est peut-être pas ce que nous pensions qu'il faisait", a déclaré M. Sponberg.

Un pas vers la multicellularité

"L'étude de Trichoplax peut nous donner un aperçu de ce qu'il a fallu faire pour développer des mécanismes de contrôle plus complexes comme les muscles et les systèmes nerveux", a déclaré Wan. "Avant d'arriver à ça, quelle est le meilleur truc à suivre ? Ca pourrait bien être ça".

Alert est d'accord. "C'est une façon si simple d'avoir des comportements organisationnels tels que l'agilité que c'est peut-être ainsi qu'ils ont émergé au début et  au cours de l'évolution, avant que les systèmes neuronaux ne se développent. Peut-être que ce que nous voyons n'est qu'un fossile vivant de ce qui était la norme à l'époque".

Solé considère que Trichoplax occupe une "twilight zone... au centre des grandes transitions vers la multicellularité complexe". L'animal semble commencer à mettre en place "les conditions préalables pour atteindre la vraie complexité, celle où les neurones semblent être nécessaires."

Prakash, Bull et leurs collaborateurs cherchent maintenant à savoir si Trichoplax pourrait être capable d'autres types de comportements ou même d'apprentissage. Que pourrait-il réaliser d'autre dans différents contextes environnementaux ? La prise en compte de sa biochimie en plus de sa mécanique ouvrirait-elle vers un autre niveau de comportement ?

Les étudiants du laboratoire de Prakash ont déjà commencé à construire des exemples fonctionnels de ces machines. Kroo, par exemple, a construit un dispositif de natation robotisé actionné par un matériau viscoélastique appelé mousse active : placée dans des fluides non newtoniens comme des suspensions d'amidon de maïs, elle peut se propulser vers l'avant.

"Jusqu'où voulez-vous aller ? a demandé Peleg. "Pouvez-vous construire un cerveau, juste à partir de ce genre de réseaux mécaniques ?"

Prakash considère que ce n'est que le premier chapitre de ce qui sera probablement une saga de plusieurs décennies. "Essayer de vraiment comprendre cet animal est pour moi un voyage de 30 ou 40 ans", a-t-il dit. "Nous avons terminé notre première décennie... C'est la fin d'une époque et le début d'une autre".

Auteur: Internet

Info: https://www.quantamagazine.org/before-brains-mechanics-may-have-ruled-animal-behavior. Jordana Cepelewicz, 16 mars 2022. Trad Mg

[ cerveau rétroactif ] [ échelles mélangées ] [ action-réaction ] [ plus petit dénominateur commun ] [ grégarisme ] [ essaims ] [ murmurations mathématiques ]

 

Commentaires: 0

Ajouté à la BD par miguel

anthropique solipsisme


John Wheeler a vu la déchirure du réel 

Jusqu’à ses derniers jours, ce géant de la physique du 20e siècle a été obsédé par les fondements de l’espace et du temps, et par la manière dont nous partageons tous la même version de ces concepts.

Quand Johnny Wheeler avait 4 ans, en jouant dans son bain à Youngstown, dans l’Ohio, il a levé les yeux vers sa mère et a demandé : " Qu’arrive-t-il quand on arrive à la fin des choses ? " Cette question l’a hanté toute sa vie. Que se passe-t-il quand on atteint le fond de l’espace ? Que se passe-t-il quand on arrive au bord du temps ? Cela l’a conduit à suggérer que l’espace-temps ne peut pas être le véritable tissu de l’univers. Cela l’a poussé, même dans ses derniers jours, à chercher une réalité plus profonde sous l’espace-temps et à se demander si, d’une manière ou d’une autre, cette réalité boucle sur nous.

John Archibald Wheeler était un physicien pour les physiciens. Il n’a jamais remporté de prix Nobel, ni acquis une renommée publique, mais pour ceux qui le connaissaient, il était une légende. Il a ouvert de nouvelles voies dans de nombreux domaines de la physique : particules, nucléaire, gravitationnel, quantique. Il a étudié sous Niels Bohr, marché et discuté avec Albert Einstein. Il était ambitieux, pour le moins, mais jamais pour un gain personnel. Wheeler voulait résoudre les mystères de l’univers pour pouvoir offrir des réponses à sa communauté. Il avait une devise : " Personne ne peut être quelqu’un sans d’autres autour. " Il partageait largement ses idées, laissant ses étudiants briller. Richard Feynman, Hugh Everett, Jacob Bekenstein, Kip Thorne — ils sont devenus, entre autres, des figures emblématiques grâce à son influence. Quand un donateur de l’Université de Princeton a proposé de dédier un bâtiment de physique en son honneur, Wheeler a refusé, disant que le bâtiment ne devait pas être " centré sur une seule personne. La physique ne se fait pas ainsi. "

Tout au long de sa carrière, qui a couvert une grande partie du 20e siècle, Wheeler a tenu des journaux détaillés — de grands cahiers reliés regorgeant de chaque intuition, impasse et percée. Ces journaux, aujourd’hui conservés à l’American Philosophical Society de Philadelphie, révèlent quelque chose de remarquable : c’est précisément son désir de mettre la communauté en premier qui a façonné sa quête pour comprendre l’origine de l’espace-temps.

L’obsession de Wheeler pour l’espace-temps a commencé dans les années 1950. La relativité générale — la théorie d’Einstein selon laquelle la matière et l’énergie déforment l’espace-temps et que cette déformation est la gravité — était tombée dans l’oubli, éclipsée par les progrès de la mécanique quantique. Mais en 1952, Wheeler a eu une idée : et si ce que nous appelons " matière " n’était en réalité que de l’espace-temps ? Après tout, pensait-il, la gravité est une forme d’énergie, mais la gravité agit sur l’énergie, ce qui signifie qu’elle agit sur elle-même. Il imaginait des ondes de gravité se repliant en sphères compactes qui ressembleraient à des particules élémentaires de l’extérieur, tout en étant faites de vide à l’intérieur, une " masse sans masse ". Il les a nommées " géons ". Elles réduiraient les ingrédients de l’univers à un seul.

Les particules ont aussi une charge. Cela aussi pourrait-il être réduit à la géométrie ? Wheeler imaginait un espace-temps fortement déformé et tordu, " multi-connecté ", avec des trous et des boucles s’enroulant sur eux-mêmes. Les lignes de champ électrique tissées à travers ce paysage noueux pourraient disparaître dans un trou, traverser l’espace-temps, puis réapparaître ailleurs. Là où elles disparaîtraient, on verrait une particule chargée négativement, et là où elles réapparaîtraient, une particule chargée positivement. En réalité, il n’y aurait ni l’un ni l’autre, juste des lignes de champ électrique bouclant à l’infini, créant une " charge sans charge ".

Personne n’avait jamais utilisé la relativité générale de cette manière, pliant et tordant l’espace-temps jusqu’à ce que le reste de la physique en émerge, rendant l’univers plein de torsions et de tunnels si nouveaux qu’ils n’avaient pas de nom. Wheeler leur en a donné un : les trous de ver. C’était là son talent — nommer les choses, oui, mais aussi pousser les théories existantes à leurs limites pour voir où elles se brisent. Que se passe-t-il quand on arrive à la fin des choses ?

Tout dans l’univers fait d’espace-temps : Wheeler était captivé par la simplicité de cette idée. Mais pourquoi l’espace-temps aurait-il un terrain si chaotique, et seulement à l’échelle des particules élémentaires ? Il a supposé que les fluctuations quantiques de l’espace-temps pourraient transformer une géométrie tranquille en un labyrinthe enchevêtré, que Wheeler a appelé " mousse quantique ". Cela semblait être exactement ce qu’il fallait pour que les géons existent.

Wheeler a ensuite réalisé qu’à des échelles encore plus petites — la fameuse longueur de Planck, de l’ordre de 10^-33 centimètres — l’incertitude quantique pourrait détruire l’espace-temps lui-même. Des points localisés comme " ici  et " là " perdraient tout sens. Il voulait construire tout l’univers à partir de l’espace-temps, mais il n’était pas clair si l’espace-temps survivrait.

En 1960, Wheeler a découvert un fait troublant : les trous de ver sont instables. Les tunnels se formeraient et s’effondreraient instantanément sur eux-mêmes, leurs parois s’affaissant jusqu’à disparaître en un point de densité et de courbure infinies, créant une rupture fatale dans la réalité connue sous le nom de singularité. Les physiciens avaient déjà rencontré des singularités, mais seulement comme des erreurs dans leurs équations. Il y avait des indices que les étoiles, lorsqu’elles s’éteignent et s’effondrent gravitationnellement, pourraient abriter des singularités en leur sein, mais personne n’y croyait vraiment, ou du moins pensait que ce serait rare. Wheeler a alors vu que, grâce aux fluctuations quantiques, la réalité en était criblée. Le tissu de l’espace-temps, à ses plus petites échelles, était lâchement tissé, rongé par les mites, trop fragile pour supporter le poids du monde.

Pourtant, l’univers existe. Il doit être fait de quelque chose. Si l’espace-temps disparaît dans l’éclair d’une singularité, alors quelque chose se trouve au-delà ou en dessous.  De plus en plus insistant, un problème réclamait mon attention ", a écrit Wheeler. " Effondrement en quoi ? "

Il a décidé d’examiner de plus près ces étoiles éteintes, effondrées sous leur propre poids avec des singularités dans leur obscurité comme des trous d’épingle dans le monde. Tout le monde les appelait " objets complètement effondrés ", mais en 1967, lors d’une conférence au NASA Institute for Space Studies à New York, Wheeler leur a donné un nom qui est resté : les trous noirs. Une fois baptisés, les trous noirs ont été pris au sérieux, à la fois comme des objets existant dans la réalité et comme des endroits où la réalité prend fin.

Pour la communauté, le travail de Wheeler a déclenché un regain massif d’intérêt pour la relativité générale. Son manuel Gravitation, co-écrit avec ses étudiants Kip Thorne et Charles Misner, reste la bible du domaine. Pour Wheeler, ce travail a soulevé plus de questions qu’il n’en a résolu. " L’espace et le temps eux-mêmes sont transcendés en tant que catégories, et le cadre semble s’effondrer pour tout ce qu’on a jamais appelé une loi, notamment le concept de géométrie lui-même ", a-t-il écrit. Sous l’espace-temps, il devait y avoir autre chose, une " pré-géométrie ". Que se passe-t-il quand on arrive à la fin des choses ? Il était déterminé à le découvrir.

En juin 1973, il a rassemblé tous ses livres et articles sur la relativité générale — des décennies de travail sur la physique de l’espace-temps — et les a rangés. Puis il a ouvert son journal à une page blanche et a écrit avec détermination : " Commencer une nouvelle chasse. "

Par où commencer ? Avec quoi ? Ces trous dans l’espace-temps semblaient tout engloutir. " Pas étonnant que je ne dorme pas bien ", a griffonné Wheeler dans son journal. " L’ancien univers simple s’efface, tout est maintenant en désordre. "

La pré-géométrie pourrait-elle être faite de " grains " d’espace-temps, a-t-il demandé ? Non, cela supposerait trop de structure.

Il a eu une meilleure idée : peut-être était-elle faite d’information — des 1 et des 0, des oui et des non, des choix binaires. " Le caractère sans dimension du bit nous libère enfin du pays tyrannisé par les dimensions… de la physique quotidienne des particules, des champs, de l’espace-temps ", a-t-il écrit. Mais la question qui le tenait éveillé la nuit était : à qui appartient cette information ?

Wheeler a réalisé que lorsque l’espace et le temps disparaissent, emportant avec eux le reste de la physique, il reste quelque chose. " Avec la loi qui s’en va et le chaos qui arrive, un principe demeure ", a écrit Wheeler. " Le principe quantique. " La mécanique quantique, a-t-il écrit, " détruit le concept du monde comme ‘assis là-bas’, avec l’observateur en sécurité, séparé de lui par une vitre de 20 centimètres. Même pour observer un objet aussi minuscule qu’un électron, il doit briser la vitre. Il doit y entrer… L’univers ne sera jamais plus le même. Pour décrire ce qui s’est passé, il faut rayer ce vieux mot ‘observateur’ et le remplacer par le nouveau mot ‘participant’. Dans un sens étrange, l’univers est un univers participatif. "

C’était officiellement l’idée la plus folle qu’il ait eue jusqu’alors. Un univers fait non pas de matière, ni d’espace-temps, ni de substance, mais de nos choix. Ce n’était pas ce qu’il espérait trouver ; la physique l’y avait conduit. Il avait soulevé l’espace-temps, regardé en dessous, et s’était retrouvé à fixer, à sa grande perplexité, un miroir. " On se retrouve à demander désespérément si la structure, plutôt que de se terminer dans un plus petit objet ou dans un champ plus fondamental, ou de continuer indéfiniment, ne revient pas finalement à l’observateur. "

En 1977, Wheeler a donné une conférence soulignant que " aucun phénomène élémentaire n’est un phénomène tant qu’il n’est pas un phénomène observé ". Après cela, le physicien Paul Dirac a demandé : " La formation du système solaire est un phénomène. Est-ce seulement un phénomène lorsqu’il est observé ? " Wheeler a répondu : " Oui. "

Il pensait à l’expérience de la double fente, cette preuve notoirement déroutante que nos attentes de bon sens sur le fonctionnement du monde ne tiennent pas. Des particules comme les photons sont envoyées à travers un écran avec deux fentes avant de frapper une plaque photographique de l’autre côté. Lorsque les deux fentes sont ouvertes, les photons un par un forment un motif d’interférence sur la plaque, comme si chaque photon était passé par les deux fentes, de manière ondulatoire, interférant avec lui-même. Mais si nous mesurons par quelle fente un photon passe, ce motif d’interférence disparaît. Ce que nous choisissons de mesurer compte.

Wheeler voulait montrer quelque chose de plus : que cela compte même lorsque ce que nous mesurons s’est déjà produit. Et si nous retardions le choix de mesurer " quelle fente " jusqu’après que le photon ait traversé l’écran ? a-t-il demandé. Notre mesure pourrait-elle déterminer après coup si le photon est passé par une fente ou deux ?

" Je me suis aventuré en eaux profondes, en voulant donner un sens à ‘un choix présent influençant une action passée’ ", a écrit Wheeler dans son journal.

En 1979, il a décrit une version réalisable de l’expérience à choix retardé lors d’une conférence à l’Université du Maryland, et un expérimentateur présent a décidé de la réaliser. Il a fallu cinq ans pour mettre l’expérience sur pied, mais cela a fonctionné. En choisissant ce qu’il faut mesurer dans le présent, nous participons à la création du passé.

Dans la version de laboratoire, le choix est retardé d’une simple fraction de seconde, mais en principe, il n’y a pas de limite à son échelle. Le photon pourrait avoir été produit par un quasar lointain, et le rôle de l’écran à double fente pourrait être joué par une galaxie dont le champ gravitationnel dévierait le photon vers la gauche ou la droite avec une probabilité égale. Le photon voyage-t-il les deux chemins à la fois, créant un motif d’interférence sur la plaque photographique qui l’attend ici sur Terre ? Ou ne voyage-t-il qu’un seul chemin ? Cela dépend si un astronome basé sur Terre — ici, maintenant — décide de mesurer si le photon a pris un chemin ou deux, bien que le voyage ait eu lieu il y a des milliards d’années.

Mais le voyage n’a pas eu lieu — c’était le point de Wheeler. Le choix retardé n’impliquait aucune causalité inversée. Ce n’est pas comme si le passé avançait déjà sous sa propre impulsion jusqu’à ce qu’un observateur arrive, remonte le temps et le change. Non, a dit Wheeler : il n’y a pas d’impulsion, pas de changement. " Ce n’est pas un paradoxe que nous choisissions ce qui doit s’être passé après que ‘cela s’est déjà produit’ ", a-t-il écrit, car " cela ne s’est pas vraiment produit. Ce n’est pas un phénomène tant que ce n’est pas un phénomène observé. "

Le passé n’est pas vraiment le passé. Le temps n’est pas vraiment le temps. Wheeler avait trouvé sa pré-géométrie. Nous tissons le tissu de l’univers, a-t-il dit, à partir de " milliards et milliards d’actes de participation d’observateurs ".

La quête de Wheeler pour la pré-géométrie a engendré de nombreuses recherches fructueuses. De l’expérience à choix retardé est venue une série de nouvelles expériences. De son idée que les propriétés physiques émergent comme des réponses aux questions oui-non des participants — qu’il a résumée dans les années 1980 par le slogan " It from Bit " — est né le domaine de la science de l’information quantique et des technologies comme l’informatique quantique et la téléportation quantique. De son travail sur les trous noirs et son insistance sur le fait que l’espace-temps émerge également des bits sont venues des idées sur l’entropie des trous noirs et le principe holographique en gravité quantique.

Mais seul, Wheeler était laissé à agoniser sur la manière de dériver l’espace-temps de la participation des observateurs.

Il était allé si loin, découvrant que l’espace-temps émerge de quelque chose de plus profond. Mesure par mesure, les observateurs participent à la création de leur espace-temps partagé. Ou du moins, c’était l’idée. Le problème était que rien en mécanique quantique ne garantit un accord entre les observateurs. Si je mesure un photon à une certaine position, créant un point dans le tissu de l’espace-temps, cela ne garantit pas que le photon soit à la même position pour vous. (Insister sur le fait que le résultat de ma mesure prédétermine le résultat de la vôtre ferait de la position du photon une " variable cachée ", ce que les expériences ont déjà exclu.) Un point pour l’un n’est pas garanti d’être un point pour tous.

" Des observateurs qui participent indépendamment… comme 10 000 ferblantiers qui s’adonnent indépendamment à 10 000 tâches différentes ", écrit-il dans son journal. Pourquoi ne créent-ils pas 10 000 espaces-temps distincts ? " Ce qui me trouble le plus, c’est la façon dont différents observateurs combinent leurs impressions pour construire ce que nous appelons la réalité. "

Au début, Wheeler pensait que la participation de l'observateur impliquait la conscience. Après tout, ce ne sont pas les tables et les chaises qui décident de ce qu'il faut mesurer, mais les observateurs conscients. Mais cela ne l'aidait pas. Il ne voyait aucun moyen de relier les expériences privées des esprits individuels en une seule réalité partagée.

" Sur peu de questions dans ma vie, j’ai été aussi perdu de vue qu’à présent sur le poids relatif de l’individu et de la collectivité dans la manière de donner un " sens " à l’existence ", écrivait-il. Il n’en était toujours pas sûr quelques années plus tard : " La " conscience " semble appartenir à l’individu. À mon avis, le concept pertinent devrait être une propriété communautaire. " Mais quoi ? Dans un univers participatif, un observateur peut poser une question et obtenir une réponse en retour, et un autre observateur peut venir — demain, la semaine prochaine, dans un milliard d’années — et poser une question différente, incompatible, et obtenir une réponse différente, incompatible. L’univers peut être façonné et remodelé de 10 000 façons par 10 000 ferblantiers, et rien dans le formalisme quantique ne garantit qu’ils seront un jour d’accord.

Wheeler était désemparé. Pendant des années, pendant des pages, il a été obsédé. " Je ne suis pas fier. Je confesserai toutes mes erreurs. Je ferai tout ce qui est en mon pouvoir pour percer le mystère. " Après tout, écrivait-il, " je dois à la communauté de donner le meilleur de moi-même. " Toute réalité dans laquelle une pensée, une perception ou un résultat de mesure était la propriété privée de quelqu’un n’était pas une réalité dans laquelle il pouvait vivre. En même temps, il ne pouvait pas revenir à un univers participatif. Il ne pouvait pas revenir à la prégéométrie. " Y a-t-il un point à mi-chemin entre tout et rien sur cette question ? " se demandait-il. " Chacun de nous est un univers privé ? Absurde ! Chacun de nous voit le même univers ? Absurde aussi ! "

Il était donc coincé et il manquait de temps.

" Si nous sommes ceux qui " construisent " l’espace-temps, comment se fait-il que nous n’ayons pas autant d’espaces-temps que les gens ? ", écrivait-il le 8 novembre 2005. " Comment se fait-il qu’il n’y en ait qu’un seul ? Poursuivons plus loin. " Il avait 94 ans.

Les entrées du journal se sont raréfiées.

Que se passe-t-il lorsqu'on arrive à la fin des choses ?

La dernière entrée de Wheeler date de 2006, à l’âge de 95 ans, alors qu’il était sur le point de mourir, et sa vie était désormais jalonnée de questions. Elle consistait en une seule phrase, laissée à la communauté : " L’espoir produit l’espace et le temps ? " 



 


Auteur: Internet

Info: https://www.quantamagazine.org/,  Amanda Gefter,  September 25, 2024

[ solipsismes individuels ] [ émergence grégaire ] [ égrégore déconnectée ] [ déterminisme vs émergence ] [ pré-géométrie ] [ cosmos partagé ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

épistémologie

Opinion: Pourquoi la science a besoin de la philosophe

Malgré les liens historiques étroits entre la science et la philosophie, les scientifiques d'aujourd'hui perçoivent souvent la philosophie comme complètement différente, voire antagoniste, de la science. Nous soutenons ici que, au contraire, la philosophie peut avoir un impact important et productif sur la science.

Nous illustrons notre propos par trois exemples tirés de divers domaines des sciences de la vie contemporaines. Chacun d'entre eux concerne la recherche scientifique de pointe, et chacun ayant été explicitement reconnu par les chercheurs en exercice comme une contribution utile à la science. Ces exemples, et d'autres, montrent que la contribution de la philosophie peut prendre au moins quatre formes : la clarification des concepts scientifiques, l'évaluation critique des hypothèses ou des méthodes scientifiques, la formulation de nouveaux concepts et de nouvelles théories, et la promotion du dialogue entre les différentes sciences, ainsi qu'entre la science et la société.

Clarification conceptuelle et cellules souches.

Tout d'abord, la philosophie offre une clarification conceptuelle. Les clarifications conceptuelles améliorent non seulement la précision et l'utilité des termes scientifiques, mais conduisent également à de nouvelles recherches expérimentales, car le choix d'un cadre conceptuel donné contraint fortement la façon dont les expériences sont conçues.

La définition des cellules souches (stem cells) en est un excellent exemple. La philosophie a une longue tradition d'étude des propriétés, et les outils utilisés dans cette tradition ont récemment été appliqués pour décrire la "souche", propriété qui définit les cellules souches. L'un d'entre nous a montré que quatre types de propriétés différentes existent sous cette dénomination de souche (stemness) au vu des connaissances scientifiques actuelles. Selon le type de tissu, la stemness peut être une propriété catégorielle (propriété intrinsèque de la cellule souche, indépendante de son environnement), une propriété dispositionnelle (propriété intrinsèque de la cellule souche qui est contrôlée par le micro-environnement), une propriété relationnelle (propriété extrinsèque qui peut être conférée aux cellules non souches par le microenvironnement), ou une propriété systémique (propriété qui est maintenue et contrôlée au niveau de la population cellulaire entière).

Hans Clevers, chercheur en biologie des cellules souches et du cancer, note que cette analyse philosophique met en lumière d'importants problèmes sémantiques et conceptuels en oncologie et en biologie des cellules souches ; il suggère également que cette analyse soit facilement applicable à l'expérimentation. En effet, au-delà de la clarification conceptuelle, ce travail philosophique a des applications dans le monde réel, comme l'illustre le cas des cellules souches cancéreuses en oncologie.

Les recherches visant à développer des médicaments ciblant soit les cellules souches cancéreuses, soit leur microenvironnement, reposent en fait sur différents types de souches et sont donc susceptibles d'avoir des taux de réussite différents selon le type de cancer. En outre, elles pourraient ne pas couvrir tous les types de cancer, car les stratégies thérapeutiques actuelles ne tiennent pas compte de la définition systémique de la souche. Déterminer le type de souche présent dans chaque tissu et chaque cancer est donc utile pour orienter le développement et le choix des thérapies anticancéreuses. Dans la pratique, ce cadre a conduit à la recherche de thérapies anticancéreuses qui combinent le ciblage des propriétés intrinsèques des cellules souches cancéreuses, de leur microenvironnement et des points de contrôle immunitaires afin de couvrir tous les types possibles de souches.

En outre, ce cadre philosophique a récemment été appliqué à un autre domaine, l'étude des organoïdes (tissus en 3D dérivés de cellules souches, sont capables de s'auto-organiser et de reproduire certaines fonctions d'un organe.). Dans une revue systémique des données expérimentales sur les organoïdes provenant de diverses sources, Picollet-D'hahan et al. ont caractérisé la capacité à former des organoïdes comme une propriété dispositionnelle. Ils ont pu alors affirmer que pour accroître l'efficacité et la reproductibilité de la production d'organoïdes, actuellement un défi majeur dans le domaine, les chercheurs doivent mieux comprendre la partie intrinsèque de la propriété dispositionnelle qui est influencée par le microenvironnement. Pour distinguer les caractéristiques intrinsèques des cellules qui ont une telle disposition, ce groupe développe actuellement des méthodes de génomique fonctionnelle à haut débit, permettant d'étudier le rôle de pratiquement tous les gènes humains dans la formation des organoïdes.

Immunogénicité et microbiome.

En complément de son rôle dans la clarification conceptuelle, la philosophie peut contribuer à la critique des hypothèses scientifiques et peut même être proactive dans la formulation de théories nouvelles, testables et prédictives qui aident à définir de nouvelles voies pour la recherche empirique.

Par exemple, une critique philosophique du cadre du cadre immunitaire du soi et du non-soi a conduit à deux contributions scientifiques importantes. Tout d'abord, elle a servi de base à la formulation d'un nouveau cadre théorique, la théorie de la discontinuité de l'immunité, qui complète les modèles antérieurs du non-soi et du danger en proposant que le système immunitaire réagisse aux modifications soudaines des motifs antigéniques. Cette théorie éclaire de nombreux phénomènes immunologiques importants, notamment les maladies auto-immunes, les réponses immunitaires aux tumeurs et la tolérance immunologique à des ligands exprimés de façon chronique. La théorie de la discontinuité a été appliquée à une multitude de questions, aidant à explorer les effets des agents chimiothérapeutiques sur l'immunomodulation dans le cancer et expliquant comment les cellules tueuses naturelles modifient constamment leur phénotype et leurs fonctions grâce à leurs interactions avec leurs ligands** d'une manière qui assure la tolérance aux constituants corporels. La théorie permet également d'expliquer les conséquences des vaccinations répétées chez les personnes immunodéprimées et propose des modèles mathématiques dynamiques de l'activation immunitaire. Collectivement, ces diverses évaluations empiriques illustrent comment des propositions d'inspiration philosophique peuvent conduire à des expériences inédites, ouvrant ainsi de nouvelles voies de recherche.

Deuxièmement, la critique philosophique a contribué, avec d'autres approches philosophiques, à la notion selon laquelle tout organisme, loin d'être un soi génétiquement homogène, est une communauté symbiotique abritant et tolérant de multiples éléments étrangers (notamment des bactéries et des virus), qui sont reconnus mais non éliminés par son système immunitaire. La recherche sur l'intégration symbiotique et la tolérance immunitaire a des conséquences considérables sur notre conception de ce qui constitue un organisme individuel, qui est de plus en plus conceptualisé comme un écosystème complexe dont les fonctions clés, du développement à la défense, la réparation et la cognition, sont affectées par les interactions avec les microbes.

Influence sur les sciences cognitives.

L'étude de la cognition et des neurosciences cognitives offre une illustration frappante de l'influence profonde et durable de la philosophie sur la science. Comme pour l'immunologie, les philosophes ont formulé des théories et des expériences influentes, aidé à lancer des programmes de recherche spécifiques et contribué à des changements de paradigme. Mais l'ampleur de cette influence est bien plus importante que dans le cas de l'immunologie. La philosophie a joué un rôle dans le passage du behaviorisme au cognitivisme et au computationnalisme dans les années 1960. La théorie de la modularité de l'esprit, proposée par le philosophe Jerry Fodor, a peut-être été la plus visible. Son influence sur les théories de l'architecture cognitive peut difficilement être dépassée. Dans un hommage rendu après le décès de Fodor en 2017, l'éminent psychologue cognitif James Russell a parlé dans le magazine de la British Psychological Society de "psychologie cognitive du développement BF (avant Fodor) et AF (après Fodor) ".

La modularité renvoie à l'idée que les phénomènes mentaux résultent du fonctionnement de multiples processus distincts, et non d'un seul processus indifférencié. Inspiré par les résultats de la psychologie expérimentale, par la linguistique chomskienne et par les nouvelles théories computationnelles de la philosophie de l'esprit, Fodor a théorisé que la cognition humaine est structurée en un ensemble de modules spécialisés de bas niveau, spécifiques à un domaine et encapsulés sur le plan informationnel, et en un système central de plus haut niveau, général à un domaine, pour le raisonnement abductif, l'information ne circulant que verticalement vers le haut, et non vers le bas ou horizontalement (c'est-à-dire entre les modules). Il a également formulé des critères stricts de modularité. Aujourd'hui encore, la proposition de Fodor définit les termes d'une grande partie de la recherche empirique et de la théorie dans de nombreux domaines des sciences cognitives et des neurosciences, y compris le développement cognitif, la psychologie de l'évolution, l'intelligence artificielle et l'anthropologie cognitive. Bien que sa théorie ait été révisée et remise en question, les chercheurs continuent d'utiliser, de peaufiner et de débattre de son approche et de sa boîte à outils conceptuelle de base.

La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de rigueur, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes.

La tâche des fausses croyances constitue un autre exemple clé de l'impact de la philosophie sur les sciences cognitives. Le philosophe Daniel Dennett a été le premier à concevoir la logique de base de cette expérience comme une révision d'un test utilisé pour évaluer la théorie de l'esprit, la capacité d'attribuer des états mentaux à soi-même et aux autres. Cette tâche teste la capacité d'attribuer à autrui des croyances que l'on considère comme fausses, l'idée clé étant que le raisonnement sur les croyances fausses d'autrui, par opposition aux croyances vraies, exige de concevoir les autres personnes comme ayant des représentations mentales qui divergent des siennes et de la façon dont le monde est réellement. Sa première application empirique remonte à 1983 , dans un article dont le titre, "Beliefs About Beliefs : Representation and Constraining Function of Wrong Beliefs in Young Children's Understanding of Deception", est en soi un hommage direct à la contribution de Dennett.

La tâche des fausses croyances représente une expérience marquante dans divers domaines des sciences cognitives et des neurosciences, avec de vastes applications et implications. Il s'agit notamment de tester les stades du développement cognitif chez les enfants, de débattre de l'architecture de la cognition humaine et de ses capacités distinctes, d'évaluer les capacités de la théorie de l'esprit chez les grands singes, de développer des théories de l'autisme en tant que cécité de l'esprit (selon lesquelles les difficultés à réussir la tâche des fausses croyances sont associées à cette maladie), et de déterminer quelles régions particulières du cerveau sont associées à la capacité de raisonner sur le contenu de l'esprit d'une autre personne .

La philosophie a également aidé le domaine des sciences cognitives à éliminer les hypothèses problématiques ou dépassées, contribuant ainsi à l'évolution de la science. Les concepts de l'esprit, de l'intelligence, de la conscience et de l'émotion sont utilisés de manière omniprésente dans différents domaines, avec souvent peu d'accord sur leur signification. L'ingénierie de l'intelligence artificielle, la construction de théories psychologiques des variables de l'état mental et l'utilisation d'outils neuroscientifiques pour étudier la conscience et l'émotion nécessitent des outils conceptuels pour l'autocritique et le dialogue interdisciplinaire - précisément les outils que la philosophie peut fournir.

La philosophie - parfois représentée par la lettre grecque phi - peut contribuer à faire progresser tous les niveaux de l'entreprise scientifique, de la théorie à l'expérience. Parmi les exemples récents, citons les contributions à la biologie des cellules souches, à l'immunologie, à la symbiose et aux sciences cognitives.  

La philosophie et la connaissance scientifique.

Les exemples ci-dessus sont loin d'être les seuls : dans les sciences de la vie, la réflexion philosophique a joué un rôle important dans des questions aussi diverses que l'altruisme évolutif , le débat sur les unités de sélection, la construction d'un "arbre de vie", la prédominance des microbes dans la biosphère, la définition du gène et l'examen critique du concept d'innéité. De même, en physique, des questions fondamentales comme la définition du temps ont été enrichies par les travaux des philosophes. Par exemple, l'analyse de l'irréversibilité temporelle par Huw Price et les courbes temporelles fermées par David Lewis ont contribué à dissiper la confusion conceptuelle en physique.

Inspirés par ces exemples et bien d'autres, nous considérons que la philosophie et la science se situent sur un continuum. La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de minutie, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes. Les philosophes possédant les connaissances scientifiques pertinentes peuvent alors contribuer de manière significative à l'avancement de la science à tous les niveaux de l'entreprise scientifique, de la théorie à l'expérimentation, comme le montrent les exemples ci-dessus.

Mais comment, en pratique, faciliter la coopération entre chercheurs et philosophes ? À première vue, la solution pourrait sembler évidente : chaque communauté devrait faire un pas vers l'autre. Pourtant, ce serait une erreur de considérer cette tâche comme facile. Les obstacles sont nombreux. Actuellement, un nombre important de philosophes dédaignent la science ou ne voient pas la pertinence de la science pour leur travail. Même parmi les philosophes qui privilégient le dialogue avec les chercheurs, rares sont ceux qui ont une bonne connaissance de la science la plus récente. À l'inverse, peu de chercheurs perçoivent les avantages que peuvent leur apporter les idées philosophiques. Dans le contexte scientifique actuel, dominé par une spécialisation croissante et des demandes de financement et de résultats de plus en plus importantes, seul un nombre très limité de chercheurs a le temps et l'opportunité d'être au courant des travaux produits par les philosophes sur la science, et encore moins de les lire.

 Pour surmonter ces difficultés, nous pensons qu'une série de recommandations simples, assez facile à mettre en œuvre, peuvent aider à combler le fossé entre la science et la philosophie. La reconnexion entre la philosophie et la science est à la fois hautement souhaitable et plus réalisable en pratique que ne le suggèrent les décennies d'éloignement qui les séparent.

1) Laisser plus de place à la philosophie dans les conférences scientifiques. Il s'agit d'un mécanisme très simple permettant aux chercheurs d'évaluer l'utilité potentielle des idées des philosophes pour leurs propres recherches. Réciproquement, davantage de chercheurs pourraient participer à des conférences de philosophie, en développant les efforts d'organisations telles que l'International Society for the History, Philosophy, and Social Studies of Biology, la Philosophy of Science Association et la Society for Philosophy of Science in Practice.

2) Accueillir des philosophes dans des laboratoires et des départements scientifiques. Il s'agit d'un moyen efficace (déjà exploré par certains des auteurs et d'autres) pour les philosophes d'apprendre la science et de fournir des analyses plus appropriées et bien fondées, et pour les chercheurs de bénéficier d'apports philosophiques et de s'acclimater à la philosophie en général. C'est peut-être le moyen le plus efficace d'aider la philosophie à avoir un impact rapide et concret sur la science.

3) Co-superviser des doctorants. La co-supervision de doctorants par un chercheur et un philosophe est une excellente occasion de rendre possible l'enrichissement mutuel des deux domaines. Elle facilite la production de thèses qui sont à la fois riches sur le plan expérimental et rigoureuses sur le plan conceptuel et, ce faisant, elle forme la prochaine génération de philosophes-scientifiques.

4) Créer des programmes d'études équilibrés en science et en philosophie qui favorisent un véritable dialogue entre elles. De tels programmes existent déjà dans certains pays, mais leur développement devrait être une priorité absolue. Ils peuvent offrir aux étudiants en sciences une perspective qui les rend plus aptes à relever les défis conceptuels de la science moderne et fournir aux philosophes une base solide de connaissances scientifiques qui maximisera leur impact sur la science. Les programmes d'enseignement des sciences peuvent inclure un cours d'histoire des sciences et de philosophie des sciences. Les programmes de philosophie pourraient inclure un module de sciences.

5) Lire science et philosophie. La lecture des sciences est indispensable à la pratique de la philosophie des sciences, mais la lecture de la philosophie peut également constituer une grande source d'inspiration pour les chercheurs, comme l'illustrent certains des exemples ci-dessus. Par exemple, les clubs de lecture où les contributions scientifiques et philosophiques sont discutées constituent un moyen efficace d'intégrer la philosophie et la science.

6) Ouvrir de nouvelles sections consacrées aux questions philosophiques et conceptuelles dans les revues scientifiques. Cette stratégie serait un moyen approprié et convaincant de suggérer que le travail philosophique et conceptuel est continu avec le travail expérimental, dans la mesure où il est inspiré par celui-ci, et peut l'inspirer en retour. Cela rendrait également les réflexions philosophiques sur un domaine scientifique particulier beaucoup plus visibles pour la communauté scientifique concernée que lorsqu'elles sont publiées dans des revues de philosophie, qui sont rarement lues par les scientifiques.

Nous espérons que les mesures pratiques exposées ci-dessus encourageront une renaissance de l'intégration de la science et de la philosophie. En outre, nous soutenons que le maintien d'une allégeance étroite à la philosophie renforcera la vitalité de la science. La science moderne sans la philosophie se heurtera à un mur : le déluge de données dans chaque domaine rendra l'interprétation de plus en plus difficile, négligence et ampleur ampleur de l'histoire risquent de séparer davantage les sous-disciplines scientifiques, et l'accent mis sur les méthodes et les résultats empiriques entraînera une formation de moins en moins approfondie des étudiants. Comme l'a écrit Carl Woese : "une société qui permet à la biologie de devenir une discipline d'ingénierie, qui permet à la science de se glisser dans le rôle de modifier le monde vivant sans essayer de le comprendre, est un danger pour elle-même." Nous avons besoin d'une revigoration de la science à tous les niveaux, une revigoration qui nous rende les bénéfices de liens étroits avec la philosophie.

Auteur: Internet

Info: https://hal.archives-ouvertes.fr/hal-02269657/document. " janvier 2020. Publication collective de Lucie Laplane, Paolo Mantovani, Ralph Adolphs, Hasok Chang, Alberto Mantovani, Margaret McFall-Ngai, Carlo Rovelli, Elliott Sober, et Thomas Pradeua. Trad Mg

[ mécanisme ] [ état des lieux ] [ corps-esprit ] [ tétravalences ] [ tour d'horizon ]

 

Commentaires: 0

Ajouté à la BD par miguel

résonances organiques

Les avantages sociaux de la synchronisation de notre cerveau

Nos ondes cérébrales peuvent s'aligner lorsque nous travaillons et jouons en étroite collaboration. Le phénomène, connu sous le nom de synchronisation inter-cerveau, suggère que la collaboration est biologique.

(Photo : De plus en plus de recherches montrent comment l’activité neuronale peut se synchroniser entre plusieurs personnes, ce qui entraîne de meilleurs résultats sociaux et créatifs.)

Le célèbre duo de pianos polonais Marek et Wacek n'utilisait pas de partitions lors de ses concerts live. Et pourtant, sur scène, le duo semblait parfaitement synchronisé. Sur des pianos adjacents, ils reprenaient de manière ludique divers thèmes musicaux, mêlé musique classique et jazz et improvisé en temps réel. "Nous avons suivi le courant", a déclaré Marek Tomaszewski, qui a joué avec Wacek Kisielewski jusqu'à la mort de Wacek en 1986. "C'était un pur plaisir."

Les pianistes semblaient lire dans les pensées des autres en échangeant des regards. C’était, dit Marek, comme s’ils étaient sur la même longueur d’onde. Un nombre croissant de recherches suggèrent que cela aurait pu être littéralement vrai.

Des dizaines d'expériences récentes étudiant l'activité cérébrale de personnes qui se produisent et travaillent ensemble – pianistes en duo, joueurs de cartes, enseignants et étudiants, puzzleurs et autres – montrent que leurs ondes cérébrales peuvent s'aligner dans un phénomène connu sous le nom de synchronisation neuronale interpersonnelle, également connue sous le nom de synchronie inter-cerveau.

"De nombreuses recherches montrent désormais que les personnes qui interagissent ensemble présentent des activités neuronales coordonnées", a déclaré Giacomo Novembre, neuroscientifique cognitif à l'Institut italien de technologie de Rome, qui a publié l'été dernier un article clé sur ce sujet. Les études se sont multipliées au cours des dernières années – notamment la semaine dernière – au fur et à mesure que de nouveaux outils et des techniques améliorées ont affiné la science et la théorie.

Ils montrent que la synchronisation entre les cerveaux présente des avantages. Qui conduit à une meilleure résolution de problèmes, à un meilleur apprentissage et à une meilleure coopération, et même à des comportements qui aident les autres à leur dépens. De plus, des études récentes dans lesquelles les cerveaux ont été stimulés par un courant électrique suggèrent que la synchronisation elle-même pourrait entraîner l'amélioration des performances observée par les scientifiques.

" La cognition est quelque chose qui se produit non seulement dans le crâne, mais aussi en relation avec l'environnement et avec les autres ", a déclaré Guillaume Dumas, professeur de psychiatrie computationnelle à l'Université de Montréal. Comprendre quand et comment nos cerveaux se synchronisent pourrait nous aider à communiquer plus efficacement, à concevoir de meilleures salles de classe et à aider les équipes à coopérer.

Se synchroniser


Les humains, comme les autres animaux sociaux, ont tendance à synchroniser leurs comportements. Si vous marchez à côté de quelqu’un, vous commencerez probablement à marcher au pas. Si deux personnes s’assoient côte à côte dans des fauteuils à bascule, il y a de fortes chances qu’elles commencent à se balancer au même rythme.

Une telle synchronisation comportementale, selon les recherches, nous rend plus confiants, nous aide à créer des liens et stimule nos instincts sociaux. Dans une étude, danser de manière synchronisée permettait aux participants de se sentir émotionnellement proches les uns des autres – bien plus que pour les groupes qui se déplaçaient de manière asynchrone. Dans une autre étude, les participants qui scandaient des mots de manière rythmée étaient plus susceptibles de coopérer à un jeu d'investissement. Même une simple marche à l'unisson avec une personne issue d'une minorité ethnique peut réduire les préjugés.

" La coordination est une caractéristique de l’interaction sociale. C'est vraiment crucial " a déclaré Novembre. "Lorsque la coordination est altérée, l'interaction sociale est profondément altérée."

Lorsque nos mouvements se coordonnent, une myriade de synchronisations invisibles à l’œil nu se produisent également à l’intérieur de notre corps. Quand les gens tambourinent ensemble, leurs cœurs battent ensemble. Les fréquences cardiaques des thérapeutes et de leurs patients peuvent se synchroniser pendant les séances (surtout si la relation thérapeutique fonctionne bien), tout comme celles des couples mariés. D’autres processus physiologiques, tels que notre rythme respiratoire et nos niveaux de conductance cutanée, peuvent également correspondre à ceux d’autres personnes.

(Photo : Ce n’est qu’au cours des 20 dernières années qu’est apparue une technologie permettant aux neuroscientifiques d’étudier la synchronisation inter-cerveau. L'hyperscanning utilise la spectroscopie fonctionnelle proche infrarouge, portée sur un appareil semblable à un bonnet de bain, pour surveiller l'activité neuronale de plusieurs individus s'engageant socialement.)

L’activité de notre cerveau peut-elle se synchroniser ? En 1965, la revue Science a publié les résultats d’une expérience suggérant que c’était possible. Des scientifiques de l'Université Thomas Jefferson de Philadelphie ont testé des paires de jumeaux identiques en insérant des électrodes sous leur cuir chevelu pour mesurer leurs ondes cérébrales – une technique appelée électroencéphalographie. Les chercheurs ont rapporté que lorsque les jumeaux restaient dans des pièces séparées, si l’un d’eux fermait les yeux, les ondes cérébrales des deux reflétaient le même mouvement. Les pointes sur l'électroencéphalographe de l'un des jumeaux reflétaient celles de l'autre. L’étude était cependant erronée sur le plan méthodologique. Les chercheurs avaient testé plusieurs paires de jumeaux mais n'avaient publié les résultats que pour la paire dans laquelle ils avaient observé une synchronie. Voilà qui n’a pas aidé ce domaine universitaire en plein essor. Pendant des décennies, la recherche sur la synchronisation intercérébrale fut donc reléguée dans la catégorie des " étranges bizarreries paranormales " et n’a pas été prise au sérieux.

La réputation du domaine a commencé à changer au début des années 2000 avec la popularisation de l' hyperscanning, une technique qui permet aux scientifiques de scanner simultanément le cerveau de plusieurs personnes en interaction. Au début, cela impliquait de demander à des paires de volontaires de s'allonger dans des appareils d'IRMf séparés, ce qui limitait considérablement les types d'études que les scientifiques pouvaient réaliser. Les chercheurs ont finalement pu utiliser la spectroscopie fonctionnelle proche infrarouge (fNIRS), qui mesure l'activité des neurones dans les couches externes du cortex. Le grand avantage de cette technologie est sa facilité d'utilisation : les volontaires peuvent jouer de la batterie ou étudier dans une salle de classe tout en portant des bonnets fNIRS, qui ressemblent à des bonnets de bain avec une multitude de câbles qui dépassent.

Lorsque plusieurs personnes  interagissent tout en portant des casquettes fNIRS, les scientifiques ont commencé à découvrir une activité interneurale synchronisée dans des régions du cerveau, qui variaient selon la tâche et la configuration de l'étude. Ils ont également observé des ondes cérébrales, qui représentent des schémas électriques dans le déclenchement neuronal, se synchronisant sur plusieurs fréquences. Sur une lecture électroencéphalographique de deux cerveaux synchronisés, les lignes représentant l'activité neuronale de chaque personne fluctuent ensemble : chaque fois que l'une monte ou descend, l'autre fait de même, bien que parfois avec un décalage dans le temps. Parfois, des ondes cérébrales apparaissent dans des images en miroir – lorsque celles d’une personne montent, celles de l’autre descendent en même temps et avec une ampleur similaire – ce que certains chercheurs considèrent également comme une forme de synchronie.

Avec de nouveaux outils, il est devenu de plus en plus clair que la synchronisation inter-cerveau n’était ni un charabia métaphysique ni le produit de recherches erronées. "Le signal est définitivement là", a déclaré Antonia Hamilton , neuroscientifique sociale à l'University College de Londres. Ce qui s'est avéré plus difficile à comprendre, c'est comment deux cerveaux indépendants, dans deux corps distincts, pouvaient montrer une activité similaire dans l'espace. Maintenant, dit Hamilton, la grande question est : " Qu’est-ce que cela nous raconte ? "

La recette de la synchronisation

Novembre est fasciné depuis longtemps par la manière dont les humains se coordonnent pour atteindre des objectifs communs. Comment les musiciens – les pianistes en duo, par exemple – collaborent-ils si bien ? Pourtant, c'est en pensant aux animaux, comme les lucioles synchronisant leurs flashs, qu'il s'est mis sur la voie de l'étude des ingrédients nécessaires à l'apparition de la synchronisation inter-cerveau.

Étant donné que la synchronie est " si répandue parmi tant d’espèces différentes ", se souvient-il, " je me suis dit : OK, alors il pourrait y avoir un moyen très simple de l’expliquer. "

Novembre et ses collègues ont mis en place une expérience, publiée l'été dernier , dans laquelle des paires de volontaires ne faisaient que s'asseoir l'un en face de l'autre tandis qu'un équipement photographique suivait les mouvements de leurs yeux, de leur visage et de leur corps. Parfois, les volontaires pouvaient se voir ; à d'autres moments, ils étaient séparés par une cloison. Les chercheurs ont découvert que dès que les volontaires se regardaient dans les yeux, leurs ondes cérébrales se synchronisaient instantanément. Le sourire s’est avéré encore plus puissant pour aligner les ondes cérébrales.

" Il y a quelque chose de spontané dans la synchronisation", a déclaré Novembre.

Le mouvement est également lié à l’activité synchronisée des ondes cérébrales. Dans l'étude de Novembre, lorsque les gens bougeaient leur corps de manière synchronisée – si, par exemple, l'un levait la main et que l'autre faisait de même – leur activité neuronale correspondait, avec un léger décalage. Cependant, la synchronisation intercérébrale va au-delà de la simple reproduction des mouvements physiques. Dans une étude publiée l'automne dernier sur des pianistes jouant en duo, une rupture de la synchronisation comportementale n'a pas provoqué la désynchronisation des deux cerveaux.

Un autre ingrédient important de la synchronisation neuronale "face à face" semble être la prédiction mutuelle : anticiper les réponses et les comportements d'une autre personne. Chaque personne " bouge ses mains, son visage ou son corps, ou parle ", a expliqué Hamilton, " et réagit également aux actions de l'autre personne ". Par exemple, lorsque les gens jouaient au jeu de cartes italien Tressette, l'activité neuronale des partenaires se synchronisait, mais le cerveau de leurs adversaires ne s'alignait pas avec eux.

Le partage d’objectifs et l’attention commune semblent souvent cruciaux pour la synchronisation inter-cerveau. Dans une expérience menée en Chine, des groupes de trois personnes ont dû coopérer pour résoudre un problème. Se présenta un problème : l'un des membres de l'équipe était un chercheur qui faisait seulement semblant de s'engager dans la tâche, hochant la tête et commentant lorsque c'était approprié, mais ne se souciant pas vraiment du résultat. Son cerveau ne se synchronisait pas avec celui des véritables membres de l'équipe.

Cependant, certains critiques affirment que l’apparition d’une activité cérébrale synchronisée n’est pas la preuve d’une quelconque connexion, mais peut plutôt s’expliquer par la réaction des personnes à un environnement partagé. " Imaginez deux personnes écoutant la même station de radio dans deux pièces différentes ", a écrit Clay Holroyd, neuroscientifique cognitif à l'Université de Gand en Belgique qui n'étudie pas la synchronisation intercérébrale, dans un article de 2022 . "La synchronisation inter-cerveau pourrait augmenter pendant les chansons qu'ils apprécient  ensemble par rapport aux chansons qu'ils trouvent tous deux ennuyeuses, mais cela ne serait pas une conséquence d'un couplage direct de cerveau à cerveau."

Pour tester cette critique, des scientifiques de l'Université de Pittsburgh et de l'Université Temple ont conçu une expérience dans laquelle les participants travaillaient différemment sur une tâche ciblée : terminer un puzzle . Les volontaires ont soit assemblé un puzzle en collaboration, soit travaillé sur des puzzles identiques séparément, côte à côte. Même s’il existait une certaine synchronisation interneurale entre les chercheurs travaillant de manière indépendante, elle était bien plus importante chez ceux qui collaboraient.

Pour Novembre, ces découvertes et d’autres similaires suggèrent que la synchronisation intercérébrale est plus qu’un artefact environnemental. "Tant que vous mesurerez le cerveau lors d'une interaction sociale, vous devrez toujours faire face à ce problème", a-t-il déclaré. "Les cerveaux en interaction sociale seront exposés à des informations similaires."

(Photo : La Mutual Wave Machine, qui a fait le tour des villes du monde entier de 2013 à 2019, permet aux passants d'explorer la synchronisation intercérébrale par paires tout en générant des données pour la recherche en neurosciences.)

À moins qu’ils ne soient à des endroits différents, bien sûr. Pendant la pandémie, les chercheurs se sont intéressés à comprendre comment la synchronisation intercérébrale pourrait changer lorsque les gens parlent face à face par vidéo. Dans une étude, publiée fin 2022 , Dumas et ses collègues ont mesuré l'activité cérébrale des mères et de leurs préadolescents lorsqu'ils communiquaient par vidéo en ligne. Les cerveaux des couples étaient à peine synchronisés, bien moins que lorsqu'ils parlaient en vrai. Une telle mauvaise synchronisation inter-cerveau en ligne pourrait aider à expliquer pourquoi les réunions Zoom ont tendance à être si fatigantes, selon les auteurs de l'étude.

"Il manque beaucoup de choses dans un appel Zoom par rapport à une interaction en face à face", a déclaré Hamilton, qui n'a pas participé à la recherche. " Votre contact visuel est un peu différent parce que le positionnement de la caméra est incorrect. Plus important encore, votre attention commune est différente."

Identifier les ingrédients nécessaires à l'apparition de la synchronisation inter-cerveau – qu'il s'agisse d'un contact visuel, d'un sourire ou du partage d'un objectif – pourrait nous aider à mieux profiter des avantages de la synchronisation avec les autres. Lorsque nous sommes sur la même longueur d’onde, les choses deviennent tout simplement plus faciles.

Avantages émergents

La neuroscientifique cognitive Suzanne Dikker aime exprimer son côté créatif en utilisant l'art pour étudier le fonctionnement du cerveau humain. Pour capturer la notion insaisissable d’être sur la même longueur d’onde, elle et ses collègues ont créé la Mutual Wave Machine : mi-installation artistique, mi-expérience neurologique. Entre 2013 et 2019, les passants de diverses villes du monde – Madrid, New York, Toronto, Athènes, Moscou et autres – ont pu faire équipe avec une autre personne pour explorer la synchronisation interneurale. Ils sont assis dans deux structures en forme de coquille se faisant face tout en portant un casque électroencéphalographe pour mesurer leur activité cérébrale. Pendant qu’ils interagissent pendant 10 minutes, les coquilles s’éclairent avec des projections visuelles qui servaient de neurofeedback : plus les projections sont lumineuses, plus leurs ondes cérébrales sont couplées. Cependant, certaines paires n'étaient pas informées que la luminosité des projections reflétait leur niveau de synchronisation, tandis que d'autres voyaient de fausses projections.

Lorsque Dikker et ses collègues ont analysé les résultats, publiés en 2021, ils ont découvert que les couples qui savaient qu'ils voyaient du neurofeedback se synchronisaient davantage avec le temps – un effet motivé par leur motivation à rester concentrés sur leur partenaire, ont expliqué les chercheurs. Plus important encore, leur synchronisation accrue a augmenté le sentiment de connexion sociale entre les deux. Il est apparu qu’être sur la même longueur d’onde cérébrale pourrait aider à établir des relations.

Dikker a également étudié cette idée dans un cadre moins artistique : la salle de classe. Dans une salle de classe de fortune dans un laboratoire, un professeur de sciences du secondaire encadrait des groupes de quatre élèves maximum pendant que Dikker et ses collègues enregistraient leur activité cérébrale. Dans une étude publiée sur le serveur de prépublication biorxiv.org en 2019, les chercheurs ont rapporté que plus les cerveaux des étudiants et de l'enseignant étaient synchronisés, plus les étudiants retenaient le matériel lorsqu'ils étaient testés une semaine plus tard. Une analyse de 2022 portant sur 16 études a confirmé que la synchronisation intercérébrale est effectivement liée à un meilleur apprentissage.

" La personne qui prête le plus d'attention ou qui s'accroche le mieux au signal de l'orateur sera également la plus synchronisée avec d'autres personnes qui accordent également la plus grande attention à ce que dit l'orateur ", a déclaré Dikker.

Ce n'est pas seulement l'apprentissage qui semble stimulé lorsque nos cerveaux sont synchronisés, mais également les performances et la coopération de l'équipe. Dans une autre étude réalisée par Dikker et ses collègues, des groupes de quatre personnes ont réfléchi à des utilisations créatives d'une brique ou classé des éléments essentiels pour survivre à un accident d'avion. Les résultats ont montré que plus leurs ondes cérébrales étaient synchronisées, mieux ils effectuaient ces tâches en groupe. Entre-temps, d'autres études ont montré que les équipes neuronales synchronisées non seulement communiquent mieux, mais surpassent également les autres dans les activités créatives telles que l'interprétation de la poésie .

Alors que de nombreuses études ont établi un lien entre la synchronisation intercérébrale et un meilleur apprentissage et de meilleures performances, la question reste de savoir si la synchronisation entraîne réellement de telles améliorations. Serait-ce plutôt une mesure d’engagement ? "Les enfants qui prêtent attention à l'enseignant feront preuve d'une plus grande synchronisation avec cet enseignant parce qu'ils sont plus engagés", a déclaré Holroyd. "Mais cela ne signifie pas que les processus synchrones contribuent réellement d'une manière ou d'une autre à l'interaction et à l'apprentissage."

Pourtant, les expériences sur les animaux suggèrent que la synchronisation neuronale peut effectivement conduire à des changements de comportement. Lorsque l’activité neuronale des souris était mesurée en leur faisant porter de minuscules capteurs en forme de chapeau haut de forme, par exemple, la synchronisation inter-cerveau prédisait si et comment les animaux interagiraient dans le futur. "C'est une preuve assez solide qu'il existe une relation causale entre les deux", a déclaré Novembre.

Chez l’homme, les preuves les plus solides proviennent d’expériences utilisant la stimulation électrique du cerveau pour générer une synchronisation interneurale. Une fois les électrodes placées sur le cuir chevelu des personnes, des courants électriques peuvent passer entre les électrodes pour synchroniser l’activité neuronale du cerveau des personnes. En 2017, Novembre et son équipe ont réalisé la première de ces expériences. Les résultats suggèrent que la synchronisation des ondes cérébrales dans la bande bêta, liée aux fonctions motrices, améliore la capacité des participants à synchroniser les mouvements de leur corps – dans ce cas, en frappant un rythme avec leurs doigts.

Plusieurs études ont récemment reproduit les conclusions de Novembre. Fin 2023, des chercheurs ont découvert qu'une fois les ondes cérébrales synchronisées par stimulation électrique, leur capacité à coopérer dans un jeu informatique simple s'améliorait considérablement. Et l'été dernier d'autres scientifiques ont montré qu'une fois que deux cerveaux sont synchronisés, les gens parviennent mieux à transférer des informations et à se comprendre.

La science est nouvelle, donc le jury ne sait toujours pas s'il existe un véritable lien de causalité entre la synchronie et le comportement humain coopératif. Malgré cela, la science de la synchronisation neuronale nous montre déjà à quel point nous bénéficions lorsque nous faisons les choses en synchronisation avec les autres. Sur le plan biologique, nous sommes programmés pour nous connecter.


Auteur: Internet

Info: https://www.quantamagazine.org/ - Marta Zaraska, 28 mars 2024

[ intelligence collective ] [ manipulation du public ] [ collectives réverbérations ] [ implication ] [ rapports humains ] [ transe ] [ attention partagée ] [ murmurations ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste