Citation
Catégorie
Tag – étiquette
Auteur
Info
Rechercher par n'importe quelle lettre



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits... Recherche mots ou phrases tous azimuts... Outil de précision sémantique et de réflexion communautaire... Voir aussi la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats ... Lire la suite >>
Résultat(s): 5310
Temps de recherche: 0.0533s

univers protonique

Forces tourbillonnantes et pressions d’écrasement mesurées dans le proton

Des expériences très attendues qui utilisent la lumière pour imiter la gravité révèlent pour la première fois la répartition des énergies, des forces et des pressions à l’intérieur d’une particule subatomique.

(Image : Les forces poussent dans un sens près du centre du proton et dans l’autre sens près de sa surface.)

Les physiciens ont commencé à explorer le proton comme s’il s’agissait d’une planète subatomique. Les cartes en coupe affichent de nouveaux détails de l'intérieur de la particule. Le noyau du proton présente des pressions plus intenses que dans toute autre forme connue de matière. À mi-chemin de la surface, des tourbillons de force s’affrontent les uns contre les autres. Et la " planète " dans son ensemble est plus petite que ne le suggéraient les expériences précédentes.

Les recherches expérimentales marquent la prochaine étape dans la quête visant à comprendre la particule qui ancre chaque atome et constitue la majeure partie de notre monde.

"Nous y voyons vraiment l'ouverture d'une direction complètement nouvelle qui changera notre façon de considérer la structure fondamentale de la matière", a déclaré Latifa Elouadrhiri , physicienne au Thomas Jefferson National Accelerator Facility à Newport News, en Virginie, qui participe à l'effort.

Les expériences jettent littéralement un nouvel éclairage sur le proton. Au fil des décennies, les chercheurs ont méticuleusement cartographié l’influence électromagnétique de la particule chargée positivement. Mais dans la nouvelle recherche, les physiciens du Jefferson Lab cartographient plutôt l'influence gravitationnelle du proton, à savoir la répartition des énergies, des pressions et des contraintes de cisaillement, qui courbent le tissu espace-temps dans et autour de la particule. Pour ce faire, les chercheurs exploitent une manière particulière par laquelle des paires de photons, des particules de lumière, peuvent imiter un graviton, la particule supposée qui transmet la force de gravité. En envoyant un ping au proton avec des photons, ils déduisent indirectement comment la gravité interagirait avec lui, réalisant ainsi un rêve vieux de plusieurs décennies consistant à interroger le proton de cette manière alternative.

"C'est un tour de force", a déclaré Cédric Lorcé , physicien à l'Ecole Polytechnique en France, qui n'a pas participé aux travaux. "Expérimentalement, c'est extrêmement compliqué." 

Des photons aux gravitons


Les physiciens ont appris énormément sur le proton au cours des 70 dernières années en le frappant à plusieurs reprises avec des électrons. Ils savent que sa charge électrique s’étend sur environ 0,8 femtomètre, ou quadrillionièmes de mètre, à partir de son centre. Ils savent que les électrons entrants ont tendance à être projetés sur l’un des trois quarks – des particules élémentaires avec des fractions de charge – qui bourdonnent à l’intérieur. Ils ont également observé la conséquence profondément étrange de la théorie quantique où, lors de collisions plus violentes, les électrons semblent rencontrer une mer mousseuse composée de bien plus de quarks ainsi que de gluons, porteurs de la force dite forte, qui colle les quarks ensemble.

Toutes ces informations proviennent d’une seule configuration : vous lancez un électron sur un proton, et les particules échangent un seul photon – le porteur de la force électromagnétique – et se repoussent. Cette interaction électromagnétique indique aux physiciens comment les quarks, en tant qu'objets chargés, ont tendance à s'organiser. Mais le proton a bien plus à offrir que sa charge électrique.

(Photo : Latifa Elouadrhiri, scientifique principale du laboratoire Jefferson, a dirigé la collecte de données à partir desquelles elle et ses collaborateurs calculent désormais les propriétés mécaniques du proton.) 

" Comment la matière et l'énergie sont-elles distribuées ? " a demandé Peter Schweitzer , physicien théoricien à l'Université du Connecticut. "Nous ne savons pas."

Schweitzer a passé la majeure partie de sa carrière à réfléchir au côté gravitationnel du proton. Plus précisément, il s'intéresse à une matrice de propriétés du proton appelée tenseur énergie-impulsion. " Le tenseur énergie-impulsion sait tout ce qu'il y a à savoir sur la particule ", a-t-il déclaré.

Dans la théorie de la relativité générale d'Albert Einstein, qui présente l'attraction gravitationnelle comme des objets suivant des courbes dans l'espace-temps, le tenseur énergie-impulsion indique à l'espace-temps comment se plier. Elle décrit, par exemple, la disposition de l'énergie (ou, de manière équivalente, de la masse) – la source de ce qui est la part du lion de la torsion de l'espace-temps. Elle permet également d'obtenir des informations sur la répartition de la dynamique, ainsi que sur les zones de compression ou d'expansion, ce qui peut également donner une légère courbure à l'espace-temps.

Si nous pouvions connaître la forme de l'espace-temps entourant un proton, élaborée indépendamment par des physiciens russes et   américains dans les années 1960, nous pourrions en déduire toutes les propriétés indexées dans son tenseur énergie-impulsion. Celles-ci incluent la masse et le spin du proton, qui sont déjà connus, ainsi que l'agencement des pressions et des forces du proton, une propriété collective que les physiciens nomment " Druck term ", d'après le mot " pression"  en allemand. Ce terme est " aussi important que la masse et la rotation, et personne ne sait ce que c'est ", a déclaré Schweitzer – même si cela commence à changer.

Dans les années 60, il semblait que la mesure du tenseur énergie-momentum et le calcul du terme de Druck nécessiteraient une version gravitationnelle de l'expérience de diffusion habituelle : On envoie une particule massive sur un proton et on laisse les deux s'échanger un graviton - la particule hypothétique qui constitue les ondes gravitationnelles - plutôt qu'un photon. Mais en raison de l'extrême subtilité de la gravité, les physiciens s'attendent à ce que la diffusion de gravitons se produise 39 fois plus rarement que la diffusion de photons. Les expériences ne peuvent pas détecter un effet aussi faible.

"Je me souviens avoir lu quelque chose à ce sujet quand j'étais étudiant", a déclaré Volker Burkert , membre de l'équipe du Jefferson Lab. Ce qu’il faut retenir, c’est que " nous ne pourrons probablement jamais rien apprendre sur les propriétés mécaniques des particules ".Gravitation sans gravité

Les expériences gravitationnelles sont encore inimaginables aujourd’hui. Mais les recherches menées en fin des années 1990 et au début des années 2000 par les physiciens Xiangdong Ji et, travaillant séparément, feu Maxim Polyakov, ont révélé une solution de contournement.

Le schéma général est le suivant. Lorsque vous tirez légèrement un électron sur un proton, il délivre généralement un photon à l'un des quarks et le détourne. Mais lors d’un événement sur un milliard, quelque chose de spécial se produit. L’électron entrant envoie un photon. Un quark l'absorbe puis émet un autre photon un battement de cœur plus tard. La principale différence est que cet événement rare implique deux photons au lieu d’un : des photons entrants et sortants. Les calculs de Ji et Polyakov ont montré que si les expérimentateurs pouvaient collecter les électrons, protons et photons résultants, ils pourraient déduire des énergies et des impulsions de ces particules ce qui s'est passé avec les deux photons. Et cette expérience à deux photons serait essentiellement aussi informative que l’impossible expérience de diffusion de gravitons.

Comment deux photons pourraient-ils connaître la gravité ? La réponse fait appel à des mathématiques très complexes. Mais les physiciens proposent deux façons de comprendre pourquoi cette astuce fonctionne.

Les photons sont des ondulations dans le champ électromagnétique, qui peuvent être décrites par une seule flèche, ou vecteur, à chaque emplacement de l'espace indiquant la valeur et la direction du champ. Les gravitons seraient des ondulations dans la géométrie de l’espace-temps, un domaine plus complexe représenté par une combinaison de deux vecteurs en chaque point. Capturer un graviton donnerait aux physiciens deux vecteurs d’informations. En dehors de cela, deux photons peuvent remplacer un graviton, puisqu’ils transportent également collectivement deux vecteurs d’information.

Une interprétation mathématiques alternative est celle-ci. Pendant le moment qui s'écoule entre le moment où un quark absorbe le premier photon et celui où il émet le second, le quark suit un chemin à travers l'espace. En sondant ce chemin, nous pouvons en apprendre davantage sur des propriétés telles que les pressions et les forces qui entourent le chemin.

"Nous ne faisons pas d'expérience gravitationnelle", a déclaré Lorcé. Mais " nous devrions obtenir un accès indirect à la manière dont un proton devrait interagir avec un graviton ". 

Sonder la planète Proton
En 2000, les physiciens du Jefferson Lab ont réussi à obtenir quelques résultats de diffusion à deux photons. Cette démonstration de faisabilité les a incités à construire une nouvelle expérience et, en 2007, ils ont fait entrer des électrons dans des protons suffisamment de fois pour obtenir environ 500 000 collisions imitant les gravitons. L'analyse des données expérimentales a pris une décennie de plus.

À partir de leur index des propriétés de flexion de l’espace-temps, l’équipe a extrait le terme insaisissable de Druck, publiant son estimation des pressions internes du proton dans Nature en 2018.

Ils ont découvert qu’au cœur du proton, la force puissante génère des pressions d’une intensité inimaginable : 100 milliards de milliards de milliards de pascals, soit environ 10 fois la pression au cœur d’une étoile à neutrons. Plus loin du centre, la pression chute et finit par se retourner vers l'intérieur, comme c'est nécessaire pour que le proton ne se brise pas. "Voilà qui résulte de l'expérience", a déclaré Burkert. "Oui, un proton est réellement stable." (Cette découverte n’a cependant aucune incidence sur la désintégration des protons , ce qui implique un type d’instabilité différent prédit par certaines théories spéculatives.)

Le groupe Jefferson Lab a continué à analyser le terme Druck. Ils ont publié une estimation des forces de cisaillement (forces internes poussant parallèlement à la surface du proton) dans le cadre d'une étude publiée en décembre. Les physiciens ont montré que près de son noyau, le proton subit une force de torsion qui est neutralisée par une torsion dans l’autre sens plus près de la surface. Ces mesures soulignent également la stabilité de la particule. Les rebondissements étaient attendus sur la base des travaux théoriques de Schweitzer et Polyakov. "Néanmoins, le voir émerger de l'expérience pour la première fois est vraiment stupéfiant", a déclaré Elouadrhiri.

Ils utilisent désormais ces outils pour calculer la taille du proton d'une nouvelle manière. Dans les expériences de diffusion traditionnelles, les physiciens avaient observé que la charge électrique de la particule s'étendait à environ 0,8 femtomètre de son centre (c'est-à-dire que les quarks qui la composent bourdonnent dans cette région). Mais ce " rayon de charge " présente quelques bizarreries. Dans le cas du neutron, par exemple — l'équivalent neutre du proton, dans lequel deux quarks chargés négativement ont tendance à rester profondément à l'intérieur de la particule tandis qu'un quark chargé positivement passe plus de temps près de la surface — le rayon de charge apparaît comme un nombre négatif.  "Cela ne veut pas dire que la taille est négative ; ce n'est tout simplement pas une mesure fiable ", a déclaré Schweitzer.

La nouvelle approche mesure la région de l’espace-temps considérablement courbée par le proton. Dans une prépublication qui n'a pas encore été évaluée par des pairs, l'équipe du Jefferson Lab a calculé que ce rayon pourrait être environ 25 % plus petit que le rayon de charge, soit seulement 0,6 femtomètre.

Les limites de la planète Proton

D'un point de vue conceptuel, ce type d'analyse adoucit la danse floue des quarks pour en faire un objet solide, semblable à une planète, avec des pressions et des forces agissant sur chaque point de volume. Cette planète gelée ne reflète pas entièrement le proton bouillonnant dans toute sa gloire quantique, mais c'est un modèle utile. "C'est une interprétation", a déclaré M. Schweitzer.

Et les physiciens soulignent que ces cartes initiales sont approximatives, pour plusieurs raisons.

Premièrement, mesurer avec précision le tenseur énergie-impulsion nécessiterait des énergies de collision beaucoup plus élevées que celles que Jefferson Lab peut produire. L’équipe a travaillé dur pour extrapoler soigneusement les tendances à partir des énergies relativement faibles auxquelles elles peuvent accéder, mais les physiciens ne sont toujours pas sûrs de la précision de ces extrapolations.

(Photo : Lorsqu'il était étudiant, Volker Burkert a lu qu'il était impossible de mesurer directement les propriétés gravitationnelles du proton. Aujourd'hui, il participe à une collaboration au laboratoire Jefferson qui est en train de découvrir indirectement ces mêmes propriétés.)

De plus, le proton est plus que ses quarks ; il contient également des gluons, qui se déplacent sous leurs propres pressions et forces. L'astuce à deux photons ne peut pas détecter les effets des gluons. Une autre équipe du Jefferson Lab a utilisé une astuce analogue ( impliquant une interaction double-gluon ) pour publier l'année dernière une carte gravitationnelle préliminaire de ces effets des gluons dans Nature, mais elle était également basée sur des données limitées et à faible énergie.

"C'est une première étape", a déclaré Yoshitaka Hatta, physicien au Brookhaven National Laboratory qui a eu l'idée de commencer à étudier le proton gravitationnel après les travaux du groupe Jefferson Lab en 2018.

Des cartes gravitationnelles plus précises des quarks du proton et de ses gluons pourraient être disponibles dans les années 2030, lorsque le collisionneur électron-ion, une expérience actuellement en construction à Brookhaven, entrera en activité.

Pendant ce temps, les physiciens poursuivent leurs expériences numériques. Phiala Shanahan, physicienne nucléaire et des particules au Massachusetts Institute of Technology, dirige une équipe qui calcule le comportement des quarks et des gluons à partir des équations de la force forte. En 2019, elle et ses collaborateurs ont estimé les pressions et les forces de cisaillement, et en octobre, en ont estimé le rayon, entre autres propriétés. Jusqu'à présent, leurs résultats numériques ont été largement alignés sur les résultats physiques du Jefferson Lab. "Je suis certainement très excitée par la cohérence entre les résultats expérimentaux récents et nos données", a déclaré Mme Shanahan.

Même les aperçus flous du proton obtenus jusqu'à présent ont légèrement remodelé la compréhension des chercheurs sur la particule.

Certaines conséquences sont pratiques. Au CERN, l'organisation européenne qui gère le Grand collisionneur de hadrons, le plus grand broyeur de protons au monde, les physiciens pensaient auparavant que dans certaines collisions rares, les quarks pouvaient se trouver n'importe où dans les protons en collision. Mais les cartes inspirées par la gravitation suggèrent que les quarks ont tendance à rester près du centre dans de tels cas.

"Les modèles utilisés au CERN ont déjà été mis à jour", a déclaré François-Xavier Girod, physicien du Jefferson Lab qui a travaillé sur les expériences.

Les nouvelles cartes pourraient également offrir des pistes pour résoudre l’un des mystères les plus profonds du proton : pourquoi les quarks se lient en protons. Il existe un argument intuitif selon lequel, comme la force puissante entre chaque paire de quarks s'intensifie à mesure qu'ils s'éloignent, comme un élastique, les quarks ne peuvent jamais échapper à leurs camarades.

Mais les protons sont fabriqués à partir des membres les plus légers de la famille des quarks. Et les quarks légers peuvent également être considérés comme de longues ondes s'étendant au-delà de la surface du proton. Cette image suggère que la liaison du proton pourrait se produire non pas via la traction interne de bandes élastiques, mais par une interaction externe entre ces quarks ondulés et étirés. La cartographie de pression montre l’attraction de la force forte s’étendant jusqu’à 1,4 femtomètres et au-delà, renforçant ainsi l’argument en faveur de ces théories alternatives.

"Ce n'est pas une réponse définitive", a déclaré Girod, "mais cela indique que ces simples images avec des bandes élastiques ne sont pas pertinentes pour les quarks légers."



Auteur: Internet

Info: https://filsdelapensee.ch - Charlie Bois, 14 mars 2024

[ chromodynamique quantique ]

 

Commentaires: 0

Ajouté à la BD par miguel

conscience-subconscient

Est-ce réel ou imaginaire ? Comment votre cerveau fait la différence.

De nouvelles expériences montrent que le cerveau fait la distinction entre les images mentales perçues et imaginées en vérifiant si elles franchissent un " seuil de réalité ".

Est-ce la vraie vie ? Est-ce juste un fantasme ?

Il ne s’agit pas seulement des paroles de la chanson " Bohemian Rhapsody " de Queen. Ce sont aussi les questions auxquelles le cerveau doit constamment répondre lorsqu’il traite les flux de signaux visuels provenant des yeux et les images purement mentales qui jaillissent de l’imagination. Des études sur les scanners cérébraux ont montré à plusieurs reprises que voir quelque chose et l’imaginer évoquent des schémas d’activité neuronale très similaires. Pourtant, pour la plupart d’entre nous, les expériences subjectives qu’ils produisent sont très différentes.

" Je peux regarder par ma fenêtre en ce moment même et, si je le souhaite, je peux imaginer une licorne marchant dans la rue ", a déclaré Thomas Naselaris, professeur associé à l'Université du Minnesota. La rue semblerait réelle et la licorne, non. " C'est très clair pour moi ", a-t-il déclaré. Le fait de savoir que les licornes sont mythiques n'a pas grand-chose à voir avec cela : un simple cheval blanc imaginaire semblerait tout aussi irréel.

Alors, " pourquoi n’avons-nous pas constamment des hallucinations ? ", s’interroge Nadine Dijkstra, chercheuse postdoctorale à l'University College de Londres. Une étude qu'elle a dirigée, récemment publiée dans Nature Communications, fournit une réponse intrigante : le cerveau évalue les images qu'il traite par rapport à un " seuil de réalité ". Si le signal dépasse ce seuil, le cerveau pense qu'il est réel ; si ce n'est pas le cas, il pense qu'il est imaginaire.

Un tel système fonctionne bien la plupart du temps car les signaux imaginaires sont généralement faibles. Mais si un signal imaginaire est suffisamment fort pour franchir le seuil, le cerveau le prend pour la réalité.

Bien que le cerveau soit très compétent pour évaluer les images dans notre esprit, il semble que " ce type de vérification de la réalité soit un sérieux conféit ", a déclaré Lars Muckli, professeur de neurosciences visuelles et cognitives à l'Université de Glasgow. Ces nouvelles découvertes soulèvent des questions quant à savoir si des variations ou des altérations dans ce système pourraient conduire à des hallucinations, des pensées invasives ou même à des rêves.

" Ils ont fait un excellent travail, à mon avis, en prenant un problème sur lequel les philosophes débattent depuis des siècles et en définissant des modèles avec des résultats prévisibles et en les testant ", a déclaré Naselaris.

Quand perceptions et imagination se mélangent

L’étude des images imaginées par Dijkstra est née au début de la pandémie de Covid-19, lorsque les quarantaines et les confinements ont interrompu son programme de travail. Par ennui, elle a commencé à parcourir la littérature scientifique sur l’imagination, puis a passé des heures à éplucher des articles pour trouver des récits historiques sur la manière dont les scientifiques ont testé un concept aussi abstrait. C’est ainsi qu’elle est tombée sur une étude de 1910 menée par la psychologue Mary Cheves West Perky.

Perky a demandé aux participants d’imaginer des fruits tout en regardant un mur blanc. Pendant qu’ils le faisaient, elle projetait secrètement des images extrêmement faibles de ces fruits – si faibles qu’elles étaient à peine visibles – sur le mur et demandait aux participants s’ils voyaient quelque chose. Aucun d’entre eux n’a pensé avoir vu quelque chose de réel, bien qu’ils aient commenté à quel point leur image imaginée semblait vivante. " Si je n’avais pas su que j’imaginais, j’aurais pensé que c’était réel ", a déclaré un participant.

(Photo : Une étude réalisée en 1910 par la psychologue Mary Cheves West Perky a révélé que lorsque nos perceptions correspondent à ce que nous imaginons, nous supposons que leurs entrées sont imaginaires. )

La conclusion de Perky était que lorsque notre perception de quelque chose correspond à ce que nous savons que nous imaginons, nous supposerons que c'est imaginaire. Cet effet est finalement connu en psychologie sous le nom d'effet Perky.* " C'est un grand classique ", a déclaré Bence Nanay(ouvre un nouvel onglet), professeur de psychologie philosophique à l’Université d’Anvers. " C’est devenu une sorte de chose obligatoire lorsqu'on écrivez sur l’imagerie de mettre son grain de sel sur l’expérience Perky. "

Dans les années 1970, la chercheuse en psychologie Sydney Joelson Segal a ravivé l’intérêt pour les travaux de Perky en actualisant et en modifiant l’expérience. Dans cette étude, Segal a demandé aux participants d’imaginer quelque chose, comme le paysage urbain de New York, tandis qu’elle projetait quelque chose d’autre sur le mur, comme une tomate. Ce que les participants voyaient était un mélange de l’image imaginée et de l’image réelle, comme le paysage urbain de New York au coucher du soleil. Les conclusions de Segal suggèrent que la perception et l’imagination peuvent parfois " littéralement se mélanger ", a déclaré Nanay.

Les études visant à reproduire les résultats de Perky n'ont pas toutes abouti. Certaines d'entre elles ont nécessité des essais répétés pour les participants, ce qui a brouillé les résultats : une fois que les gens savent ce que vous essayez de tester, ils ont tendance à modifier leurs réponses en fonction de ce qu'ils pensent être correct, a déclaré Naselaris.

Alors Dijkstra, sous la direction de Steve Fleming, expert en métacognition à l'University College de Londres, a mis au point une version moderne de l'expérience qui évite le problème. Dans leur étude, les participants n'ont jamais eu la possibilité de modifier leurs réponses car ils n'ont été testés qu'une seule fois. L'étude a modélisé et examiné l'effet Perky et deux autres hypothèses concurrentes sur la façon dont le cerveau distingue la réalité de l'imagination.

Réseaux d'évaluation

L'une de ces hypothèses alternatives affirme que le cerveau utilise les mêmes réseaux pour la réalité et l'imagination, mais que les scanners cérébraux par imagerie par résonance magnétique fonctionnelle (IRMf) n'ont pas une résolution suffisamment élevée pour que les neuroscientifiques puissent discerner les différences dans la façon dont ces réseaux sont utilisés. L'une des études de Muckli, par exemple, suggère que dans le cortex visuel du cerveau, qui traite les images, les expériences imaginaires sont codées dans une couche plus superficielle que les expériences réelles. 

Avec l'imagerie cérébrale fonctionnelle, " nous plissons les yeux ", explique Muckli. Dans chaque pixel d'un scanner cérébral, il y a environ 1 000 neurones, et nous ne pouvons pas voir ce que chacun d'eux fait.

L’autre hypothèse, suggérée par des études dirigé par Joel Pearson à l'Université de Nouvelle-Galles du Sud, c'est que les mêmes voies dans le cerveau codent à la fois l'imagination et la perception, mais l'imagination n'est qu'une forme plus faible de perception.

Pendant le confinement, Dijkstra et Fleming ont recruté des participants pour une étude en ligne. On leur a demandé de regarder une série d’images statiques et d’imaginer des lignes diagonales les traversant vers la droite ou la gauche. Entre chaque essai, on leur a demandé d’évaluer la vivacité de l’imagerie sur une échelle de 1 à 5. Ce que les participants ne savaient pas, c’est que lors du dernier essai, les chercheurs avaient imperceptiblement augmenté l’intensité d’une image projetée de lignes diagonales, inclinée soit dans la direction que les participants devaient imaginer, soit dans la direction opposée. Les chercheurs ont ensuite demandé aux participants si ce qu’ils voyaient était réel ou imaginaire.

Dijkstra s’attendait à ce que l’effet Perky soit observé : lorsque l’image imaginée correspond à l’image projetée, les participants voient la projection comme le produit de leur imagination.  Alors qu'ici les  participants considérèrent plus que l’image était réellement là.

Il y avait pourtant au moins un écho de l’effet Perky dans ces résultats : les participants qui pensaient que l’image était là la percevaient plus vivement que ceux qui pensaient qu’elle était le fruit de leur imagination.

Dans une deuxième expérience, Dijkstra et son équipe n'ont pas présenté d'image lors du dernier essai. Mais le résultat fut le même : les personnes qui estimaient que ce qu'elles voyaient était plus vivant étaient également plus susceptibles de le considérer comme réel.

Les observations suggèrent que les images que nous percevons dans notre esprit et les images réelles que nous percevons dans le monde se mélangent, a déclaré Dijkstra. " Lorsque ce signal mixte est suffisamment fort ou vif, nous pensons qu'il reflète la réalité. " Il est probable qu'il existe un seuil au-dessus duquel les signaux visuels semblent réels pour le cerveau et en dessous duquel ils semblent imaginaires, pense-t-elle. Mais il pourrait également y avoir un continuum plus progressif.

Pour comprendre ce qui se passe dans un cerveau qui tente de distinguer la réalité de l'imagination, les chercheurs ont réanalysé les scanners cérébraux d'une étude précédente dans laquelle 35 participants ont imaginé et perçu de manière vivante diverses images, allant des arrosoir  aux coqs.

Conformément à d’autres études, ils ont constaté que les schémas d’activité du cortex visuel dans les deux scénarios étaient très similaires. " Une image vive est plus proche de la perception, mais il n'est pas certain qu'une perception faible soit aussi de l'ordre de la visualisation. ", a déclaré Dijkstra. Certains indices laissaient penser que regarder une image faible pouvait produire un schéma similaire à celui de l’imagination, mais les différences n’étaient pas significatives et doivent être examinées plus en détail.

( Image, Les scanners des fonctions cérébrales montrent que les images imaginées et perçues déclenchent des schémas d’activité similaires, mais les signaux sont plus faibles pour les images imaginées (à gauche). )

Ce qui est sûr, c’est que le cerveau doit être capable de réguler avec précision la force d’une image mentale pour éviter toute confusion entre fantasme et réalité. " Le cerveau doit effectuer un exercice d’équilibre très délicat ", explique Naselaris. " Dans un certain sens, il va interpréter l’imagerie mentale aussi littéralement que l’imagerie visuelle. "

Ils ont donc découvert que la force du signal pouvait être lue ou régulée dans le cortex frontal, qui analyse les émotions et les souvenirs (entre autres fonctions). Mais on ne sait pas encore clairement ce qui détermine la vivacité d'une image mentale ou la différence entre la force du signal d'imagerie et le seuil de réalité. Il pourrait s'agir d'un neurotransmetteur, de modifications des connexions neuronales ou de quelque chose de totalement différent, a déclaré Naselaris.

Il pourrait même s'agir d'un sous-ensemble différent et non identifié de neurones qui fixe le seuil de réalité et dicte si un signal doit être détourné vers une voie pour les images imaginées ou une voie pour les images réellement perçues - une découverte qui relierait parfaitement les première et troisième hypothèses, a déclaré Muckli.

Même si les résultats sont différents de ses propres résultats, qui soutiennent la première hypothèse, Muckli apprécie leur raisonnement. C'est un " article passionnant ", a-t-il déclaré. Avec une " conclusion intrigante ".

Mais l'imagination est un processus qui implique bien plus que la simple observation de quelques lignes sur un fond bruyant, a déclaré Peter Tse, professeur de neurosciences cognitives au Dartmouth College. L'imagination, dit-il, c'est la capacité de regarder ce qu'il y a dans votre placard et de décider quoi préparer pour le dîner, ou (si vous êtes les frères Wright) de prendre une hélice, de la coller sur une aile et de l'imaginer voler.

Les différences entre les résultats de Perky et ceux de Dijkstra pourraient être entièrement dues à des différences dans leurs procédures. Mais elles laissent également entrevoir une autre possibilité : notre perception du monde pourrait être différente de celle de nos ancêtres.

Selon Dijkstra, son étude ne s'est pas focalisée sur la croyance en la réalité d'une image, mais plutôt sur le " ressenti " du réel. Les auteurs émettent l'hypothèse que, dans la mesure où les images projetées, les vidéos et autres représentations de la réalité sont monnaie courante au XXIe siècle, notre cerveau a peut-être appris à évaluer la réalité de manière légèrement différente de ce qu'il était il y a un siècle.

Même si les participants à cette expérience " ne s'attendaient pas à voir quelque chose, c'est quand même plus attendu que si vous étiez en 1910 et que vous n'aviez jamais vu de projecteur de votre vie ", a déclaré Dijkstra. Le seuil de réalité est donc probablement beaucoup plus bas aujourd'hui que par le passé, il faudra donc peut-être une image imaginée beaucoup plus vive pour franchir ce seuil et perturber le cerveau.

Une base pour les hallucinations

Ces résultats soulèvent des questions sur la pertinence de ce mécanisme dans un large éventail de pathologies dans lesquelles la distinction entre imagination et perception disparaît. Dijkstra émet l’hypothèse que lorsque les gens commencent à s’endormir et que la réalité commence à se fondre dans le monde des rêves, leur seuil de réalité pourrait baisser. Dans des pathologies comme la schizophrénie, où il y a une " dégradation générale de la réalité ", il pourrait y avoir un problème d’étalonnage, a déclaré Dijkstra.

" Dans la psychose, il se peut que leur imagerie soit si bonne qu'elle atteint ce seuil, ou il se peut que leur seuil soit décalé ", a déclaré Karolina Lempert, professeur adjoint de psychologie à l'université d'Adelphi qui n'a pas participé à l'étude. Certaines études ont révélé que chez les personnes qui ont des hallucinations, il existe une sorte d'hyperactivité sensorielle, ce qui suggère que " Le signal de l’image est augmenté. Mais des recherches plus poussées sont nécessaires pour établir le mécanisme par lequel les hallucinations apparaissent ", a-t-elle ajouté. " Après tout, la plupart des personnes qui ressentent de vives images n'ont pas pour autant d'hallucinations. "

Nanay pense qu'il serait intéressant d'étudier les seuils de réalité des personnes atteintes d'hyperphantasie, une imagination extrêmement vive qu'elles confondent souvent avec la réalité. De même, il existe des situations dans lesquelles les personnes souffrent d'expériences imaginaires très fortes qu'elles savent ne pas être réelles, comme lorsqu'elles ont des hallucinations sous l'effet de drogues ou dans des rêves lucides. Dans des conditions telles que le syndrome de stress post-traumatique, les personnes " commencent souvent à voir des choses qu'elles ne voulaient pas voir ", et cela semble plus réel que cela ne devrait l'être, a déclaré Dijkstra.

Certains de ces problèmes peuvent impliquer des défaillances dans les mécanismes cérébraux qui aident normalement à faire ces distinctions. Dijkstra pense qu'il pourrait être utile d'étudier les seuils de réalité des personnes atteintes d'aphantasie, l'incapacité à imaginer consciemment des images mentales.

Les mécanismes par lesquels le cerveau distingue le réel de l’imaginaire pourraient également être liés à la façon dont il distingue les images réelles des fausses. Dans un monde où les simulations se rapprochent de la réalité, distinguer les images réelles des fausses va devenir de plus en plus difficile, a déclaré Lempert. " Je pense que c’est peut-être une question plus importante que jamais. "

Dijkstra et son équipe travaillent actuellement à adapter leur expérience pour qu’elle fonctionne avec un scanner cérébral. "  Maintenant que le confinement est terminé, je veux à nouveau observer des cerveaux ", a-t-elle déclaré.

Elle espère finalement découvrir s’il est possible de manipuler ce système pour rendre l’imagination plus réelle. Par exemple, la réalité virtuelle et les implants neuronaux sont actuellement étudiés pour des traitements médicaux, par exemple pour aider les aveugles à recouvrer la vue. La capacité de rendre les expériences plus ou moins réelles, a-t-elle déclaré, pourrait être très importante pour de telles applications.

Ce n’est pas farfelu, étant donné que la réalité est une construction du cerveau.

" Sous notre crâne, tout est fabriqué ", explique Muckli. " Nous construisons entièrement le monde, dans sa richesse, ses détails, ses couleurs, ses sons, son contenu et son excitation. […] Il est créé par nos neurones. "

Cela signifie que la réalité d'une personne sera différente de celle d'une autre, a déclaré Dijkstra : " La frontière entre l'imagination et la réalité n'est tout simplement pas si solide. "

Auteur: Internet

Info: Quanta Magazine, Yasemin Saplakoglu, 24 mai 2023 *quand on imagine quelque chose, ça peut nous empêcher de bien voir la même chose dans la réalité, surtout si elle est difficile à voir. C'est comme si ton imagination prenait la place de tes yeux.

[ solipsismes orthogonaux ] [ discrimination ] [ discernement ]

 

Commentaires: 0

Ajouté à la BD par miguel

espace lointain

Le plus puissant télescope au monde réécrit l'histoire du temps et de l'espace

Le télescope James Webb de la NASA a permis de lever le voile sur les premières galaxies, qui sont plus nombreuses et plus brillantes que ce qu'imaginaient les scientifiques.

Sur l’une des vues les plus profondes de l’Univers jamais réalisées, le télescope spatial James Webb montre des milliers d’étoiles et de galaxies. Au centre, l’amas de galaxies distord le trajet de la lumière.

(Photo - simulation. Quand l'univers était jeune il y a plus de 13 milliards et demi d’années, aucune étoile ne brillait dans les profondeurs du ciel. Nous étions alors en plein âges sombres, époque où le cosmos était empli d’hélium et d’hydrogène – des gaz qui allaient constituer la matière première de tous les mondes à venir.)

Existait également la mystérieuse matière noire, dont la gravité allait pousser le gaz à se concentrer en structures complexes. Puis, avec l’expansion et le refroidissement ambiant, une partie de cette matière allait elle-même se concentrer en d’immenses sphères, qui attireraient le gaz. L’augmentation de la pression à l’intérieur de ces halos, comme les astronomes vont les nommer, poussa les atomes d’hydrogène à fusionner, formant ainsi des atomes d’hélium et allumant les premières étoiles de l’Univers primordial.

Émerveillé, j’observe ces prémices de l’aube cosmique à travers des lunettes 3D. Assis face à un projecteur à l’Institut Kavli d’astrophysique des particules et de cosmologie de l’université Stanford, aux États-Unis, je suis du regard des filaments de matière noire qui forment sur l’image un réseau gris fantomatique entre les halos au fur et à mesure que l’Univers s’étend. Des maelströms d’étoiles venant de naître s’enroulent en spirales au centre de ces derniers pour former les premières galaxies.

Depuis des décennies, les scientifiques travaillent au récit de l’origine de l’Univers. Mais, l’an dernier, le télescope spatial le plus perfectionné jamais construit a changé la donne. Le James Webb Space Telescope (JWST) a mis au jour d’anciennes galaxies, plus nombreuses et actives que prévu, dévoilant ainsi un prologue frénétique à la saga de l’espace et du temps.

Le télescope James Webb ne peut cependant pas distinguer les premières étoiles, pas encore assez brillantes pour être détectées. Il faudra attendre qu’elles rayonnent pendant quelques millions d’années avant d’exploser en supernovae – une parenthèse à l’échelle du temps astronomique.

" En fait, nous avons un peu ralenti les images, me confie le cosmologiste Tom Abel. Ça va tellement vite. La version complète aurait été constituée de flashes beaucoup plus rapides. "

Ces flashes, en fait des supernovae nées d’étoiles dont la masse peut atteindre des centaines de fois celle du Soleil, ont généré de nouveaux éléments qui ont transformé l’Univers : oxygène (nécessaire à la formation de l’eau), silicium (à celle des planètes), ou encore phosphore (indispensable aux cellules). Ces premières étoiles ont aussi cassé les atomes d’hydrogèn locaux, contribuant à rendre l’espace transparent, moment clé connu sous le nom de " réionisation ". À mesure que la brume se levait, des poches d’astres ont fusionné, formant des agglomérats tourbillonnants toujours plus vastes – dont les premiers éléments de notre Voie lactée.

Tom Abel a commencé à modéliser la naissance des premières étoiles dans les années 1990, alors que la nature du premier objet astronomique restait une énigme : s’agissait-il d’un trou noir, d’un corps de la taille de Jupiter, ou d’autre chose ? Par ses simulations informatiques, il a contribué avec ses collègues à établir qu’il devait s’agir d’étoiles, nées là où la gravité l’avait lentement emporté sur la pression du gaz. Il pensa alors qu’il n’y avait plus rien à apprendre.P

Puis vint le télescope James Webb.L

Lancé le matin de Noël 2021, le télescope spatial est maintenant positionné à 1,5 million de kilomètres de la Terre. Son miroir primaire de 6,5 m recouvert d’or capte une lumière qui a traversé l’espace pendant plus de 13 milliards d’années, nous révélant le visage d’alors des premières galaxies.

Les astronomes s’attendaient à détecter des galaxies naissantes. Mais ils ne pensaient pas en trouver autant, ni que cela puisse bouleverser leur compréhension des choses.

Dans cette région de la nébuleuse d’Orion, le rayonnement ultraviolet venant d’un amas d’étoiles voisin provoque d’intenses réactions chimiques. Le JWST y a découvert des cations méthyles. Ce composé carboné – encore jamais détecté dans l’espace – facilite la formation de molécules complexes nécessaires à la vie.

(photo : Dans cette région de la nébuleuse d’Orion, le rayonnement ultraviolet venant d’un amas d’étoiles voisin provoque d’intenses réactions chimiques. Le JWST y a découvert des cations méthyles. Ce composé carboné – encore jamais détecté dans l’espace – facilite la formation de molécules complexes nécessaires à la vie.)

L'étude des galaxies la plus poussée jamais entreprise a débuté en septembre 2022, quand l’équipe internationale du JADES (JWST Advanced Deep Extragalactic Survey) a commencé à braquer le télescope sur des régions du ciel des dizaines d’heures d’affilée. Deux semaines plus tard, elle se réunissait à Tucson, à l’université de l’Arizona, pour discuter des premiers résultats.

Quelque cinquante astronomes se sont entassés dans une salle de classe, certains restant debout au fond de la pièce ou apportant des chaises supplémentaires pour pouvoir s’asseoir le long des murs.

Tous les scientifiques présents scrutaient avec fébrilité sur leurs ordinateurs une mosaïque de centaines d’images fraîchement capturées, partagée quelques jours auparavant. Elle contenait des dizaines de milliers de galaxies et autres objets célestes, et des murmures enthousiastes se faisaient entendre à mesure que les participants s’indiquaient des choses jamais vues jusque-là : des régions remplies d’étoiles en formation, des centres galactiques incandescents où pourraient se cacher des trous noirs, des taches de lumière rougeâtres provenant de galaxies si éloignées que seul le télescope James Webb pouvait les détecter. " On était comme des enfants dans un magasin de bonbons ", me raconte Marcia Rieke, astronome à l’université de l’Arizona et l’une des responsables du programme JADES.

Contrairement au télescope Hubble, notre précédente fenêtre sur le passé lointain, le télescope James Webb observe l’Univers dans l’infrarouge – ce qui en fait un instrument idéal pour capturer les rayons des premières étoiles, émis sous forme d’ultraviolets mais dont les longueurs d’ondes, étirées par l’expansion de l’Univers, se sont ensuite décalées vers le rouge. Plus ce décalage est prononcé, plus la cible est éloignée et donc ancienne.

Marcia Rieke a supervisé les débats avec un mélange de joie et de rigueur, répondant aux questions techniques ou discutant du fonctionnement du télescope. En plus d’être l’une des chercheuses les plus éminentes du JADES, elle est la responsable principale de la caméra dans le proche infrarouge (NIRCam) du JWST – à l’origine de la mosaïque de galaxies source de tant d’émoi. Elle a supervisé la conception de l’appareil de 150 kg, un assemblage de miroirs, de lentilles et de détecteurs permettant d’absorber la lumière de l’Univers et de l’étudier à travers différents filtres. "Ces images sont à la hauteur de toutes nos espérances ", souligne-t-elle.

Pour autant, tout ne fonctionne pas parfaitement sur le télescope. Son spectrographe dans le proche infrarouge (NIRSpec) a connu des courts-circuits, qui ont créé des taches claires sur certaines cibles visées. L’instrument a pour fonction de scinder la lumière en spectres, ce qui permet aux scientifiques de reconstituer la composition chimique d’une galaxie et de mesurer précisément son décalage vers le rouge. Si les images de la NIRCam peuvent aider à estimer les distances des galaxies, on a besoin du NIRSpec pour les confirmer. Les courts-circuits ont retardé certaines observations, ce qui fut un mal pour un bien. Car, si les astronomes avaient prévu d’utiliser le NIRSpec pour examiner des objets connus grâce au télescope spatial Hubble, ils pouvaient désormais changer de cibles et s’intéresser aux galaxies tout juste découvertes par la NIRCam. " Nous sommes devenus fous en les traquant dans ces données que personne n’avait jamais vues ", me glisse Kevin Hainline, astrophysicien à l’université de l’Arizona.

Une chose que l’équipe ne pouvait pas faire, c’était changer l’orientation du télescope. Par chance, quatre galaxies lointaines se trouvaient dans son champ de vision. Deux d’entre elles, comme le confirmerait le NIRSpec, étaient plus éloignées et plus vieilles qu’aucune autre connue.

La plus distante, JADES-GS-z13-0, s’était formée juste 325 millions d’années après le big bang. " Dans toute cette folie, je n’ai pas réalisé la portée de ce moment où j’étais assis là, à me dire : - Oh ! C’est la galaxie la plus lointaine que l’homme ait jamais vue !”, raconte Kevin Hainline.

Deux choses sont déjà claires à leur propos : elles sont plus nombreuses que prévu, et étonnamment brillantes pour leur âge. Ces anomalies pourraient être dues au fait que les premières étoiles qui les constituent se sont formées plus facilement qu’on le pensait, ou qu’il y avait plus d’étoiles massives que ce qui était envisagé.

Une des premières galaxies, GN-z11, datant d’environ 440 millions d’années après le big bang, était suffisamment brillante pour que Hubble la repère dès 2016. Le JWST l’a aussi observée et a capté son spectre avec le NIRSpec. " Celle-là a à la fois déconcerté et enthousiasmé tout le monde ", note Emma Curtis-Lake, astrophysicienne à l’université du Hertfordshire, en Angleterre, et membre de l’équipe du NIRSpec.

Certains éléments chimiques génèrent des raies d’émission brillantes dans le spectre d’une galaxie, telles des empreintes digitales que laisserait derrière elle la matière galactique. Le spectre de GN-z11 a révélé une quantité étonnante d’azote – ce qui a surpris les scientifiques, incapables d’en expliquer la source. Il est possible qu’une population d’étoiles de Wolf-Rayet, très chaudes et très actives, ait dispersé cet élément via des vents stellaires. À moins que plusieurs étoiles massives soient entrées en collision, libérant de l’azote dans le processus.

Les galaxies lointaines ne sont pas le seul moyen d’en savoir plus sur l’Univers primordial. Des galaxies naines proches contiennent de petites étoiles qui se sont formées très tôt et existent toujours. C’est le cas de la galaxie de Wolf-Lundmark-Melotte (en haut, à gauche, sur une image du VST, le télescope de sondage du VLT, de l’Observatoire européen austral, ou ESO, au Chili). Le JWST en a scruté l’intérieur (voir les images ci-dessous) pour étudier quelques-unes de ces anciennes étoiles à combustion lente – fossiles des époques passées.

(PHOTO du european southern observatory : GN-z11 pourrait aussi abriter un trou noir supermassif en son centre, ce qui serait remarquable pour cette époque primitive. Il serait " le trou noir le plus éloigné identifié ", pointe l’astrophysicienne. Caché, il a été révélé par des raies spectrales qui suggèrent que de la matière se déplace dans une zone dense, tourbillonnant à plus de 1,5 million de kilomètres à l’heure – le genre de chose auxquelles on s’attend près d’un trou noir. Mais comment ce dernier a pu se développer aussi vite, donc tôt, reste un mystère.)

George, le mari de Marcia Rieke, lance, en entrant dans une salle de contrôle servant aussi de kitchenette :  Ce n’est plus comme avant. " Son épouse confirme : " Non, il y a cinq fois plus d’écrans. " Le couple a proposé de me montrer un vieux télescope dans les montagnes, près de Tucson, où ils ont passé une grande partie de leur début de carrière. Tous deux astronomes à l’université de l’Arizona, ils se sont rencontrés en 1972. Le télescope de 1,5 m du mont Bigelow était alors assez récent et servait à cartographier la surface de la Lune. Il est devenu l’un des principaux observatoires dans le domaine naissant de l’astronomie infrarouge. Une sorte d’aïeul du télescope James Webb.

Les Rieke ont contribué à assurer la passation entre les deux instruments. Alors que Marcia supervisait le développement de la NIRCam, George était en charge du MIRI (Mid-Infrared Instrument – pour des mesures dans l’" infrarouge moyen ") du JWST. Restant éveillés des nuits entières, ils ajustaient lentement l’engin pour qu’il garde une cible en vue pendant que

la Terre tournait. Aujourd’hui, leurs assistants peuvent faire la plus grande partie de ce travail à partir d’ordinateurs portables. " Une bande de chiffes molles ", plaisante George.

Dans les années 1970, le couple a effectué au mont Bigelow quelques-unes des premières observations dans l’infrarouge du centre de la Voie lactée. Les scientifiques tenaient alors cette zone de notre galaxie pour " une collection de vieilles étoiles sans intérêt ", se rappelle Marcia. Mais, dans cette lumière infrarouge, des poches de gaz turbulentes accueillant la formation rapide d’étoiles sont apparues. " Tout le tableau en a été changé ", note George.

À l’époque, la lumière infrarouge commençait tout juste à être étudiée en astronomie. Le développement de nouveaux capteurs a peu à peu permis de révéler cette immense partie jusque là ignorée du spectre électromagnétique – allant des rayons gamma aux ondes radio. Le télescope du mont Bigelow a permis de combler une lacune dans l’observation de l’Univers local, et le JWST est ensuite venu compléter notre vision du cosmos lointain.

Mais, pour comprendre vraiment nos origines cosmiques, le télescope spatial ne suffira pas.

Par un matin d'avril, je me suis retrouvé sur un plateau entre des volcans enneigés du désert d’Atacama, au Chili, plissant les yeux dans le soleil. Des tubes en plastique m’apportent un complément d’oxygène, précaution nécessaire quand on rejoint le Grand Réseau millimétrique /submillimétrique de l’Atacama (ALMA), un télescope situé à 5 000 m d’altitude.

Le ciel est d’un bleu plus profond, avec une atmosphère moins dense en molécules risquant de disperser la lumière – un lieu idéal pour l’astronomie. D’où les dizaines d’antennes paraboliques hautes de quatre étages se dressant face à moi, comme autant de sentinelles disséminées sur le plateau andin de Chajnantor. Dans un étonnant ballet, toutes pivotent de conserve quand elles se fixent sur une nouvelle cible.

Le nuage moléculaire géant de Rho Ophiuchi est la pouponnière d’étoiles la plus proche de la Terre. Une cinquantaine d’étoiles y naissent dans des cocons de gaz et de poussière, la plupart de masse similaire au Soleil. En bas, une étoile plus puissante crée une cavité géante.

Observatoire de radioastronomie parmi les plus perfectionnés de la planète, l’ALMA est aussi l’un des rares outils capables de percevoir les galaxies primitives découvertes par le JWST, bien qu’avec une approche différente. Le télescope spatial capte la lumière des étoiles perçant à travers la poussière des galaxies ; tandis que l’ALMA traque la luminosité de la poussière elle-même, chauffée par les étoiles situées à l’intérieur de ces galaxies. " Ces grains de poussière proviennent de l’explosion de supernovae, ce qui permet d’obtenir indirectement des informations sur elles et, partant, sur la première population d’étoiles ", explique María Emilia De Rossi, astrophysicienne à l’Institut d’astronomie et de physique de l’espace (IAFE) à Buenos Aires.

L’ALMA a donc orienté ses antennes paraboliques vers certaines des galaxies primordiales. Mais, lors de ses premières tentatives, il n’a souvent pas été en mesure de détecter d’émission de la poussière. Cela pourrait signifier que les galaxies sont encore à un stade embryonnaire et qu’il n’y a pas assez de poussière générée par des explosions stellaires – ou bien que certaines sont en fait plus proches qu’on ne le pensait.

Dans un cas, l’ALMA a toutefois bien détecté une raie d’émission à côté d’une cible du JWST, suggérant que les étoiles de la galaxie ont dispersé leur poussière, ou alors que deux galaxies dans des phases différentes de leur vie sont en train de fusionner.

Mais ces premières tentatives de l’ALMA pour détecter les galaxies découvertes par le JWST n’étaient que des aperçus fugitifs : des observations plus longues sont désormais prévues. Elles pourraient révéler la quantité de poussière et, surtout, le nombre d’éléments lourds produits – témoins du stade d’évolution des galaxies. Lors de ma visite, deux de ses imposantes antennes avaient été démontées à des fins d’amélioration. Bientôt, elles retourneront sur le plateau de Chajnantor et poseront un regard encore plus performant vers le firmament pour s’attaquer aux mystères des galaxies primordiales.


 

 

Auteur: Internet

Info: Jay Bennett, 1 aout 2024, Source : national geographic 2023

[ astrométrie ]

 

Commentaires: 0

Ajouté à la BD par miguel

trouble dépressif post-accouchement

Il y a quatre ans, alors que mon fils n’avait qu’un mois, lui et moi avons été admis dans une unité mère-bébé, un service psychiatrique qui s’occupe des personnes souffrant de problèmes de santé mentale périnatale et de leurs bébés. On a diagnostiqué chez moi une anxiété et une dépression post-partum sévères et on m’a mise sous traitement. J’ai eu des séances hebdomadaires avec l’équipe psychiatrique pour discuter de mes progrès, et mon fils et moi avons passé du temps avec les autres femmes du service et leurs bébés. Chaque jour, parfois deux fois par jour, mon mari venait nous voir et nous nous promenions dans Hackney tandis que j’essayais de me rappeler qui j’étais autrefois et de résister à la tentation de me jeter devant une voiture. Petit à petit, horriblement, douloureusement lentement, je me suis un peu améliorée. Au bout de huit semaines, nous avons reçu notre congé et sommes rentrés chez nous.

Mais si je n’étais plus en situation de crise, ma santé mentale était extrêmement fragile. J’avais des appels hebdomadaires avec une thérapeute du NHS qui abordait ma maladie de manière méthodique et précise. Elle m’expliquait ce qui m’arrivait et pourquoi c’était arrivé. Je voulais désespérément mettre tout cela sur le compte des hormones, je voulais fuir la version corrompue de moi-même et ne plus jamais penser à elle, je voulais la rayer de mon cœur, de mon esprit, l’enterrer et cracher sur sa tombe. J’étais tellement gênée et honteuse d’elle, je la détestais. Mais mon thérapeute m’a gentiment rappelé que ce n’était pas seulement dû aux hormones et que je devais trouver un moyen de l’accepter.

Deux mois plus tard, je n’avais toujours pas toute ma tête, j’étais toujours tourmentée par le fait que j’avais imaginé faire des choses terribles et maléfiques à mon fils. Je savais que ces pensées intrusives étaient dues à ma maladie, mais cela ne les rendait pas plus faciles à vivre. C’est à ce moment-là que j’ai commencé à penser aux sorcières. Même si, pour être honnête, j’ai toujours pensé aux sorcières. C’est le cas de nombreuses femmes. Même cette année, pour Halloween, mon fils voulait être la sorcière de Room on the Broom – ce qui était ennuyeux parce que je lui avais déjà acheté un costume de squelette. Et beaucoup de femmes ont une sorcière préférée : Glinda du Magicien d’Oz, Les sorcières d’Eastwick, Samantha dans Bewitched et, pour ma part, Mildred Hubble (La pire des sorcières).

Les sorcières représentent le pouvoir féminin et peuvent être une célébration de notre puissance, mais elles sont aussi souvent utilisées comme l’incarnation des anciennes peurs de la société à l’égard des femmes. Par conséquent, beaucoup d’entre nous ont peur de devenir des sorcières, de se transformer en sorcières et en biques en vieillissant, d’être poussées à l’écart de leur communauté, d’être tournées en dérision, d’être ignorées, d’être hideuses. Pour d’autres, les sorcières représentent des femmes incontrôlables – elles nous montrent les dangers d’une femme déséquilibrée, une mégère qui ne fait pas ce qu’on lui dit de faire. Mais je pense que pour moi, en ce mois de décembre gris et silencieux, encore plongée dans ma folie, les sorcières représentaient l’espoir.

Les mauvaises sorcières sont devenues une aspiration. Elles m’ont fait sentir que je n’étais pas seule

J’ai dressé une liste de tous les films de sorcières auxquels je pouvais penser et je les ai regardés un par un pendant que mon fils dormait sur ma poitrine. Ce faisant, j’ai trouvé des liens et du réconfort. Mais alors que j’avais aimé les " bonnes " sorcières, roses et maternelles, qui n’utilisaient leur pouvoir que pour changer de tenue ou aider une amie, j’étais de plus en plus attirée par les " mauvaises "  sorcières. La méchante sorcière de l’Ouest n’avait peut-être pas tort lorsqu’elle s’écriait " Quel monde, quel monde, quel monde ! " en se fondant dans un sol de pierre froide.

J’ai réalisé qu’en fait, ce dont j’avais besoin, c’était d’avoir le courage d’accepter que la personne que je considérais comme mauvaise, pathétique et malade était, en fait, moi. Après cela, les méchantes sorcières sont devenues une source d’inspiration. Elles m’ont donné l’impression que je n’étais pas seule. Peut-être que je n’étais pas mauvaise. Peut-être n’étais-je qu’une sorcière ?

Au cours de l’été 1645, Matthew Hopkins, l’un des plus célèbres " découvreurs de sorcières " à parcourir le pays avec ses petites bottes à talons, est arrivé dans le Suffolk. À cette époque, les procès en sorcellerie se déroulent en Angleterre depuis plus de 60 ans, et Hopkins est réputé pour découvrir des sorcières partout où il passe. Pendant les pauses cinéma, alors que mon fils buvait du lait maternisé au biberon (je vous ai dit que j’étais méchante), j’ai lu les témoignages des femmes accusées dans ce procès.

Anna Moats avait avoué volontairement dans les deux heures qui avaient suivi son arrestation. Et l’acte diabolique qu’elle avait commis ? " Maudire son mari et ses enfants ". Anna savait qu’en avouant être une sorcière, elle serait mise dans une charrette et conduite dans les rues, avant d’être pendue à la potence, sous les yeux de ses amis, de sa famille et peut-être même de ses enfants. Et pourtant, elle a avoué.

En 1645, Matthew Hopkins était connu pour avoir découvert des sorcières partout où il allait

J’ai appelé Marion Gibson, professeur de Renaissance et d’études magiques à l’université d’Exeter, et je lui ai demandé pourquoi une personne comme Anna avouait – était-ce à cause de la torture ? " Non, les sorcières n’étaient pas torturées en Angleterre". Ma voix s’est bloquée dans ma gorge. Certaines femmes ont donc avoué sans avoir été torturées ? " Oui. Et elles savaient qu’elles allaient mourir ?  Oui. Et personne n’est sûr de savoir pourquoi elles ont fait ça. " Huh. J’ai une théorie.

Pour clarifier, s’il n’y a pas eu de torture, ils ont eu recours à la privation de sommeil et à l’intimidation. Ils ont également fouillé le corps nu des femmes à la recherche de marques du diable, ce qui aurait conduit à de nombreux aveux forcés. Cependant, grâce aux recherches du professeur Louise Jackson, j’ai appris que dans quelques dépositions du Suffolk, les aveux avaient été faits " librement ". Matthew Hopkins a écrit que Rebecca Morris " a avoué, avant toute violence, observation [privation de sommeil] ou autre menace ", que le diable était venu à elle sous la forme d’un garçon. Alicia Warner " a avoué librement qu’elle avait entretenu certains esprits maléfiques ". Eliza Southerne a avoué immédiatement : " Le ministre n’a utilisé aucun autre argument pour la faire avouer… [il s’est contenté] de lui dire de faire le mal elle-même, mais de libérer sa conscience ".

Très peu de recherches ont été menées sur ces " aveux volontaires " et sur les raisons pour lesquelles ces femmes étaient si prêtes à se condamner à mort. Mais en lisant leurs témoignages, j’ai eu l’impression de savoir. En faisant défiler les conversations téléphoniques que j’ai avec les femmes de ma vie, j’ai eu l’impression de savoir. La culpabilité et la honte que tant d’entre nous ressentent parce qu’elles ne sont pas assez bonnes. La pression suffocante que nous ressentons pour être parfaites. Comme l’écrit le professeur Louise Jackson, " dans la production des aveux, la coercition était autant culturelle que physique. Les cadres de croyance concernant les rôles, les responsabilités et les attentes des femmes les conduisaient à se condamner elles-mêmes… Les femmes du Suffolk qui avouaient être des sorcières avouaient également qu’elles étaient de ‘mauvaises’ mères, de ‘mauvaises’ épouses et de ‘mauvaises’ voisines… " À mon avis, peu de choses ont changé. Ils n’ont pas besoin de nous torturer, nous le ferons nous-mêmes.

Elizabeth Sankey : " Ce qu’il me fallait, c’était le courage d’accepter que la personne que je considérais comme mauvaise, pathétique et malade, c’était en fait moi ".

J’ai également vu des descriptions de maladies mentales dans les confessions. À l’époque, les tentatives de suicide et la dépression étaient presque toujours liées au diable, et ces idées figurent en bonne place dans les témoignages des femmes. Lidea Taylor a avoué " que ses diablotins… lui conseillaient de se tuer ". Ellen Greenelif a avoué qu’" elle était souvent tentée de se tuer ". Elizabeth Fillet a avoué que " le diable l’a tentée de se tuer ". J’ai également constaté des signes de dépression post-partum et de psychose. Prissilla Collit a avoué que le diable l’avait tentée de tuer ses enfants. Elle a placé l’un de ses enfants près du feu pour le brûler, mais un frère ou une sœur l’a éloigné. Mary Scrutton a avoué que " le diable lui est apparu deux fois, une fois sous la forme d’un ours, une fois sous la forme d’un chat, et l’a tentée, d’une voix creuse, de tuer son enfant ". Susanna Smith a avoué le lendemain de son arrestation que 18 ans auparavant, le diable lui était apparu sous la forme d’un chien rouge hirsute et l’avait tentée de tuer ses enfants.

J’ai contacté le Dr Trudi Seneviratne, une psychiatre qui a sauvé d’innombrables vies grâce à son travail à l’unité Bethlem Mother and Baby, qui fait partie de l’hôpital South London and Maudsley. Elle a hoché la tête en lisant les témoignages de 1645, reconnaissant les symptômes d’une maladie mentale post-partum. Elle a déclaré qu’aujourd’hui encore, le diable apparaît dans les cas de psychose, les femmes se voient comme des sorcières, entendent des voix sataniques qui leur disent de faire des choses terribles.

L’un des cas les plus tragiques de psychose post-partum s’est produit en 2001 lorsque Andrea Yates, une mère texane, a noyé ses cinq enfants dans la baignoire au cours d’un épisode psychotique. Yates a déclaré plus tard qu’elle pensait être une mauvaise mère et qu’elle les avait condamnés à l’enfer. Lorsque j’ai lu l’histoire d’Andrea et de sa famille, j’ai sangloté. Bien que je ne sois pas atteinte de psychose, je savais à quel point j’avais été proche de son expérience. Nombre de mes symptômes étaient similaires aux siens – manie, agitation, dépression.

Beaucoup de mes symptômes étaient similaires à ceux d’Andrea – manie, agitation, dépression

J’étais renfermée, je pleurais, mon anxiété était telle que je n’arrivais pas à dormir. Le plus alarmant, cependant, c’est que quelques jours avant mon admission à l’hôpital, j’ai commencé à croire que mettre fin à la vie de mon fils était le seul moyen d’échapper à la torture que je subissais. Si je n’avais pas reçu d’aide aussi rapidement, qui sait ce qui se serait passé ? Les femmes atteintes de ces maladies peuvent voir leur état se détériorer très rapidement. Les symptômes de la psychose du post-partum apparaissent généralement dans les heures ou les jours qui suivent l’accouchement et la présentation peut changer en quelques minutes. Pour un patient souffrant de psychose en général, il faut parfois des mois pour observer les mêmes changements. C’est l’un des rares cas où un épisode psychiatrique est considéré comme une urgence.

Je pense tout le temps à Andrea. Elle vit actuellement dans un hôpital psychiatrique d’État à faible sécurité et, bien qu’elle puisse être libérée depuis de nombreuses années, elle refuse toujours. Heureusement, les cas comme le sien ne sont pas courants, mais ils se produisent encore. Alors qu’au Royaume-Uni, la loi sur l’infanticide, qui a été réadoptée en 1938, prévoit des peines plus légères pour une mère qui tue son enfant au cours de la première année de sa vie, aux États-Unis, il n’existe pas de protection de ce type.

Le 4 janvier 2023, Lindsay Clancy, du Massachusetts, a étranglé ses trois enfants, puis s’est ouvert les veines et a sauté par la fenêtre. Elle a survécu, mais pas ses enfants. Aujourd’hui paralysée à partir de la taille, elle est jugée pour homicide. Mme Clancy, dont le plus jeune enfant n’avait que huit mois lorsqu’il est mort, a déclaré qu’elle avait étranglé les enfants pendant un " moment de psychose ". L’accusation la dépeint comme une sociopathe qui a assassiné ses enfants, puis simulé une tentative de suicide. Ils affirment qu’elle se comportait normalement le jour de la tragédie et qu’elle n’avait jamais mentionné quoi que ce soit suggérant une crise psychotique, juste " une pointe d’anxiété post-partum ".

Mes amis et ma famille m’ont incroyablement soutenue pendant ma maladie

Toute femme ayant souffert d’une maladie mentale périnatale ne sera pas surprise de constater que Clancy était réticente à parler explicitement de ce qui lui arrivait. Mes amis et ma famille m’ont incroyablement soutenue pendant ma maladie, mais j’avais peur de leur dire tout ce que je pensais et ressentais. Notamment comment, dans les jours précédant mon hospitalisation, mon cerveau s’était mis à jouer en boucle des scènes horribles. Je me voyais étouffer notre fils avec un oreiller, le faire tomber d’une fenêtre au troisième étage, le noyer dans la baignoire. Et pourtant, je l’aimais plus que je n’avais jamais aimé qui que ce soit ou quoi que ce soit. C’était si effrayant, si horrible. Je ne voulais pas les accabler, mais je ne voulais pas non plus que ce soit vrai. Alors je me convainquais que je faisais toute une histoire pour rien.

Ce qui a finalement fait basculer les choses pour moi, c’est de rejoindre Motherly Love, un groupe de soutien composé de femmes d’horizons différents ayant connu des problèmes de santé mentale périnatale. Toutes ont compris. Quelles que soient les pensées terrifiantes que j’avais, quelqu’un d’autre les avait eues aussi et avait survécu. Le groupe est devenu une source vitale d’espoir, de soutien et de connaissances anecdotiques, qui ne semblaient accessibles nulle part ailleurs. Ce sont ces femmes qui ont reconnu la gravité de mes symptômes et qui m’ont poussée à me faire soigner immédiatement. Elles m’ont sauvé la vie simplement en partageant leurs sentiments et en veillant à ce que je sache que je n’étais pas seule.

Le suicide reste la principale cause de décès maternel entre six semaines et douze mois après la naissance, représentant 39 % des décès au cours de cette période. Et malgré l’augmentation des financements et de la sensibilisation, les taux de suicide ont augmenté de 15 % en dix ans. Je pense que cela est dû en grande partie à la pression étouffante que subissent les femmes pour être parfaites.

Ma maladie a commencé avec les hormones, mais elle a été exacerbée par la stigmatisation, la culpabilité et la honte qui ont commencé dès que j’ai quitté l’hôpital avec mon petit garçon et que j’ai réalisé que j’avais ouvert la porte d’une autre chambre de torture pour les femmes. Nous devons être des mères et, lorsque nous sommes mères, nous devons être des mères parfaites. Nous devons allaiter nos bébés, ils doivent bien dormir, s’ils sont gardés, il faut que ce soit la meilleure des gardes, nous devons faire des carrières à mort, tout en étant présentes et calmes pour nos enfants, nous devons rester jeunes, nous ne pouvons pas prendre de poids. Nous devons être sages. Et surtout, nous devons être performantes.

C’est impossible, nous le savons toutes, et pourtant nous continuons à essayer, à échouer, et lorsque nous échouons, nous intériorisons la honte et la culpabilité parce que c’est ce que nous avons été conditionnés à faire, et cela nous ronge.

Ma maladie m’a changée à bien des égards, mais je pense que le plus grand cadeau qu’elle m’ait fait est de me faire prendre conscience qu’il y a une infinité de façons d’être une femme. Et j’ai renoncé à être une bonne mère – j’ai échoué après seulement un mois. Ce qui est en fait incroyablement libérateur. Ces jours-ci, je me sens tellement chanceuse d’être encore là. De tenir le corps chaud de mon fils chaque matin à son réveil, de le regarder manger une part de gâteau d’anniversaire dans un silence extatique. J’ai de la chance d’avoir eu l’occasion d’accepter et même d’aimer cette version sombre et tordue de moi-même que je détestais tant autrefois. Elle me manquerait si elle disparaissait. Et j’ai beaucoup de chance de pouvoir vieillir. Beaucoup trop d’entre nous n’ont pas cette chance. J’ai l’intention de voler vers lui comme la sorcière que je suis, sauvage et folle, insuffisante et imparfaite.



 

Auteur: Internet

Info: The Guardian. Au plus profond de ma folie, les sorcières m’ont donné de l’espoir : Elizabeth Sankey parle de maternité, de dépression et de sorcières.Le documentaire d’ES, Witches, fut diffusé sur MUBI fin 2024

[ femmes-entre-elles ] [ baby blues ] [ pensée-de-femme ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-animal

Le processus d’encéphalisation
Parmi l’ensemble des animaux non-humains, les dauphins sont dotés du quotient encéphalique le plus élevé au monde, soit à peu près celui de l’être humain.
A ce petit jeu, d’ailleurs, le cachalot nous dépasse tous largement !
Une telle augmentation du volume cérébral, bien au-delà des simples besoins de la motricité ou de la sensorialité, est qualifiée "d’encéphalisation structurelle".
Ce phénomène n’est pas rare. Il semble que dès le Jurassique, des dinosauriens bipèdes de taille moyenne aient commencé à augmenter de manière encore timide leurs capacités cérébrales.
Au Tertiaire, les ancêtres des éléphants et des cétacés se sont lancés à leur tour dans la course au gros cerveau mais ce n’est qu’au Quaternaire, il y a de cela de trois à six millions d’années, que certains primates hominoïdes développent une boîte crânienne de type néoténique à fontanelles non suturées durant les premiers temps de l’enfance, afin de permettre une croissance ultérieure de l’un des cerveaux les plus puissants du monde.
Ce processus d’encéphalisation apparaît également chez certains oiseaux – corvidés, psittacidés – à peu près vers la même époque. A chaque fois, bien sûr, des comportements très élaborés sont toujours associés à un accroissement spectaculaire du tissu cérébral.
Une si curieuse convergence de formes, la survenance simultanée ou successive de tous ces "grands fronts", pose bien évidemment question en termes darwiniens.
Le ptérodactyle, la mouche, le colibri, la chauve-souris ont des ailes pour voler, la truite, l’ichtyosaure, le marsouin ont un corps fait pour nager, le grillon fouisseur et la taupe ont des pattes en forme de pelles pour creuser, etc.
Mais à quoi rime dès lors un vaste crâne et à quelle fonction est-il dévolu ?
Essentiellement à comprendre le monde et ceux qui le composent, en ce compris les membres de sa propre espèce, avec lesquels il faut sans cesse gérer une relation équilibrée.
Même les gros cerveaux les plus solitaires vivent en fait en société : tigres, baleines bleues, panthères, orangs-outans gardent des liens étroits, bien que distants ou différés, avec leur fratrie et leurs partenaires.
L’intelligence est à coup sûr l’arme suprême contre les aléas du monde, ses mutations incessantes, puisqu’elle permet notamment de gérer un groupe comme un seul corps mais aussi de pénétrer les lois subtiles qui sont à la base du mouvement des choses.
En augmentant d’un degré supérieur ces facultés par le moyen du langage, lequel conserve le savoir des générations mortes, l’homme et le cétacé ont sans doute franchi un nouveau pas vers une plus grande adaptabilité.
Le problème de l’humain, mais nous n’y reviendrons pas davantage, c’est qu’il ne s’est servi jusqu’à ce jour que d’une partie de son intelligence et qu’il se laisse ensevelir vivants dans ses propres déchets, et avec lui les reste du monde, pour n’avoir pas su contrôler sa propre reproduction ni la saine gestion de son environnement.
Intelligents ou non ? (Le point de vue de Ken Levasseur)
Dans un courrier CFN posté en avril 2003 relatif à l’utilisation de dauphins militaires en Irak, Ken Levasseur, l’un des meilleurs spécialistes actuels de cette question, a tenu à faire le point à propos de l’intelligence réelle ou supposée de ces mammifères marins. Aux questions que lui avait adressées un étudiant sur ce thème, Ken répond ici de manière définitive, sur la base de de son expérience et de ses intimes convictions.
Eu égard aux remarquables recherches menées par Ken depuis des années et au fait qu’il a travaillé longtemps aux côtés du professeur Louis Hermann, son point de vue n’est évidemment pas négligeable ni ses opinions sans fondements. On lira d’ailleurs sur ce site même son article en anglais relatif au cerveau du dauphin
Inutile de dire que le gestionnaire de ce site partage totalement le point de vue de Ken Levasseur, dont les travaux l’inspirent depuis de nombreuses années, au même titre que ceux de Wade Doak ou de Jim Nollman : tous ont en commun d’affirmer que les dauphins ne sont pas des animaux au sens strict mais bien l’équivalent marin de l’humanité terrestre.
Q- A quel niveau d’intelligence réelle les dauphins se situent-ils ? A celui du chien ? Du grand singe ? D’un être humain ?
R- Mon meilleur pronostic est qu’un jour prochain, nous pourrons prouver que la plupart des espèces de cétacés disposent d’une intelligence équivalente ou supérieure à celle d’un humain adulte.
Q- Quelles sont les preuves nous permettant d’affirmer que les dauphins sont intelligents ?
R- Il a été démontré depuis longtemps que les dauphins peuvent développer des capacités cognitives qui équivalent ou excèdent les possibilités mentales de l’être humain. Aujourd’hui, nous sommes à même de définir exactement en quoi consiste l’intelligence humaine. Une fois que nous parviendrons à définir l’intelligence d’une manière strictement objective et valable pour toutes les autres espèces, on permettra enfin aux cétacés de faire la preuve de la leur.
Q- Quelles preuves avons-nous que les dauphins ne sont PAS intelligents ?
R- Il n’y a aucune preuve scientifique qui tendrait à prouver que l’intelligence du dauphin serait située entre celle du chien et celle du chimpanzé (comme l’affirment les delphinariums et la marine américaine) .
Q- Est-ce que les dauphins possèdent un langage propre ?
R- La définition d’une "langue", comme celle de l’intelligence, repose sur des bases subjectives définies pour et par les humains. Une fois que nous pourrons disposer d’une définition plus objective de ce qu’est un langage, et que les recherches sur la communication des dauphins ne seront plus "classifiée" par les américains, il est fort probable que les chercheurs puissent enfin conduire les recherches appropriées et qu’ils reconnaissent que les dauphins disposent de langages naturels.
Q- Est-ce leur capacité à apprendre et à exécuter des tours complexes qui les rend plus intelligents ou non ?
R- La capacité du dauphin à apprendre à exécuter des tours complexes est surtout une indication de l’existence d’un niveau élevé des capacités mentales, interprétées comme synonymes d’une intelligence élevée.
Q- Jusqu’à quel point ont été menées les recherches sur les dauphins et leur intelligence ? Que savent vraiment les scientifiques à leur propos ?
R- La US Navy a "classifié" ses recherches sur les dauphins en 1967, au moment où l’acousticien Wayne Batteau est parvenu à développer des moyens efficaces pour communiquer avec des dauphins dressés. La communication et l’intelligence des dauphins constituent donc désormais des données militaires secrètes, qui ne peuvent plus être divulguées au public.
Q- Est-ce que les dauphins disposent d’un langage propre ? Y a t-il des recherches qui le prouvent ?
R- Vladimir Markov et V. M. Ostrovskaya en ont fourni la preuve en 1990 en utilisant la "théorie des jeux" pour analyser la communication des dauphins dans un environnement contrôlé et à l’aide de moyens efficaces. Il est donc très probable que les dauphins aient une langue naturelle.
Q- Les capacités tout à fait spéciales des dauphins en matière d’écholocation ont-elles quelque chose à voir avec leurs modes de communication?
R- A mon sens, les recherches futures fourniront la preuve que le langage naturel des cétacés est fondé sur les propriétés physiques de l’écholocation, de la même manière que les langues humaines se basent sur des bruits et des représentations.
Q- Quelle est VOTRE opinion à propos de l’intelligence des dauphins ?
R- Pendant deux ans, j’ai vécu à quinze pieds (1 Pied : 30 cm 48) d’un dauphin et à trente-cinq pieds d’un autre. À mon avis, les dauphins possèdent une intelligence équivalente à celle d’un être humain. Ils devraient bénéficier dès lors de droits similaires aux Droits de l’Homme et se trouver protégé des incursions humaines dans son cadre de vie.
Q- La ressemblance entre les humains et les dauphins a-t-elle quelque chose à voir avec leur intelligence commune ?
R- Les dauphins sont très éloignés des humains à de nombreux niveaux mais les ressemblances que nous pouvons noter sont en effet fondées sur le fait que les dauphins possèdent des capacités mentales plus élevées (que la plupart des autres animaux) et sont à ce titre interprétés en tant qu’intelligence de type humain.
Q- La grande taille de leur cerveau, relativement à celle de leur corps, est-elle un indicateur de leur haute intelligence ?
R- Le volume absolu d’un cerveau ne constitue pas une preuve d’intelligence élevée. Le coefficient encéphalique (taille du cerveau par rapport à la taille de corps) n’en est pas une non plus. Néanmoins, on pourrait dire que la taille absolue du cerveau d’une espèce donnée par rapport au volume global du corps constitue un bon indicateur pour comparer les capacités mentales de différentes espèces. Souvenons-nous par ailleurs que les cétacés ne pèsent rien dans l’eau, puisqu’ils flottent et qu’une grande part de leur masse se compose simplement de la graisse. Cette masse de graisse ne devrait pas être incluse dans l’équation entre le poids du cerveau et le poids du corps car cette graisse n’est traversée par aucun nerf ni muscle et n’a donc aucune relation de cause à effet avec le volume du cerveau.
Q- Est-ce que la capacité des dauphins à traiter des clics écholocatoires à une vitesse inouïe nous laisse-t-elle à penser qu’ils sont extrêmement intelligents ?
R- On a pu montrer que les dauphins disposaient, et de loin, des cerveaux les plus rapides du monde. Lorsqu’ils les observent, les humains leur semblent se mouvoir avec une extrême lenteur en émettant des sons extrêmement bas. Un cerveau rapide ne peut forcément disposer que de capacités mentales très avancées.
Q- Pensez-vous des scientifiques comprendront un jour complètement les dauphins?
R- Est-ce que nos scientifiques comprennent bien les humains? Si tout va bien, à l’avenir, les dauphins devraient être compris comme les humains se comprennent entre eux.
Q- Le fait que les dauphins possèdent une signature sifflée est-elle une preuve de l’existence de leur langage ?
R- Non. Cette notion de signature sifflée est actuellement mal comprise et son existence même est sujette à caution.
Q- Les dauphins font plein de choses très intelligentes et nous ressemblent fort. Est-ce parce qu’ils sont vraiment intelligents ou simplement très attractifs ?
R- La réponse à votre question est une question d’expérience et d’opinion. Ce n’est une question qui appelle une réponse scientifique, chacun a son opinion personnelle sur ce point.
Q- Pouvons-nous vraiment émettre des conclusions au sujet de l’intelligence des dauphins, alors que nous savons si peu à leur propos et qu’ils vivent dans un environnement si différent du nôtre ?
R- Jusqu’à présent, ce genre de difficultés n’a jamais arrêté personne. Chacun tire ses propres conclusions. Les scientifiques ne se prononcent que sur la base de ce qu’ils savent vrai en fonction des données expérimentales qu’ils recueillent.
Q- Est-ce que nous pourrons-nous jamais communiquer avec les dauphins ou même converser avec eux ?
R- Oui, si tout va bien, et ce seront des conversations d’adulte à adulte, rien de moins.
II. DAUPHIN : CERVEAU ET MONDE MENTAL
"Parmi l’ensemble des animaux non-humains, les dauphins disposent d’un cerveau de grande taille très bien développé, dont le coefficient encéphalique, le volume du néocortex, les zones dites silencieuses (non motrices et non sensorielles) et d’autres indices d’intelligence sont extrêmement proches de ceux du cerveau humain" déclare d’emblée le chercheur russe Vladimir Markov.
Lorsque l’on compare le cerveau des cétacés avec celui des grands primates et de l’homme en particulier, on constate en effet de nombreux points communs mais également des différences importantes :
– Le poids moyen d’un cerveau de Tursiops est de 1587 grammes.
Son coefficient encéphalique est de l’ordre de 5.0, soit à peu près le double de celui de n’importe quel singe. Chez les cachalots et les orques, ce même coefficient est de cinq fois supérieur à celui de l’homme.
– Les circonvolutions du cortex cervical sont plus nombreuses que celles d’un être humain. L’indice de "pliure" (index of folding) est ainsi de 2.86 pour l’homme et de 4.47 pour un cerveau de dauphin de taille globalement similaire.
Selon Sam Ridgway, chercheur "réductionniste de la vieille école", l’épaisseur de ce même cortex est de 2.9 mm en moyenne chez l’homme et de 1.60 à 1.76 mm chez le dauphin. En conséquence, continue-t-il, on peut conclure que le volume moyen du cortex delphinien (560cc) se situe à peu près à 80 % du volume cortical humain. Ce calcul est évidemment contestable puisqu’il ne tient pas compte de l’organisation très particulière du cerveau delphinien, mieux intégré, plus homogène et moins segmenté en zones historiquement distinctes que le nôtre.
Le fait que les cétacés possèdent la plus large surface corticale et le plus haut indice de circonvolution cérébral au monde joue également, comme on s’en doute, un rôle majeur dans le développement de leurs capacités cérébrales.
D’autres scientifiques, décidément troublés par le coefficient cérébral du dauphin, tentent aujourd’hui de prouver qu’un tel développement n’aurait pas d’autre usage que d’assurer l’écholocation. Voici ce que leur répond le neurologue H. Jerison : "La chauve-souris dispose à peu de choses près des mêmes capacités que le dauphin en matière d’écholocation, mais son cerveau est gros comme une noisette. L’outillage écholocatoire en tant que tel ne pèse en effet pas lourd. En revanche, le TRAITEMENT de cette même information "sonar" par les zones associatives prolongeant les zones auditives, voilà qui pourrait expliquer le formidable développement de cette masse cérébrale. Les poissons et tous les autres êtres vivants qui vivent dans l’océan, cétacés mis à part, se passent très bien d’un gros cerveau pour survivre et même le plus gros d’entre eux, le requin-baleine, ne dépasse pas l’intelligence d’une souris…"
La croissance du cerveau d’un cétacé est plus rapide et la maturité est atteinte plus rapidement que chez l’homme.
Un delphineau de trois ans se comporte, toutes proportions gardées, comme un enfant humain de huit ans. Cette caractéristique apparemment "primitive" est paradoxalement contredite par une enfance extrêmement longue, toute dévolue à l’apprentissage. Trente années chez le cachalot, vingt chez l’homme, douze à quinze chez le dauphin et environ cinq ans chez le chimpanzé.
Les temps de vie sont du même ordre : 200 ans en moyenne chez la baleine franche, 100 ans chez le cachalot, 80 chez l’orque, 78 ans chez l’homme, 60 chez le dauphin, sous réserve bien sûr des variations favorables ou défavorables de l’environnement.
Pourquoi un gros cerveau ?
"Nous devons nous souvenir que le monde mental du dauphin est élaboré par l’un des systèmes de traitement de l’information parmi les plus vastes qui ait jamais existé parmi les mammifères" déclare H.Jerison, insistant sur le fait que "développer un gros cerveau est extrêmement coûteux en énergie et en oxygène. Cet investissement a donc une raison d’être en terme d’évolution darwinienne. Nous devons dès lors considérer la manière dont ces masses importantes de tissu cérébral ont été investies dans le contrôle du comportement et de l’expérimentation du monde, ceci en comparaison avec l’usage qu’en font les petites masses cérébrales".
Un cerveau est par essence un organe chargé de traiter l’information en provenance du monde extérieur.
Les grands cerveaux exécutent cette tâche en tant qu’ensemble élaborés de systèmes de traitement, alors que le cerveau de la grenouille ou de l’insecte, par exemple, se contente de modules moins nombreux, dont la finesse d’analyse est comparativement plus simple.
Cela ne nous empêche pas cependant de retrouver des structures neuronales étonnamment semblables d’un animal à l’autre : lorsqu’un promeneur tombe nez à nez avec un crotale, c’est le même plancher sub-thalamique dévolue à la peur qui s’allume chez l’une et l’autre des ces créatures. Quant un chien ou un humain se voient soulagés de leurs angoisses par le même produit tranquillisant, ce sont évidemment les mêmes neuromédiateurs qui agissent sur les mêmes récepteurs neuronaux qui sont la cause du phénomène.
A un très haut niveau de cette hiérarchie, le traitement en question prend la forme d’une représentation ou d’un modèle du monde (Craik, 1943, 1967, Jerison, 1973) et l’activité neuronale se concentre en "paquets d’informations" (chunks) à propos du temps et de l’espace et à propos d’objets, en ce compris les autres individus et soi-même.
" Puisque le modèle du monde qui est construit de la sorte" insiste H.Jerison, "se trouve fondé sur des variables physiquement définies issues directement du monde externe et puisque ces informations sont traitées par des cellules nerveuses et des réseaux neuronaux structurellement semblables chez tous les mammifères supérieurs, les modèles du monde construits par différents individus d’une même espèce ou même chez des individus d’espèces différentes, ont de bonnes chances d’être également similaires".
Et à tout le moins compréhensibles l’un pour l’autre.

Auteur: Internet

Info: http://www.dauphinlibre.be/dauphins-cerveau-intelligence-et-conscience-exotiques

[ comparaisons ]

 

Commentaires: 0

évolution technologique

Intelligence artificielle ou stupidité réelle ?

Bien que le battage médiatique augmente la sensibilisation à l'IA, il facilite également certaines activités assez stupides et peut distraire les gens de la plupart des progrès réels qui sont réalisés.
Distinguer la réalité des manchettes plus dramatiques promet d'offrir des avantages importants aux investisseurs, aux entrepreneurs et aux consommateurs.

L'intelligence artificielle a acquis sa notoriété récente en grande partie grâce à des succès très médiatisés tels que la victoire d'IBM Watson à Jeopardy et celle de Google AlphaGo qui a battu le champion du monde au jeu "Go". Waymo, Tesla et d'autres ont également fait de grands progrès avec les véhicules auto-propulsés. Richard Waters a rendu compte de l'étendue des applications de l'IA dans le Financial Times : "S'il y a un message unificateur qui sous-tend la technologie grand public exposée [au Consumer Electronics Show] .... c'est : "L'IA partout."

Les succès retentissants de l'IA ont également capturé l'imagination des gens à un tel point que cela a suscité d'autres efforts d'envergure. Un exemple instructif a été documenté par Thomas H. Davenport et Rajeev Ronanki dans le Harvard Business Review. Ils écrirent, "En 2013, le MD Anderson Cancer Center a lancé un projet ""Moon shot " : diagnostiquer et recommander des plans de traitement pour certaines formes de cancer en utilisant le système cognitif Watson d'IBM". Malheureusement, ce système n'a pas fonctionné et en 2017 le projet fut mis en veilleuse après avoir coûté plus de 62 millions de dollars sans avoir été utilisé pour les patients.

Waters a également abordé un autre message, celui des attentes modérées. En ce qui concerne les "assistants personnels à commande vocale", note-t-elle, "on ne sait pas encore si la technologie est capable de remplacer le smartphone pour naviguer dans le monde numérique autrement autrement que pour écouter de la musique ou vérifier les nouvelles et la météo".

D'autres exemples de prévisions modérées abondent. Generva Allen du Baylor College of Medicine et de l'Université Rice a avertit , "Je ne ferais pas confiance à une très grande partie des découvertes actuellement faites qui utilisent des techniques de machine learning appliquées à de grands ensembles de données". Le problème, c'est que bon nombre des techniques sont conçues pour fournir des réponses précises et que la recherche comporte des incertitudes. Elle a précisé : "Parfois, il serait beaucoup plus utile qu'ils reconnaissent que certains sont vraiment consolidés, mais qu'on est pas sûr pour beaucoup d'autres".

Pire encore, dans les cas extrêmes, l'IA n'est pas seulement sous-performante ; elle n'a même pas encore été mise en œuvre. Le FT rapporte, "Quatre jeunes entreprises européennes sur dix n'utilisent aucun programme d'intelligence artificielle dans leurs produits, selon un rapport qui souligne le battage publicitaire autour de cette technologie.

Les cycles d'attentes excessives suivies de vagues de déception ne sont pas surprenants pour ceux qui ont côtoyé l'intelligence artificielle pendant un certain temps. Ils savent que ce n'est pas le premier rodéo de l'IA. En effet, une grande partie du travail conceptuel date des années 1950. D'ailleurs, en passant en revue certaines de mes notes récentes je suis tombé sur une pièce qui explorait les réseaux neuronaux dans le but de choisir des actions - datant de 1993.

La meilleure façon d'avoir une perspective sur l'IA est d'aller directement à la source et Martin Ford nous en donne l'occasion dans son livre, Architects of Intelligence. Organisé sous la forme d'une succession d'entrevues avec des chercheurs, des universitaires et des entrepreneurs de premier plan de l'industrie, le livre présente un historique utile de l'IA et met en lumière les principaux courants de pensée.

Deux perspectives importantes se dégagent de ce livre.

La première est qu'en dépit des origines et des personnalités disparates des personnes interrogées, il existe un large consensus sur des sujets importants.

L'autre est qu'un grand nombre des priorités et des préoccupations des principales recherches sur l'IA sont bien différentes de celles exprimées dans les médias grand public.

Prenons par exemple le concept d'intelligence générale artificielle (AGI). Qui est étroitement lié à la notion de "singularité" ce point où l'IA rejoindra celle de l'homme - avant un dépassement massif de cette dernière. Cette idée et d'autres ont suscité des préoccupations au sujet de l'IA, tout comme les pertes massives d'emplois, les drones tueurs et une foule d'autres manifestations alarmantes.

Les principaux chercheurs en AI ont des points de vue très différents ; ils ne sont pas du tout perturbés par l'AGI et autres alarmismes.

Geoffrey Hinton, professeur d'informatique à l'Université de Toronto et vice-président et chercheur chez Google, dit : "Si votre question est : Quand allons-nous obtenir un commandant-docteur Data (comme dans Star Trek ) je ne crois pas que ce sera comme çà que ça va se faire. Je ne pense pas qu'on aura des programmes uniques et généralistes comme ça."

Yoshua Bengio, professeur d'informatique et de recherche opérationnelle à l'Université de Montréal, nous dit qu'il y a des problèmes très difficiles et que nous sommes très loin de l'IA au niveau humain. Il ajoute : "Nous sommes tous excités parce que nous avons fait beaucoup de progrès dans cette ascension, mais en nous approchant du sommet, nous apercevons d'autres collines qui s'élèvent devant nous au fur et à mesure".

Barbara Grosz, professeur de sciences naturelles à l'Université de Harvard : "Je ne pense pas que l'AGI soit la bonne direction à prendre". Elle soutient que la poursuite de l'AGI (et la gestion de ses conséquences) sont si loin dans l'avenir qu'elles ne sont que "distraction".

Un autre fil conducteur des recherches sur l'IA est la croyance que l'IA devrait être utilisée pour améliorer le travail humain plutôt que le remplacer.

Cynthia Breazeal, directrice du groupe de robots personnels du laboratoire de médias du MIT, aborde la question : "La question est de savoir quelle est la synergie, quelle est la complémentarité, quelle est l'amélioration qui permet d'étendre nos capacités humaines en termes d'objectifs, ce qui nous permet d'avoir vraiment un plus grand impact dans le monde, avec l'IA."

Fei-Fei Li, professeur d'informatique à Stanford et scientifique en chef pour Google Cloud dit lui : "L'IA en tant que technologie a énormément de potentiel pour valoriser et améliorer le travail, sans le remplacer".

James Manyika, président du conseil et directeur du McKinsey Global Institute, fait remarquer que puisque 60 % des professions ont environ un tiers de leurs activités qui sont automatisables et que seulement environ 10 % des professions ont plus de 90 % automatisables, "beaucoup plus de professions seront complétées ou augmentées par des technologies qu'elles ne seront remplacées".

De plus, l'IA ne peut améliorer le travail humain que si elle peut travailler efficacement de concert avec lui.

Barbara Grosz fait remarquer : "J'ai dit à un moment donné que 'les systèmes d'IA sont meilleurs s'ils sont conçus en pensant aux gens'". Je recommande que nous visions à construire un système qui soit un bon partenaire d'équipe et qui fonctionne si bien avec nous que nous ne nous rendions pas compte qu'il n'est pas humain".

David Ferrucci, fondateur d'Elemental Cognition et directeur d'IA appliquée chez Bridgewater Associates, déclare : " L'avenir que nous envisageons chez Elemental Cognition repose sur une collaboration étroite et fluide entre l'intelligence humaine et la machine. "Nous pensons que c'est un partenariat de pensée." Yoshua Bengio nous rappelle cependant les défis à relever pour former un tel partenariat : "Il ne s'agit pas seulement de la précision [avec l'IA], il s'agit de comprendre le contexte humain, et les ordinateurs n'ont absolument aucun indice à ce sujet."

Il est intéressant de constater qu'il y a beaucoup de consensus sur des idées clés telles que l'AGI n'est pas un objectif particulièrement utile en ce moment, l'IA devrait être utilisée pour améliorer et non remplacer le travail et l'IA devrait fonctionner en collaboration avec des personnes. Il est également intéressant de constater que ces mêmes leçons sont confirmées par l'expérience des entreprises.

Richard Waters décrit comment les implémentations de l'intelligence artificielle en sont encore à un stade assez rudimentaire.

Éliminez les recherches qui monopolisent les gros titres (un ordinateur qui peut battre les humains au Go !) et la technologie demeure à un stade très primaire .

Mais au-delà de cette "consumérisation" de l'IT, qui a mis davantage d'outils faciles à utiliser entre les mains, la refonte des systèmes et processus internes dans une entreprise demande beaucoup de travail.

Ce gros travail prend du temps et peu d'entreprises semblent présentes sur le terrain. Ginni Rometty, responsable d'IBM, qualifie les applications de ses clients d'"actes aléatoires du numérique" et qualifie nombre de projets de "hit and miss". (ratages). Andrew Moore, responsable de l'intelligence artificielle pour les activités de Google Cloud business, la décrit comme "intelligence artificielle artisanale". Rometty explique : "Ils ont tendance à partir d'un ensemble de données isolé ou d'un cas d'utilisation - comme la rationalisation des interactions avec un groupe particulier de clients. Tout ceci n'est pas lié aux systèmes, données ou flux de travail plus profonds d'une entreprise, ce qui limite leur impact."

Bien que le cas HBR du MD Anderson Cancer Center soit un bon exemple d'un projet d'IA "au clair de lune "qui a probablement dépassé les bornes, cela fournit également une excellente indication des types de travail que l'IA peut améliorer de façon significative. En même temps que le centre essayait d'appliquer l'IA au traitement du cancer, son "groupe informatique expérimentait l'utilisation des technologies cognitives pour des tâches beaucoup moins ambitieuses, telles que faire des recommandations d'hôtels et de restaurants pour les familles des patients, déterminer quels patients avaient besoin d'aide pour payer leurs factures, et résoudre les problèmes informatiques du personnel".

Dans cette entreprise, le centre a eu de bien meilleures expériences : "Les nouveaux systèmes ont contribué à accroître la satisfaction des patients, à améliorer le rendement financier et à réduire le temps consacré à la saisie fastidieuse des données par les gestionnaires de soins de l'hôpital. De telles fonctions banales ne sont peut-être pas exactement du ressort de Terminator, mais elles sont quand même importantes.

Optimiser l'IA dans le but d'augmenter le travail en collaborant avec les humains était également le point central d'une pièce de H. James Wilson et Paul R. Daugherty "HBRpiece". Ils soulignent : "Certes, de nombreuses entreprises ont utilisé l'intelligence artificielle pour automatiser leurs processus, mais celles qui l'utilisent principalement pour déplacer leurs employés ne verront que des gains de productivité à court terme. Grâce à cette intelligence collaborative, l'homme et l'IA renforcent activement les forces complémentaires de l'autre : le leadership, le travail d'équipe, la créativité et les compétences sociales de la première, la rapidité, l'évolutivité et les capacités quantitatives de la seconde".

Wilson et Daugherty précisent : "Pour tirer pleinement parti de cette collaboration, les entreprises doivent comprendre comment les humains peuvent le plus efficacement augmenter les machines, comment les machines peuvent améliorer ce que les humains font le mieux, et comment redéfinir les processus commerciaux pour soutenir le partenariat". Cela demande beaucoup de travail et cela va bien au-delà du simple fait de balancer un système d'IA dans un environnement de travail préexistant.

Les idées des principaux chercheurs en intelligence artificielle, combinées aux réalités des applications du monde réel, offrent des implications utiles. La première est que l'IA est une arme à double tranchant : le battage médiatique peut causer des distractions et une mauvaise attribution, mais les capacités sont trop importantes pour les ignorer.

Ben Hunt discute des rôles de la propriété intellectuelle (PI) et de l'intelligence artificielle dans le secteur des investissements, et ses commentaires sont largement pertinents pour d'autres secteurs. Il note : "L'utilité de la propriété intellectuelle pour préserver le pouvoir de fixation des prix est beaucoup moins fonction de la meilleure stratégie que la PI vous aide à établir, et beaucoup plus fonction de la façon dont la propriété intellectuelle s'intègre dans le l'esprit du temps (Zeitgeist) dominant dans votre secteur.

Il poursuit en expliquant que le "POURQUOI" de votre PI doit "répondre aux attentes de vos clients quant au fonctionnement de la PI" afin de protéger votre produit. Si vous ne correspondez pas à l'esprit du temps, personne ne croira que les murs de votre château existent, même si c'est le cas". Dans le domaine de l'investissement (et bien d'autres encore), "PERSONNE ne considère plus le cerveau humain comme une propriété intellectuelle défendable. Personne." En d'autres termes, si vous n'utilisez pas l'IA, vous n'obtiendrez pas de pouvoir de fixation des prix, quels que soient les résultats réels.

Cela fait allusion à un problème encore plus grave avec l'IA : trop de gens ne sont tout simplement pas prêts à y faire face.

Daniela Rus, directrice du laboratoire d'informatique et d'intelligence artificielle (CSAIL) du MIT déclare : "Je veux être une optimiste technologique. Je tiens à dire que je vois la technologie comme quelque chose qui a le potentiel énorme d'unir les gens plutôt que les diviser, et de les autonomiser plutôt que de les désolidariser. Mais pour y parvenir, nous devons faire progresser la science et l'ingénierie afin de rendre la technologie plus performante et plus utilisable." Nous devons revoir notre façon d'éduquer les gens afin de nous assurer que tous ont les outils et les compétences nécessaires pour tirer parti de la technologie.

Yann Lecun ajoute : "Nous n'aurons pas de large diffusion de la technologie de l'IA à moins qu'une proportion importante de la population ne soit formée pour en tirer parti ".

Cynthia Breazeal répéte : "Dans une société de plus en plus alimentée par l'IA, nous avons besoin d'une société alphabétisée à l'IA."

Ce ne sont pas non plus des déclarations creuses ; il existe une vaste gamme de matériel d'apprentissage gratuit pour l'IA disponible en ligne pour encourager la participation sur le terrain.

Si la société ne rattrape pas la réalité de l'IA, il y aura des conséquences.

Brezeal note : "Les craintes des gens à propos de l'IA peuvent être manipulées parce qu'ils ne la comprennent pas."

Lecun souligne : " Il y a une concentration du pouvoir. À l'heure actuelle, la recherche sur l'IA est très publique et ouverte, mais à l'heure actuelle, elle est largement déployée par un nombre relativement restreint d'entreprises. Il faudra un certain temps avant que ce ne soit utilisé par une plus grande partie de l'économie et c'est une redistribution des cartes du pouvoir."

Hinton souligne une autre conséquence : "Le problème se situe au niveau des systèmes sociaux et la question de savoir si nous allons avoir un système social qui partage équitablement... Tout cela n'a rien à voir avec la technologie".

À bien des égards, l'IA est donc un signal d'alarme. En raison de l'interrelation unique de l'IA avec l'humanité, l'IA a tendance à faire ressortir ses meilleurs et ses pires éléments. Certes, des progrès considérables sont réalisés sur le plan technologique, ce qui promet de fournir des outils toujours plus puissants pour résoudre des problèmes difficiles. Cependant, ces promesses sont également limitées par la capacité des gens, et de la société dans son ensemble, d'adopter les outils d'IA et de les déployer de manière efficace.

Des preuves récentes suggèrent que nous avons du pain sur la planche pour nous préparer à une société améliorée par l'IA. Dans un cas rapporté par le FT, UBS a créé des "algorithmes de recommandation" (tels que ceux utilisés par Netflix pour les films) afin de proposer des transactions pour ses clients. Bien que la technologie existe, il est difficile de comprendre en quoi cette application est utile à la société, même de loin.

Dans un autre cas, Richard Waters nous rappelle : "Cela fait presque dix ans, par exemple, que Google a fait trembler le monde de l'automobile avec son premier prototype de voiture autopropulsée". Il continue : "La première vague de la technologie des voitures sans conducteur est presque prête à faire son entrée sur le marché, mais certains constructeurs automobiles et sociétés de technologie ne semblent plus aussi désireux de faire le grand saut. Bref, ils sont menacés parce que la technologie actuelle est à "un niveau d'autonomie qui fait peur aux constructeurs automobiles, mais qui fait aussi peur aux législateurs et aux régulateurs".

En résumé, que vous soyez investisseur, homme d'affaires, employé ou consommateur, l'IA a le potentiel de rendre les choses bien meilleures - et bien pires. Afin de tirer le meilleur parti de cette opportunité, un effort actif axé sur l'éducation est un excellent point de départ. Pour que les promesses d'AI se concrétisent, il faudra aussi déployer beaucoup d'efforts pour mettre en place des infrastructures de systèmes et cartographier les forces complémentaires. En d'autres termes, il est préférable de considérer l'IA comme un long voyage plutôt que comme une destination à court terme.

Auteur: Internet

Info: Zero Hedge, Ven, 03/15/2019 - 21:10

[ prospective ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

intelligence artificielle

Apprendre l'anglais n'est pas une tâche facile, comme le savent d'innombrables étudiants. Mais lorsque l'étudiant est un ordinateur, une approche fonctionne étonnamment bien : Il suffit d'alimenter un modèle mathématique géant, appelé réseau neuronal, avec des montagnes de textes provenant d'Internet. C'est le principe de fonctionnement des modèles linguistiques génératifs tels que ChatGPT d'OpenAI, dont la capacité à tenir une conversation cohérente (à défaut d'être toujours sincère) sur un large éventail de sujets a surpris les chercheurs et le public au cours de l'année écoulée.

Mais cette approche présente des inconvénients. D'une part, la procédure de "formation" nécessaire pour transformer de vastes archives textuelles en modèles linguistiques de pointe est coûteuse et prend beaucoup de temps. D'autre part, même les personnes qui forment les grands modèles linguistiques ont du mal à comprendre leur fonctionnement interne, ce qui, à son tour, rend difficile la prévision des nombreuses façons dont ils peuvent échouer.

Face à ces difficultés, certains chercheurs ont choisi d'entraîner des modèles plus petits sur des ensembles de données plus restreints, puis d'étudier leur comportement. "C'est comme le séquençage du génome de la drosophile par rapport au séquençage du génome humain", explique Ellie Pavlick, chercheuse sur les modèles de langage à l'université de Brown.

Dans un article récemment publié sur le serveur scientifique arxiv.org, deux chercheurs de Microsoft ont présenté une nouvelle méthode pour former de minuscules modèles de langage : Les élever avec un régime strict d'histoires pour enfants.

RÉSEAUX NEURONAUX

Des chercheurs acquièrent une nouvelle compréhension à partir d'une simple IA  

Les chercheurs en apprentissage automatique ont compris cette leçon. GPT-3.5, le grand modèle linguistique qui alimente l'interface ChatGPT, compte près de 200 milliards de paramètres et a été entraîné sur un ensemble de données comprenant des centaines de milliards de mots (OpenAI n'a pas publié les chiffres correspondants pour son successeur, GPT-4).  L'entraînement de modèles aussi vastes nécessite généralement au moins 1 000 processeurs spécialisés, appelés GPU, fonctionnant en parallèle pendant des semaines. Seules quelques entreprises peuvent réunir les ressources nécessaires, sans parler de l'entraînement et de la comparaison de différents modèles.

Les deux chercheurs ont montré que des modèles linguistiques des milliers de fois plus petits que les systèmes de pointe actuels apprenaient rapidement à raconter des histoires cohérentes et grammaticalement justes lorsqu'ils étaient formés de cette manière. Leurs résultats indiquent de nouvelles pistes de recherche qui pourraient être utiles pour former des modèles plus importants et comprendre leur comportement.

"J'ai trouvé tout  ça très instructif", a déclaré Chandra Bhagavatula, chercheur sur les modèles de langage à l'Allen Institute for Artificial Intelligence de Seattle. "Le concept lui-même est très intéressant.

Il était une fois

Les réseaux neuronaux au cœur des modèles de langage sont des structures mathématiques vaguement inspirées du cerveau humain. Chacun d'entre eux contient de nombreux neurones artificiels disposés en couches, avec des connexions entre les neurones des couches adjacentes. Le comportement du réseau neuronal est régi par la force de ces connexions, appelées paramètres. Dans un modèle linguistique, les paramètres contrôlent les mots que le modèle peut produire ensuite, compte tenu d'une invite initiale et des mots qu'il a déjà générés.

Un modèle ne prend véritablement vie qu'au cours de la formation, lorsqu'il compare de manière répétée ses propres résultats au texte de son ensemble de données de formation et qu'il ajuste ses paramètres afin d'accroître la ressemblance. Un réseau non entraîné avec des paramètres aléatoires est trivialement facile à assembler à partir de quelques lignes de code, mais il ne produira que du charabia. Après l'entraînement, il peut souvent poursuivre de manière plausible un texte peu familier. Les modèles de plus grande taille sont souvent soumis à des réglages plus fins qui leur apprennent à répondre à des questions et à suivre des instructions, mais l'essentiel de la formation consiste à maîtriser la prédiction des mots.

Pour réussir à prédire des mots, un modèle linguistique doit maîtriser de nombreuses compétences différentes. Par exemple, les règles de la grammaire anglaise suggèrent que le mot suivant le mot "going" sera probablement "to", quel que soit le sujet du texte. En outre, un système a besoin de connaissances factuelles pour compléter "la capitale de la France est", et compléter un passage contenant le mot "not" nécessite une connaissance rudimentaire de la logique.

"Le langage brut est très compliqué", explique Timothy Nguyen, chercheur en apprentissage automatique chez DeepMind. "Pour que des capacités linguistiques intéressantes apparaissent, les gens ont eu recours à l'idée que plus il y a de données, mieux c'est".

(photo) Ronen Eldan s'est rendu compte qu'il pouvait utiliser les histoires d'enfants générées par de grands modèles linguistiques pour en entraîner rapidement de plus petits.

Introduction

Ronen Eldan, mathématicien qui a rejoint Microsoft Research en 2022 pour étudier les modèles de langage génératifs, souhaitait développer un moyen moins coûteux et plus rapide d'explorer leurs capacités. Le moyen naturel d'y parvenir était d'utiliser un petit ensemble de données, ce qui signifiait qu'il devait entraîner les modèles à se spécialiser dans une tâche spécifique, afin qu'ils ne s'éparpillent pas. Au départ, il voulait entraîner les modèles à résoudre une certaine catégorie de problèmes mathématiques, mais un après-midi, après avoir passé du temps avec sa fille de 5 ans, il s'est rendu compte que les histoires pour enfants convenaient parfaitement. "L'idée m'est venue littéralement après lui avoir lu une histoire", a-t-il déclaré.

Pour générer des histoires cohérentes pour les enfants, un modèle de langage devrait apprendre des faits sur le monde, suivre les personnages et les événements, et observer les règles de grammaire - des versions plus simples des défis auxquels sont confrontés les grands modèles. Mais les grands modèles formés sur des ensembles de données massives apprennent d'innombrables détails non pertinents en même temps que les règles qui comptent vraiment. Eldan espérait que la brièveté et le vocabulaire limité des histoires pour enfants rendraient l'apprentissage plus gérable pour les petits modèles, ce qui les rendrait à la fois plus faciles à former et plus faciles à comprendre.

Dans le monde des modèles de langage, cependant, le terme "petit" est relatif : Un ensemble de données mille fois plus petit que celui utilisé pour former GPT-3.5 devrait encore contenir des millions d'histoires. "Je ne sais pas combien d'argent vous voulez dépenser, mais je suppose que vous n'allez pas engager des professionnels pour écrire quelques millions de nouvelles", a déclaré M. Nguyen.

Il faudrait un auteur extraordinairement prolifique pour satisfaire des lecteurs aussi voraces, mais Eldan avait quelques candidats en tête. Qui peut mieux écrire pour un public de petits modèles linguistiques que pour de grands modèles ?

Toys stories

Eldan a immédiatement entrepris de créer une bibliothèque d'histoires synthétiques pour enfants générées par de grands modèles linguistiques. Mais il a rapidement découvert que même les modèles de pointe ne sont pas naturellement très créatifs. Si l'on demande à GPT-4 d'écrire des histoires adaptées à des enfants de 4 ans, explique Eldan, "environ un cinquième des histoires concernera des enfants qui vont au parc et qui ont peur des toboggans". C'est apparemment la quintessence des histoires pour enfants d'âge préscolaire, selon l'Internet.

La solution a consisté à ajouter un peu d'aléatoire dans le message. Tout d'abord, Eldan a utilisé le GPT-4 pour générer une liste de 1 500 noms, verbes et adjectifs qu'un enfant de 4 ans pourrait connaître - suffisamment courte pour qu'il puisse facilement la vérifier lui-même. Il a ensuite écrit un programme informatique simple qui demanderait à plusieurs reprises à GPT-3.5 ou à GPT-4 de générer une histoire adaptée à l'âge de l'enfant, comprenant trois mots aléatoires de la liste, ainsi qu'un détail supplémentaire choisi au hasard, comme une fin heureuse ou un rebondissement de l'intrigue. Les histoires obtenues, heureusement, étaient moins axées sur des diapositives effrayantes.

Eldan disposait désormais d'une procédure pour produire des données de formation à la demande, mais il n'avait aucune idée du nombre d'histoires dont il aurait besoin pour former un modèle fonctionnel, ni de la taille de ce modèle. C'est alors qu'il s'est associé à Yuanzhi Li, chercheur en apprentissage automatique chez Microsoft et à l'université Carnegie Mellon, pour essayer différentes possibilités, en tirant parti du fait que les petits modèles peuvent être formés très rapidement. La première étape consistait à décider comment évaluer leurs modèles.

Introduction

Dans la recherche sur les modèles de langage - comme dans toute salle de classe - la notation est un sujet délicat. Il n'existe pas de rubrique parfaite qui englobe tout ce que les chercheurs veulent savoir, et les modèles qui excellent dans certaines tâches échouent souvent de manière spectaculaire dans d'autres. Au fil du temps, les chercheurs ont mis au point divers critères de référence standard basés sur des questions dont les réponses ne sont pas ambiguës, ce qui est une bonne approche si vous essayez d'évaluer des compétences spécifiques. Mais Eldan et Li se sont intéressés à quelque chose de plus nébuleux : quelle doit être la taille réelle des modèles linguistiques si l'on simplifie le langage autant que possible ?

"Pour vérifier directement si le modèle parle anglais, je pense que la seule chose à faire est de laisser le modèle générer de l'anglais de manière ouverte", a déclaré M. Eldan.

Il n'y a que deux façons de mesurer les performances d'un modèle sur des questions aussi qualitatives : S'appuyer sur des évaluateurs humains ou se tourner à nouveau vers le GPT-4. Les deux chercheurs ont opté pour cette dernière solution, laissant les grands modèles à la fois rédiger les manuels et noter les dissertations.

Bhagavatula a déclaré qu'il aurait aimé voir comment les évaluations de GPT-4 se comparaient à celles des correcteurs humains - GPT-4 peut être biaisé en faveur des modèles qu'il a aidé à former, et l'opacité des modèles de langage rend difficile la quantification de tels biais. Mais il ne pense pas que de telles subtilités affecteraient les comparaisons entre différents modèles formés sur des ensembles similaires d'histoires synthétiques - l'objectif principal du travail d'Eldan et Li.

Eldan et Li ont utilisé une procédure en deux étapes pour évaluer chacun de leurs petits modèles après la formation. Tout d'abord, ils ont présenté au petit modèle la première moitié d'une histoire distincte de celles de l'ensemble des données d'apprentissage, de manière à ce qu'il génère une nouvelle fin, en répétant ce processus avec 50 histoires de test différentes. Ensuite, ils ont demandé à GPT-4 d'évaluer chacune des fins du petit modèle en fonction de trois catégories : créativité, grammaire et cohérence avec le début de l'histoire. Ils ont ensuite fait la moyenne des notes obtenues dans chaque catégorie, obtenant ainsi trois notes finales par modèle.

Avec cette procédure en main, Eldan et Li étaient enfin prêts à comparer les différents modèles et à découvrir quels étaient les étudiants les plus brillants.

Résultats des tests

Après quelques explorations préliminaires, les deux chercheurs ont opté pour un ensemble de données de formation contenant environ 2 millions d'histoires. Ils ont ensuite utilisé cet ensemble de données, baptisé TinyStories, pour entraîner des modèles dont la taille varie de 1 million à 30 millions de paramètres, avec un nombre variable de couches. Le travail a été rapide : En utilisant seulement quatre GPU, l'entraînement du plus grand de ces modèles n'a pas pris plus d'une journée.

Les plus petits modèles ont eu du mal. Par exemple, l'une des histoires testées commence par un homme à l'air méchant qui dit à une fille qu'il va lui prendre son chat. Un modèle à un million de paramètres s'est retrouvé bloqué dans une boucle où la fille répète sans cesse à l'homme qu'elle veut être son amie. Mais les modèles plus grands, qui sont encore des milliers de fois plus petits que GPT-3.5, ont obtenu des résultats surprenants. La version à 28 millions de paramètres racontait une histoire cohérente, même si la fin était sinistre : "Katie s'est mise à pleurer, mais l'homme s'en fichait. Il a emporté le chat et Katie n'a plus jamais revu son chat. Fin de l'histoire".

En plus de tester leurs propres modèles, Eldan et Li ont soumis le même défi au GPT-2 d'OpenAI, un modèle de 1,5 milliard de paramètres publié en 2019. Le résultat a été bien pire - avant la fin abrupte de l'histoire, l'homme menace d'emmener la jeune fille au tribunal, en prison, à l'hôpital, à la morgue et enfin au crématorium.

Introduction

Selon M. Nguyen, il est passionnant que des modèles aussi petits soient aussi fluides, mais il n'est peut-être pas surprenant que GPT-2 ait eu du mal à accomplir la tâche : il s'agit d'un modèle plus grand, mais loin de l'état de l'art, et il a été formé sur un ensemble de données très différent. "Un enfant en bas âge qui ne s'entraînerait qu'à des tâches d'enfant en bas âge, comme jouer avec des jouets, obtiendrait de meilleurs résultats que vous ou moi", a-t-il fait remarquer. "Nous ne nous sommes pas spécialisés dans cette chose simple.

Les comparaisons entre les différents modèles de TinyStories ne souffrent pas des mêmes facteurs de confusion. Eldan et Li ont observé que les réseaux comportant moins de couches mais plus de neurones par couche étaient plus performants pour répondre aux questions nécessitant des connaissances factuelles ; inversement, les réseaux comportant plus de couches et moins de neurones par couche étaient plus performants pour garder en mémoire les personnages et les points de l'intrigue situés plus tôt dans l'histoire. Bhagavatula a trouvé ce résultat particulièrement intriguant. S'il peut être reproduit dans des modèles plus vastes, "ce serait un résultat vraiment intéressant qui pourrait découler de ce travail", a-t-il déclaré.

Eldan et Li ont également étudié comment les capacités de leurs petits modèles dépendaient de la durée de la période de formation. Dans tous les cas, les modèles maîtrisaient d'abord la grammaire, puis la cohérence. Pour Eldan, ce schéma illustre comment les différences dans les structures de récompense entraînent des différences dans les schémas d'acquisition du langage entre les réseaux neuronaux et les enfants. Pour les modèles de langage, qui apprennent en prédisant des mots, "l'incitation pour les mots "je veux avoir" est aussi importante que pour les mots "crème glacée"", a-t-il déclaré. Les enfants, en revanche, "ne se soucient pas de savoir s'ils disent 'j'aimerais avoir de la glace' ou simplement 'glace, glace, glace'".

Qualité contre quantité

Eldan et Li espèrent que cette étude incitera d'autres chercheurs à entraîner différents modèles sur l'ensemble des données de TinyStories et à comparer leurs capacités. Mais il est souvent difficile de prédire quelles caractéristiques des petits modèles apparaîtront également dans les plus grands.

"Peut-être que les modèles de vision chez la souris sont de très bons substituts de la vision humaine, mais les modèles de dépression chez la souris sont-ils de bons modèles de la dépression chez l'homme ? a déclaré M. Pavlick. "Pour chaque cas, c'est un peu différent.

Le succès des modèles TinyStories suggère également une leçon plus large. L'approche standard pour compiler des ensembles de données de formation consiste à aspirer des textes sur l'internet, puis à filtrer les déchets. Le texte synthétique généré par des modèles de grande taille pourrait constituer une autre façon d'assembler des ensembles de données de haute qualité qui n'auraient pas besoin d'être aussi volumineux.

"Nous avons de plus en plus de preuves que cette méthode est très efficace, non seulement pour les modèles de la taille de TinyStories, mais aussi pour les modèles plus importants", a déclaré M. Eldan. Ces preuves proviennent d'une paire d'articles de suivi sur les modèles à un milliard de paramètres, rédigés par Eldan, Li et d'autres chercheurs de Microsoft. Dans le premier article, ils ont entraîné un modèle à apprendre le langage de programmation Python en utilisant des extraits de code générés par GPT-3.5 ainsi que du code soigneusement sélectionné sur l'internet. Dans le second, ils ont complété l'ensemble de données d'entraînement par des "manuels" synthétiques couvrant un large éventail de sujets, afin d'entraîner un modèle linguistique à usage général. Lors de leurs tests, les deux modèles ont été comparés favorablement à des modèles plus importants formés sur des ensembles de données plus vastes. Mais l'évaluation des modèles linguistiques est toujours délicate, et l'approche des données d'entraînement synthétiques n'en est qu'à ses balbutiements - d'autres tests indépendants sont nécessaires.

Alors que les modèles linguistiques de pointe deviennent de plus en plus volumineux, les résultats surprenants de leurs petits cousins nous rappellent qu'il y a encore beaucoup de choses que nous ne comprenons pas, même pour les modèles les plus simples. M. Nguyen s'attend à ce que de nombreux autres articles explorent l'approche inaugurée par TinyStories.

"La question est de savoir où et pourquoi la taille a de l'importance", a-t-il déclaré. "Il devrait y avoir une science à ce sujet, et cet article est, je l'espère, le début d'une riche histoire.



 



 

Auteur: Internet

Info: https://www.quantamagazine.org/ Ben Brubaker, 5 octobre 2023

[ synthèse ]

 

Commentaires: 0

Ajouté à la BD par miguel

vacuité

Comment le cerveau humain fait face à l'étrangeté du zéro

Le zéro, inventé tardivement dans l'histoire, est un nombre particulier. De nouvelles études révèlent comment le cerveau crée quelque chose à partir de rien.

(image : À certains égards, le zéro ressemble à n'importe quel autre chiffre sur une droite numérique. Mais une nouvelle étude suggère que l'esprit pourrait traiter différemment le symbole de l'absence.) 

Il y a environ 2 500 ans, des commerçants babyloniens en Mésopotamie ont gravé deux pièces inclinées sur des tablettes d'argile. Ces formes représentaient un chiffre de remplacement, coincé entre d'autres, pour distinguer des nombres tels que 50, 505 et 5 005. Une version élémentaire du concept de zéro était née.

Des centaines d'années plus tard, au VIIe siècle en Inde, le zéro a pris une nouvelle identité. Ce n'était plus un simple symbole, mais un chiffre qui avait une valeur et qui avait trouvé sa place sur la droite numérique, avant le chiffre 1. Son invention a donné naissance à des avancées historiques dans les domaines de la science et de la technologie. C'est du zéro que sont nées les lois de l'univers, la théorie des nombres et les mathématiques modernes.

" Le zéro est, pour de nombreux mathématiciens, certainement considéré comme l'une des plus grandes – ou peut-être la plus grande – réalisation de l'humanité ", a déclaré le neuroscientifique Andreas Nieder., qui étudie l'intelligence animale et humaine à l'université de Tübingen en Allemagne. " Il a fallu une éternité pour que les mathématiciens inventent enfin le zéro comme nombre. "

Ce n'est peut-être pas surprenant, car le concept peut être difficile à saisir pour le cerveau. Les enfants mettent plus de temps à comprendre et à utiliser le zéro que les autres nombres, et les adultes mettent plus de temps à le lire que les autres petits nombres. En effet, pour comprendre le zéro, notre esprit doit créer quelque chose à partir de rien. Il doit reconnaître l'absence comme un objet mathématique.

 C'est comme un niveau d'abstraction supplémentaire par rapport au monde qui vous entoure ", a déclaré Benjy Barnett, qui termine ses études supérieures sur la conscience à l'University College de Londres. Les nombres non nuls correspondent à des objets dénombrables dans l'environnement : trois chaises, chacune avec quatre pieds, à une table. Avec zéro, dit-il, " nous devons aller plus loin et dire : " OK, il n'y avait rien là. Par conséquent, il doit y en avoir zéro." 

 (images : À gauche : une entrée pointue du temple de Chaturbhuj, avec une colonne de chaque côté, est creusée dans une paroi rocheuse rouge. À droite : un petit cercle fait partie d'une inscription gravée en sanskrit. À l'intérieur du temple de Chaturbhuj en Inde (à gauche), une inscription murale présente le plus ancien exemple connu du chiffre zéro, daté de 876 de notre ère (à droite). Il fait partie du nombre 270.)

Ces dernières années, les chercheurs ont commencé à découvrir comment le cerveau humain représente les nombres, mais personne n'a examiné comment il gère le zéro. Deux études indépendantes, dirigées respectivement par Nieder et Barnett, ont montré que le cerveau code le zéro comme il le fait pour les autres nombres, sur une ligne numérique mentale. Mais, comme l'a révélé l'une des études, le zéro occupe également un statut particulier dans le cerveau.

" Le fait que [zéro] ne représente rien n'est une contradiction en soi ", a déclaré Carlo Semenza, professeur émérite de neurosciences à l'université de Padoue en Italie, qui n'a participé à aucune des deux études. " Cela semble être du béton parce que les gens le placent sur la droite numérique, mais cela n'existe pas. […] C'est fascinant, absolument fascinant "

Penser à rien

L'idée du zéro, appelée à l'origine sunya pour " vide " en sanskrit, a d'abord été introduite en Inde dans le monde arabe. Au XIIIe siècle, un humble voyageur du nom de Fibonacci a repris l'idée en Afrique du Nord et l'a ramenée en Europe médiévale, avec le système numérique à base 10 et les chiffres indo-arabes.

Au début, le zéro a semé la confusion. " Sa capacité à représenter le " rien " et à permettre des opérations mathématiques complexes a remis en question des idées théologiques et philosophiques profondément ancrées ", a déclaré Nieder. En raison notamment de l'influence de l'Église, les philosophes et les théologiens ont associé le " rien " au chaos et au désordre et étaient peu enclins à l'accepter. Beaucoup le craignaient même, le considérant comme " le nombre du diable ", a déclaré Barnett.

Mais les commerçants ont vite compris que le zéro était précieux pour les affaires. Au XVe siècle, il s'était répandu dans le commerce, la finance et les mathématiques à travers l'Europe, mais n'a jamais perdu son aura de mystère. " Si vous multipliez un nombre par zéro, il disparaît. C'était vraiment difficile à comprendre ", a déclaré Semenza. Ce sentiment persiste aujourd'hui : bien que le zéro soit désormais omniprésent et apparemment simple, les étudiants en mathématiques et les mathématiciens continuent de se débattre avec lui.

Le zéro est " l'oncle excentrique de la famille des nombres ", a déclaré Nieder. Pour utiliser le zéro dans les calculs, les mathématiciens ont dû établir toutes sortes de règles. On ne peut diviser aucun autre nombre par zéro, mais on peut diviser zéro par n'importe quel autre nombre. Un nombre non nul à la puissance de zéro donne un ; zéro à une puissance d'un nombre non nul donne zéro, mais zéro à une puissance de zéro donne une erreur de calcul – et un mal de tête.

Pourtant, " l'idée du zéro, ou de quelque chose qui joue le rôle d'un zéro, apparaît d'une manière ou d'une autre partout dans les mathématiques ", a déclaré Neil Barton., philosophe des mathématiques à l'Université nationale de Singapour. Sans elle, les mathématiques modernes n'existeraient pas : vous ne seriez pas capable de résoudre une fonction, de faire des calculs ou de faire la distinction entre 1 et 1 million.

Quelle que soit la façon dont on l’envisage, le zéro est unique. Pour les chercheurs qui s'intéressent à la façon dont le cerveau traite les nombres, le zéro est " le nombre le plus fascinant de tous ", a déclaré Nieder. Il semble que si le zéro est spécial en histoire et en mathématiques, alors le cerveau doit aussi le traiter de manière spéciale.

L'équipe de Nieder a déjà montré que certains neurones du cerveau ont des nombres préférés. Certains ont une préférence pour le 3 et s'activent plus rapidement lorsqu'on leur présente trois pommes, par exemple, que lorsqu'on leur présente deux ou quatre pommes – et bien plus rapidement que lorsqu'on leur présente cinq ou sept. Plus les neurones s'activent rapidement, plus ils s'intéressent à un nombre spécifique. Cela est vrai non seulement chez les humains, mais aussi chez d'autres animaux. Si les animaux non humains ne comprennent pas les nombres lorsqu'ils sont représentés sous forme de chiffres – une construction entièrement humaine – ils peuvent estimer des quantités, également appelées nombres. Les chercheurs ont déjà découvert que les singes et les corbeaux ont des neurones spécifiquement réglés sur la numérosité zéro.

Mais jusqu'à très récemment, personne n'avait jamais sondé la base neuronale du zéro chez l'homme.

"Juste un autre numéro"

Barnett s'intéresse à l'absence avant de s'intéresser au zéro. La majeure partie des travaux sur la conscience et la perception au cours du siècle dernier se sont concentrés sur ce qui se passe dans le cerveau lorsque nous détectons quelque chose dans l'environnement. " Mais cela ignore tout l'autre aspect des choses ", at-il déclaré, " à savoir que nous pouvons souvent avoir l'impression que quelque chose n'est pas là. " Par exemple, si vous allez chercher vos clés et qu'elles ne sont pas là où vous les avez laissées sur la table du couloir, vous ressentez l'absence.

Jusqu'à présent, les chercheurs pensaient que l'absence était représentée dans le cerveau par des neurones qui ne s'activaient pas. Mais des études récentes ont montré que le cerveau code l'absence avec des schémas neuronaux uniques. Pour aller plus loin dans ses travaux, Barnett s'est tourné vers le zéro, " un concept d'absence que nous connaissons tous ", at-il déclaré.

Il y a quelques années, Barnett a commencé ses études sur l'absence avec le nombre zéro. Il a recruté 24 participants pour effectuer des tâches liées au zéro alors qu'ils étaient assis dans un scanner magnétoencéphalographique, qui " ressemble à ces machines de coiffeur à l'ancienne ", at-il déclaré. Lorsque les neurones s'activent, ils génèrent des tensions, qui à leur tour créent un champ magnétique qui peut être détecté par la machine. En analysant les champs magnétiques, les chercheurs peuvent apprendre comment les populations de neurones réagissent lorsqu'on les incite à réfléchir à des sujets spécifiques, comme le zéro.

Barnett et son conseiller à l'University College de Londres, Stephen Fleming, cherchaient des preuves de l'effet de distance numérique, un phénomène qui se produit lorsque le cerveau traite des nombres non nuls. En gros, le cerveau peut plus facilement distinguer deux nombres s'ils sont éloignés de l'un de l'autre sur la droite numérique que s'ils sont proches de l'un de l'autre. Il confond donc plus souvent 6 et 7 que 6 et 9. Les chercheurs ont estimé que si le cerveau traite le zéro de la même manière que les autres nombres, il devrait également présenter l'effet de distance numérique.

En effet, dans des résultats publiés dans Current Biology en août, Barnett et Fleming ont conclu que le cerveau traite zéro, à la fois comme chiffre et comme quantité, de la même manière qu'il traite les autres nombres. " Le zéro est représenté sur cette ligne de nombres neuronaux ", a déclaré Barnett.

Nieder, pour sa part, est obsédé par le zéro et l'absence depuis près d'une décennie. En 2016, il a suggéré que les mécanismes neurologiques qui codent l'absence pourraient être partagés avec ceux qui codent le zéro. Il a émis l'hypothèse que le zéro devait avoir évolué. Il a commencé par des représentations plus fondamentales de l'absence perceptive. Tout d'abord, le cerveau devait comprendre l'absence d'un stimulus, comme une lumière éteinte ; ce n'est qu'ensuite qu'il pouvait reconnaître le " rien " comme une catégorie apparentée à " quelque chose ", mais représentant tout ce qui n'est pas quelque chose. Enfin, il devait transformer le " rien " en un concept quantitatif. En comprenant comment le cerveau code le zéro, pensant-il, nous serons bientôt capables de comprendre comment le cerveau gérer l'absence.

Depuis 2015, Nieder collabore avec Florian Mormann, responsable du groupe de neurophysiologie cognitive et clinique de l'université de Bonn, qui traite des patients épileptiques. Pour leur traitement, ces patients se voient implanter des électrodes dans le cerveau, grâce à laquelle Mormann peut recueillir des données de recherche en neurosciences avec le consentement du patient. "Le zéro est codé avec d'autres petits nombres, mais il est représenté plus distinctement par rapport à eux", a déclaré Nieder. " Il s'agit simplement d'une valeur aberrante excentrique et représentée comme telle dans le cerveau. "

Mormann a enregistré l'activité cérébrale de neurones individuels pendant que les patients effectuaient des tâches liées aux nombres. Dans l'analyse, lui et Nieder se sont d'abord concentrés sur les nombres non nuls et ils ont découvert que le cerveau traite les grands nombres différemment des petits. Ils sont ensuite retournés à leurs données pour se concentrer uniquement sur le zéro.

Comme ils l'ont rapporté dans Current Biology en septembre, Nieder et Mormann ont trouvé la même chose que Barnett, à savoir que le zéro présentait un effet de distance numérique. Dans le cerveau, cela signifie que, pour le cerveau, zéro n'est qu'un autre nombre, a déclaré Nieder.

Ou est-ce le cas ?

" Si l'on regarde de plus près, dit-il, zéro reste une valeur aberrante parmi les autres nombres. "

Ce qui rend Zero spécial

L'équipe de Nieder a découvert quelques différences entre la façon dont le cerveau représente le zéro et la façon dont il traite les autres nombres. D'une part, plus de neurones avaient le zéro comme nombre préféré que n'importe quel autre petit nombre. Comme il y a plus de neurones qui codent pour le zéro, le cerveau peut représenter l'ensemble vide avec plus de précision que d'autres petites quantités, ont-ils découverts.

Cependant, ils n'ont pas constaté de différence de précision dans la façon dont le cerveau représentait la version numérique du zéro (0) par rapport aux autres chiffres. "Tous les symboles numériques sont des abstractions, fonctionnant comme des symboles formels au sein d'un système symbolique", a déclaré Nieder. " En tant que tel, le zéro est traité comme n'importe quel autre nom formel. "

(image : Un point rempli fait partie d'un texte sanskrit griffonné à l'encre. Dans le manuscrit Bakhshali, un texte mathématique indien datant du IVe siècle, un zéro réservé est représenté par un point.)

Les bibliothèques Bodleian, Université d'Oxford

Les conclusions de Nieder sont légèrement différentes de celles de Barnett. Barnett n'a observé aucune différence, même minime, dans la manière dont le zéro était représenté par rapport aux autres nombres.

Comment expliquer cette différence ? Après avoir examiné leurs articles respectifs, Barnett et Nieder ont convenu que leurs résultats étaient complémentaires. Selon eux, toute différence est probablement liée à l'échelle : l'étude de Barnett a porté sur de grandes populations de neurones, tandis que celle de Nieder s'est intéressée à des neurones isolés.

Brian Butterworth, un neuroscientifique cognitif de l'University College de Londres, a noté que les différences entre les études pourraient plutôt être dues à la zone cérébrale étudiée. Le groupe de Barnett a pu examiner l'ensemble du cerveau, y compris le cortex pariétal, la région considérée comme le centre du traitement des nombres. Cependant, Nieder et Mormann étaient limités par l'endroit où les électrodes des patients étaient placées ; ils ont examiné de près des neurones individuels dans le lobe temporal médian, qui sont connus pour traiter la mémoire. " C'est comme chercher vos clés perdues sous le lampadaire ", a déclaré Butterworth. Le duo a peut-être examiné "les souvenirs pour le zéro", at-il ajouté, plutôt que le chiffre ou l'idée elle-même. Nieder n'est pas d'accord : cette zone du cerveau, ainsi que beaucoup d'autres, s'est également avérée capable de traiter les nombres, at-il déclaré.

Malgré les différences, les résultats ont enthousiasmé Semenza. Il avait déjà émis l'hypothèse que le zéro aurait sa place sur la ligne numérique mentale et ne serait pas un concept distinct des autres nombres. " J'aurais aimé faire ces expériences moi-même ", at-il déclaré.

Tous les chercheurs ont convenu que ces études ne sont qu'un début pour comprendre comment notre cerveau traite le zéro et comment concilier ses différents modes. Aucun des deux groupes de recherche, par exemple, n'a étudié la façon dont le cerveau traite le " zéro " comme un mot écrit.

" Combien de concepts zéro différents existent-t-il et comment pouvons-nous unifier ces idées sous un même toit ? ", a déclaré Barton. " C'est une notion mathématique bien comprise, mais j'aimerais en voir davantage de la part des neurobiologistes. "

Tandis que Nieder espère continuer à s'intéresser au monde des neurosciences numériques, Barnett a les yeux rivaux sur le concept d'absence. S'il parvient à trouver des similitudes dans la façon dont l'esprit représente le zéro et l'absence, dit-il, alors peut-être que la théorie de Nieder est juste – le zéro pourrait être le résultat d'une capacité plus fondamentale à saisir l'idée que " rien " est vraiment " quelque chose ".

Auteur: Internet

Info: https://www.quantamagazine.org/, Yasemin Saplakoglu, 18 octobre 2024

[ viduité ] [ nada ] [ zilch ] [ oualou ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

protérozoïque

Des molécules fossilisées révèlent un monde perdu de vie ancienne

Une nouvelle analyse de sédiments vieux d’un milliard d’années comble une lacune dans les archives fossiles, révélant une dynastie de premiers eucaryotes qui pourraient avoir façonné l’histoire de la vie sur Terre.

Un arbre a quelque chose en commun avec les mauvaises herbes et les champignons qui poussent autour de ses racines, les écureuils qui grimpent sur son tronc, les oiseaux perchés sur ses branches et le photographe qui prend des photos de la scène. Ils ont tous un génome et une machinerie cellulaire soigneusement emballés dans des compartiments reliés par des membranes, un système organisationnel qui les place dans un groupe de formes de vie extrêmement performantes appelés eucaryotes.

Les débuts de l’histoire des eucaryotes fascinent depuis longtemps les scientifiques qui aspirent à comprendre quand la vie moderne a commencé et comment elle a évolué. Mais retracer les premiers eucaryotes à travers l’histoire de la Terre a été difficile. Des données fossiles limitées montrent que leur premier ancêtre est apparu il y a au moins 1,6 milliard d’années. Pourtant, d’autres preuves révélatrices de leur existence manquent. Les eucaryotes devraient produire et laisser derrière eux certaines molécules distinctives, mais les versions fossilisées de ces molécules n'apparaissent dans les archives rocheuses qu'il y a 800 millions d'années. Cet écart inexpliqué de 800 millions d'années dans l'histoire des premiers eucaryotes, période cruciale au cours de laquelle le dernier ancêtre commun de toute la vie complexe d'aujourd'hui est apparu, a enveloppé de mystère l'histoire des débuts de la vie.

"Il existe un énorme écart temporel entre les archives fossiles de ce que nous pensons être les premiers eucaryotes et les premiers biomarqueurs des eucaryotes", a déclaré Galen Halverson , professeur à l'Université McGill de Montréal.

Il existe de nombreuses explications possibles à cet écart paradoxal. Peut-être que les eucaryotes étaient trop rares à cette époque pour laisser derrière eux des preuves de fossiles moléculaires. Ou peut-être étaient-ils abondants, mais leurs fossiles moléculaires n’ont pas survécu aux dures conditions géologiques.

Une étude récente publiée dans Nature propose une explication alternative : les scientifiques ont peut-être recherché les mauvaises molécules fossilisées pendant tout ce temps. Lorsque les auteurs de l’étude ont recherché des versions plus primitives des produits chimiques recherchés par d’autres, ils les ont découverts en abondance – révélant ce qu’ils ont décrit comme " un monde perdu " d’eucaryotes qui vivaient il y a 800 millions à au moins 1,6 milliard d’années.

"Ces molécules ont toujours été là", a déclaré Jochen Brocks , géochimiste à l'Université nationale australienne de Canberra, qui a codirigé l'étude avec Benjamin Nettersheim, alors étudiant diplômé . "Nous ne pouvions pas les trouver parce que nous ne savions pas à quoi elles ressemblaient."

Les résultats apportent une nouvelle clarté à la dynamique de la vie eucaryote précoce. L'abondance de ces fossiles moléculaires suggère que les organismes primitifs ont prospéré dans les océans pendant des centaines de millions d'années avant que les ancêtres des eucaryotes modernes ne prennent le relais, semant des formes de vie qui évolueraient un jour vers les animaux, les plantes, les champignons et les protistes que nous voyons. aujourd'hui.

"C'est une hypothèse élégante qui semble réconcilier ces enregistrements très disparates", a déclaré Halverson, qui n'a pas participé à l'étude. " Cela donne un sens à tout."

Ces découvertes ont été une bonne nouvelle pour des paléontologues comme Phoebe Cohen , présidente de géosciences au Williams College dans le Massachusetts, qui a longtemps pensé qu'il manquait quelque chose dans le dossier des biomarqueurs. "Il existe une histoire riche et dynamique de la vie avant l'évolution des animaux, qui est plus difficile à comprendre car nous ne pouvons pas la voir", a déclaré Cohen. "Mais c'est extrêmement important car cela prépare le terrain pour le monde que nous avons aujourd'hui."

Le casse-tête des protostéroïdes

Lorsque les archives fossiles sont décevantes, les scientifiques disposent d’autres moyens pour estimer le moment où différentes espèces se sont dérivées les unes des autres dans l’arbre évolutif. Parmi ces outils figurent principalement les horloges moléculaires : des fragments d’ADN qui mutent à un rythme constant, permettant aux scientifiques d’estimer le passage du temps. Selon les horloges moléculaires, le dernier ancêtre commun des eucaryotes modernes, qui appartenait à un ensemble diversifié d’organismes appelé groupe couronne, est apparu pour la première fois il y a au moins 1,2 milliard d’années.

Mais l’histoire des eucaryotes ne commence pas là. D’autres eucaryotes primitifs, connus sous le nom de groupe souche, ont vécu des centaines de millions d’années avant l’évolution de notre premier ancêtre commun. Les chercheurs en savent peu sur eux, au-delà du fait qu’ils ont existé. La petite poignée d’anciens fossiles d’eucaryotes découverts sont trop ambigus pour être identifiés comme une tige ou une couronne.

En l’absence de fossiles corporels convaincants, les chercheurs recherchent des fossiles moléculaires. Les fossiles moléculaires, qui se conservent séparément des fossiles corporels, peuvent être difficiles à cerner pour les scientifiques. Ils doivent d’abord identifier quelles molécules auraient pu être produites uniquement par les organismes qu’ils souhaitent étudier. Ensuite, ils doivent composer avec le fait que toutes ces molécules ne se fossilisent pas bien.

La matière organique se désintègre à des rythmes différents et certaines parties des eucaryotes se conservent mieux que d’autres dans la roche. Les tissus se dissolvent en premier. L’ADN peut rester plus longtemps, mais pas trop longtemps : l’ADN le plus ancien jamais découvert a environ 2 millions d’années. Les molécules de graisse, cependant, peuvent potentiellement survivre pendant des milliards d’années.

Les eucaryotes créent de grandes quantités de molécules de graisse appelées stérols, un type de stéroïde qui constitue un composant essentiel des membranes cellulaires. Étant donné que la présence d’une membrane cellulaire est révélatrice des eucaryotes et que les molécules de graisse ont tendance à persister dans la roche, les stérols sont devenus le fossile moléculaire de référence pour ce groupe.

Les eucaryotes modernes fonctionnent avec trois grandes familles de stérols : le cholestérol chez les animaux, les phytostérols chez les plantes et l'ergostérol chez les champignons et certains protistes. Leur synthèse commence par une molécule linéaire, que la cellule façonne en quatre anneaux afin que la forme résultante s'intègre parfaitement dans une membrane, a déclaré Brocks. Ce processus comporte de nombreuses étapes : il faut huit étapes enzymatiques supplémentaires aux cellules animales pour fabriquer du cholestérol, tandis que les cellules végétales nécessitent 11 étapes enzymatiques supplémentaires pour fabriquer un phytostérol.

En route pour fabriquer son stérol avancé, une cellule crée une série de molécules plus simples à chaque étape du processus. Lorsqu’ils sont branchés sur une membrane artificielle, même ces stérols intermédiaires offrent la perméabilité et la rigidité dont une cellule a besoin pour fonctionner comme elle le devrait. Le biochimiste Konrad Bloch, qui a reçu le prix Nobel en 1964 en partie pour avoir découvert les étapes cellulaires de fabrication du cholestérol , "en a été perplexe", a déclaré Brocks. Pourquoi une cellule déploierait-elle des efforts supplémentaires pour fabriquer un stérol plus complexe alors qu’une molécule plus simple ferait le travail ?

En 1994, Bloch a écrit un livre dans lequel il prédisait que chacun de ces stérols intermédiaires avait été autrefois le produit final utilisé dans la membrane d'une cellule eucaryote ancestrale. Chaque étape supplémentaire a peut-être nécessité plus d'énergie de la cellule, mais la molécule résultante constituait une légère amélioration par rapport à la précédente – une amélioration suffisante pour surpasser le précurseur et s'imposer dans l'histoire de l'évolution.

Si cela était vrai, cela expliquerait pourquoi personne n’avait pu trouver de fossiles moléculaires de stérols avant l’expansion rapide des eucaryotes modernes, il y a environ 800 millions d’années. Les chercheurs recherchaient des cholestérols et d’autres structures modernes dans les archives rocheuses. Ils ne se rendaient pas compte que les anciennes voies biochimiques étaient plus courtes et que les organismes des groupes souches ne produisaient pas de stérols modernes : ils  faisaient des protostérols.

Mouture de café moléculaire

En 2005, environ cinq ans après la mort de Bloch, Brocks et ses collègues ont rapporté dans Nature les premiers indices de l'existence de telles molécules intermédiaires. Dans d'anciens sédiments, ils avaient trouvé des stéroïdes de structure inhabituelle qu'ils ne reconnaissaient pas. Mais à l’époque, Brocks ne pensait pas qu’un eucaryote aurait pu les créer. " À l’époque, j’étais assez convaincu qu’ils étaient bactériens ", a-t-il déclaré. "Personne ne pensait du tout à la possibilité d'avoir des eucaryotes du groupe souche."

Il a continué à échantillonner des roches anciennes et à rechercher ces curieuses molécules. Environ une décennie après le début de leurs travaux, Nettersheim et lui ont réalisé que de nombreuses structures moléculaires dans les échantillons de roche semblaient " primitives " et ne ressemblaient pas à celles que fabriquent généralement les bactéries, a déclaré Brocks. Serait-ce les stérols intermédiaires de Bloch ?

(Photo : De rares fossiles microscopiques de la vie ancienne fournissent des horodatages sur l’évolution des eucaryotes.  Satka favosa  (à gauche) et  Valeria lophostriata  datent d'il y a 1,6 milliard d'années. On ne sait pas si les organismes, probablement des protistes, appartiennent au groupe tige ou couronne. )

Il leur fallait davantage de preuves. Au cours de la décennie qui a suivi, Brocks et Nettersheim ont contacté des sociétés pétrolières et minières pour demander des échantillons de tout sédiment ancien qu'elles avaient accidentellement découvert lors d'expéditions de forage.

"La plupart des gens auraient trouvé deux exemples et publiés", a déclaré Andrew Knoll , professeur d'histoire naturelle à l'Université Harvard qui n'a pas participé à l'étude. (Il était le conseiller postdoctoral de Brocks il y a des années.) " Jochen a passé la majeure partie de la décennie à étudier les roches du Protérozoïque du monde entier. "

Pendant ce temps, les chercheurs ont créé un modèle de recherche pour identifier les molécules présentes dans les sédiments. Ils ont converti les molécules intermédiaires modernes fabriquées lors de la synthèse des stérols en équivalents géologiques plausibles des stéroïdes. (Le cholestérol, par exemple, se fossilise sous forme de cholestane.) " Si vous ne savez pas à quoi ressemble la molécule, vous ne la verrez pas 2, a déclaré Brocks.

En laboratoire, ils ont extrait des molécules fossiles des échantillons de sédiments en utilisant un processus qui " ressemble un peu à la préparation du café ", a déclaré Nettersheim. Après avoir broyé les roches, ils ont ajouté des solvants organiques pour en extraire les molécules – tout comme l’eau chaude est utilisée pour extraire le café des grains torréfiés et moulus.

(Photo :Benjamin Nettersheim, géochimiste à l'Université de Brême, examine les cartes moléculaires d'anciens sédiments rocheux à la recherche de biomarqueurs de la vie ancienne.)

Pour analyser leurs échantillons et les comparer à leurs références, ils ont utilisé la spectrométrie de masse, qui détermine le poids des molécules, et la chromatographie, qui révèle leur composition atomique.

Le processus est ardu. "Vous analysez des centaines de roches et ne trouvez rien", a déclaré Brocks. Lorsque l’on trouve quelque chose, il s’agit souvent d’une contamination récente. Mais plus ils analysaient d’échantillons, plus ils trouvaient de fossiles.

Certains échantillons étaient remplis à ras bord de protostéroïdes. Ils ont découvert ces molécules dans des roches datant d'il y a 800 millions à 1,6 milliard d'années. Il semblait que non seulement les eucaryotes anciens étaient présents depuis environ 800 millions d’années avant le décollage des eucaryotes modernes, mais qu’ils étaient également abondants.

Les chercheurs ont même pu reconnaître le processus évolutif des eucaryotes à mesure que leurs stéroïdes devenaient plus complexes. Par exemple, dans des roches vieilles de 1,3 milliard d’années, ils ont découvert une molécule intermédiaire plus avancée que les protostéroïdes vieux de 1,6 milliard d’années, mais pas aussi avancée que les stéroïdes modernes.

"C'était une façon très intelligente de traiter les archives manquantes de fossiles moléculaires", a déclaré David Gold , géobiologiste à l'Université de Californie à Davis, qui n'a pas participé à l'étude. Leur découverte a immédiatement comblé une lacune de 800 millions d’années dans l’histoire de la naissance de la vie moderne.

Un monde perdu

Les découvertes moléculaires, combinées aux données génétiques et fossiles, révèlent l'image la plus claire à ce jour de la dynamique eucaryote précoce d'il y a environ 1 milliard d'années, au cours de la mystérieuse ère médiane du Protérozoïque, ont déclaré les experts. D'après les preuves de Brocks et Nettersheim, les eucaryotes des groupes tige et couronne (stem and crown)  ont probablement vécu ensemble pendant des centaines de millions d'années et se sont probablement fait concurrence pendant une période que les géologues appellent le milliard ennuyeux en raison de sa lente évolution biologique.

L'absence de stéroïdes plus modernes à cette époque suggère que le groupe couronne n'a pas immédiatement pris le dessus. Au contraire, les organismes liés à la membrane ont commencé petit à mesure qu'ils trouvaient des niches dans l'ancien écosystème, a déclaré Gold. " Il faut beaucoup de temps pour que les [eucaryotes] deviennent écologiquement dominants ", a-t-il déclaré.

(Photo : Ces anciens microfossiles partagent un ancêtre avec tous les eucaryotes vivant aujourd’hui. Vieille d’un milliard d’années, l’algue benthique  Proterocladus antiquus  (au centre) est le plus ancien fossile de couronne connu. Il y a 750 millions d'années, les eucaryotes du groupe couronne tels que l'amibozoaire Bonniea dacruchares  (à gauche) et le rhizarien  Melicerion poikilon  (à droite) étaient courants.)

De gauche à droite : Susannah Porter ; Avec l'aimable autorisation de Virginia Tech ; Susannah Porter

Au début, le groupe souche avait peut-être un avantage. Les niveaux d’oxygène dans l’atmosphère étaient nettement inférieurs à ce qu’ils sont aujourd’hui. Étant donné que la construction de protostérols nécessite moins d’oxygène et d’énergie que les stérols modernes, les eucaryotes du groupe souche étaient probablement plus efficaces et plus abondants.

Leur influence déclina lorsque le monde traversa une transition critique connue sous le nom de période tonienne. Il y a entre 1 milliard et 720 millions d’années, l’oxygène, les nutriments et autres matières premières cellulaires ont augmenté dans les océans. Des fossiles d'eucaryotes modernes, comme des algues et des champignons, commencent à apparaître dans les archives rocheuses, et les stéroïdes modernes commencent à dépasser en nombre les protostéroïdes dans les biomarqueurs fossilisés – des preuves qui suggèrent que les eucaryotes du groupe couronne avaient commencé à prospérer, à augmenter en nombre et à se diversifier.

Pourquoi les stérols deviendraient-ils plus compliqués avec le temps ? Les auteurs suggèrent que les stérols les plus complexes confèrent à leurs propriétaires un certain avantage évolutif, peut-être lié à la dynamique des membranes cellulaires des créatures. Quelle que soit la raison, le changement de stérol était significatif sur le plan évolutif. La composition des stérols modernes a probablement donné aux eucaryotes du groupe couronne un avantage par rapport au groupe souche. Finalement, " ce monde perdu d’anciens eucaryotes a été remplacé par les eucaryotes modernes ", a déclaré Brocks.

Une ride bactérienne

L’histoire évolutive des chercheurs sur les stérols est convaincante, mais elle n’est pas solide comme le roc.

"Je ne serais pas surpris" si leur interprétation est correcte, a déclaré Gold. Cependant, il existe une autre possibilité. Bien que les scientifiques aient tendance à associer les stérols aux eucaryotes, certaines bactéries peuvent également les fabriquer. Les fossiles moléculaires de l’étude auraient-ils pu être laissés par des bactéries ?Gordon Love , géochimiste à l'Université de Californie à Riverside, pense que le scénario bactérien est plus logique. "Ces protostéroïdes se retrouvent dans les roches de tous âges", a-t-il déclaré. "Ils ne disparaissent pas tout simplement, ce qui signifie que quelque chose d'autre que les eucaryotes souches est capable de les fabriquer." Il a fait valoir que les bactéries, qui dominaient la mer à cette époque, auraient pu facilement produire des protostéroïdes.

Les auteurs ne peuvent pas exclure cette possibilité. En fait, ils soupçonnent que certaines de leurs molécules fossiles ont été fabriquées par des bactéries. Mais la possibilité que leur vaste collection de protostéroïdes fossilisés, s'étendant sur des centaines de millions d'années, ait été entièrement constituée de bactéries semble peu probable, a déclaré Brocks.


" Si vous regardez l'écologie de ces bactéries aujourd'hui et leur abondance, il n'y a tout simplement aucune raison de croire qu'elles pourraient devenir si abondantes qu'elles auraient pu produire toutes ces molécules", a-t-il déclaré. Dans le monde moderne, les bactéries produisent des protostérols uniquement dans des environnements de niche tels que les sources hydrothermales ou les suintements de méthane.

Cohen, paléontologue du Williams College, est d'accord avec Brocks. L’interprétation selon laquelle ces molécules ont été faites par des eucaryotes " est cohérente avec toutes les autres sources de preuves ", a-t-elle déclaré – des archives fossiles aux analyses de l’horloge moléculaire. " Je ne suis pas aussi inquiète 2 quant à cette possibilité, a-t-elle déclaré.

L’une ou l’autre interprétation présente plus de questions que de réponses. "Les deux histoires seraient absolument folles et bizarres", a déclaré Brocks. Ce sont " des visions différentes de notre monde ", a-t-il ajouté, et il serait bien de savoir laquelle est la vraie.

Faute de machine à remonter le temps, les chercheurs recherchent davantage de preuves pour améliorer leur certitude dans un sens ou dans l’autre. Mais il n’existe qu’un nombre limité de façons de reconstruire ou de percevoir la vie ancienne – et même les meilleures suppositions des scientifiques ne peuvent jamais combler complètement cette lacune. "La plupart des formes de vie n'ont laissé aucune trace sur Terre", a déclaré Nettersheim. " Le bilan que nous voyons est limité. … Pendant la majeure partie de l’histoire de la Terre, la vie aurait pu être très différente. "

Auteur: Internet

Info: Quanta Magazine, Yasemin Saplakoglu, 23 octobre 2023

[ unicité ] [ microbiote ] [ paliers évolutifs ] [ précambrien ] [ protérozoïque ] [ radiations adaptatives ] [ pressions de sélection ] [ équilibres ponctués ]

 

Commentaires: 0

Ajouté à la BD par miguel

régulation post-transcriptionnelle

Les cellules de l'arbre de vie échangent des " messages texte " à l'aide de l'ARN

Connu depuis longtemps comme un messager au sein des cellules, l’ARN est de plus en plus considéré comme le système de communication moléculaire de la vie, même entre des organismes largement séparés par l’évolution.

( photo) Les cellules de l’arbre de la vie peuvent échanger des messages de courte durée codés par l’ARN – des missives qui ressemblent à un texte rapide plutôt qu’à une note formelle sur papier à en-tête.

Pour une molécule d’ARN, le monde est un endroit dangereux. Contrairement à l’ADN, qui peut persister pendant des millions d’années sous sa forme à double brin remarquablement stable, l’ARN n’est pas conçu pour durer, pas même dans la cellule qui l’a créé. À moins d’être attaché de manière protectrice à une molécule plus grosse, l’ARN peut se dégrader en quelques minutes, voire moins. Et à l’extérieur d’une cellule ? Oubliez ça. Les enzymes voraces qui détruisent l’ARN sont partout, sécrétées par toutes les formes de vie pour se défendre contre les virus qui écrivent leur identité génétique dans un code ARN.

L’ARN peut survivre indemne à l’extérieur d’une cellule d’une manière ou d’une autre : dans une minuscule bulle protectrice. Depuis des décennies, les chercheurs ont remarqué que les cellules libèrent ces bulles de membrane cellulaire, appelées vésicules extracellulaires (VE), remplies d’ARN dégradé, de protéines et d’autres molécules. Mais ces sacs étaient considérés comme de simples sacs poubelles qui évacuent les déchets moléculaires décomposés d’une cellule lors d’un nettoyage de routine.

Puis, au début des années 2000, des expériences menées par Hadi Valadi, biologiste moléculaire à l'université de Göteborg, a révélé que l'ARN à l'intérieur de certaines EV ne ressemblait pas à des déchets. Le cocktail de séquences d'ARN était considérablement différent de celui trouvé à l'intérieur de la cellule, et ces séquences étaient intactes et fonctionnelles. Lorsque l’équipe de Valadi a exposé des cellules humaines à des EV provenant de cellules de souris, ils ont été choqués d’observer que les cellules humaines absorbaient les messages d’ARN et les " lisaient " pour créer des protéines fonctionnelles qu’elles n’auraient pas pu fabriquer autrement.

Valadi a conclu que les cellules empaquetaient des brins d’ARN dans des vésicules spécifiquement pour communiquer entre elles. " Si je suis sorti et que je vois qu’il pleut, dit-il, je peux vous dire : si vous sortez, prenez un parapluie avec vous. " De la même manière, a-t-il suggéré, une cellule pourrait avertir ses voisines d’une exposition à un agent pathogène ou à un produit chimique nocif avant qu’elles ne soient elles-mêmes confrontées au danger.

Depuis, de nombreuses preuves ont été avancées pour étayer cette théorie, grâce aux progrès de la technologie de séquençage qui permettent aux scientifiques de détecter et de décoder des segments d’ARN de plus en plus petits. Depuis que Valadi a publié ses expériences, d’autres chercheurs ont également observé des EV remplis de combinaisons d’ARN complexes. Ces séquences d’ARN peuvent contenir des informations détaillées sur la cellule qui les a créées et déclencher des effets spécifiques dans les cellules réceptrices. Ces résultats ont conduit certains chercheurs à suggérer que l’ARN pourrait être une lingua franca moléculaire qui transcende les frontières taxonomiques traditionnelles et peut donc coder des messages qui restent intelligibles dans tout l’arbre de la vie.

En 2024, de nouvelles études ont révélé des couches supplémentaires de cette histoire, montrant, par exemple, qu'avec les bactéries et les cellules eucaryotes, les archées échangent également. L'ARN lié aux vésicules confirme que le phénomène est universel dans les trois domaines de la vie. Une autre étude a élargi notre compréhension de la communication cellulaire entre les règnes en montrant que les plantes et les champignons infectieux peuvent utiliser des paquets d'ARN dévastateurs comme une forme de guerre de l’information coévolutionnaire : une cellule ennemie lit l’ARN et construit des protéines autodestructrices avec sa propre machinerie moléculaire.

" J'ai été impressionnée par ce que l'ARN peut faire ", a déclaré Amy Buck, biologiste spécialiste de l’ARN à l’Université d’Édimbourg, qui n’a pas participé à la nouvelle recherche. Pour elle, comprendre l’ARN comme moyen de communication " va au-delà de l’appréciation de la sophistication et de la nature dynamique de l’ARN au sein de la cellule ". La transmission d’informations au-delà de la cellule pourrait être l’un de ses rôles innés.

Livraison dans des délais serrés

La microbiologiste Susanne Erdmann étudie les infections virales chez Haloferax volcanii , un organisme unicellulaire qui prospère dans des environnements incroyablement salés comme la mer Morte ou le Grand Lac Salé. On sait que les bactéries unicellulaires échangent largement des VE, mais H. volcanii n'est pas une bactérie - c'est un archéen , un membre de la troisième branche évolutive de la vie, qui présente des cellules construites différemment des bactéries ou des eucaryotes comme nous.

Comme les EV ont la même taille et la même densité que les particules virales étudiées par l'équipe d'Erdmann à l'Institut Max Planck de microbiologie marine en Allemagne, ils " apparaissent toujours lorsque vous isolez et purifiez des virus ", a-t-elle déclaré. Finalement, son groupe est devenu curieux et a décidé de jeter un œil à ce qu'il y avait à l'intérieur.

" Je m’attendais à de l’ADN ", se souvient Erdmann, après avoir appris que d’autres espèces d’archées intégraient de l’ADN dans des EV. Au lieu de cela, son laboratoire a découvert tout un assortiment d’ARN – en particulier des ARN non codants, de mystérieux fragments de nucléotides sans fonction connue dans les archées. Ces séquences d’ARN non codantes étaient beaucoup plus abondantes dans les EV que dans les cellules archéennes elles-mêmes. " C’était la première fois que nous trouvions de l’ARN dans des EV chez des archées ", a-t-elle déclaré.

Erdmann s'est demandé si les vésicules archaïques avaient une utilité. Une cellule peut produire spontanément des vésicules lorsque sa membrane se resserre sur elle-même pour former une petite bulle qui se détache ensuite. Cependant, d'autres mécanismes impliquent des processus plus actifs et délibérés, similaires à ceux qui déplacent les molécules à l'intérieur de la cellule. Le groupe d'Erdmann a identifié une protéine archaïque essentielle à la production d'EV contenant de l'ARN.


Cela lui a permis de penser que l’ARN ne se retrouvait pas dans les vésicules par hasard et que le processus n’était pas simplement une question d’élimination des déchets. " Il est très probable que les archées les utilisent pour communiquer entre cellules ", a-t-elle déclaré. " Sinon, pourquoi investir autant d’énergie à éliminer de l’ARN aléatoire dans des vésicules ? "

Erdmann ne sait pas exactement pourquoi les microbes Haloferax remplissent leurs vésicules d'ARN alors que d'autres espèces d'archées préfèrent l'ADN. Mais elle soupçonne que cela est lié à la sensibilité temporelle du message moléculaire. " L'ARN est un langage différent de l'ADN ", a-t-elle déclaré, et il remplit une fonction fondamentalement différente à l'intérieur comme à l'extérieur des cellules. 

L'acide ribonucleique est mieux connu comme molécule messagère qui copie des recettes de protéines à partir de l'ADN. Cependant sa structure chimique lui permet de se plier en des formes complexes qui jouent des rôles variés dans la cellule.

1. Support de l'information génétique (ARN messager, ARNm)   L'ARNm est une copie temporaire d'un gène de l'ADN qui est utilisée pour produire des protéines. Il sert de pont entre l'ADN (qui reste dans le noyau) et les ribosomes, les machines de production des protéines dans le cytoplasme.

2. Rôle dans la traduction des protéines (ARN de transfert, ARNt et ARN ribosomal, ARNr)   ARNt : L'ARN de transfert joue un rôle crucial dans la traduction de l'ARNm en protéines. Il transporte les acides aminés spécifiques vers le ribosome en fonction du codon présent sur l'ARNm.   ARNr : L'ARN ribosomal constitue une partie essentielle des ribosomes, les structures où la synthèse des protéines a lieu. Il catalyse les réactions qui relient les acides aminés entre eux.

3. Régulation de l’expression génétique (microARN, ARN interférents, etc.) Les microARN (miARN) et les petits ARN interférents (siARN) sont des régulateurs de l'expression génétique. Ils agissent en ciblant des ARNm spécifiques pour inhiber leur traduction ou favoriser leur dégradation, jouant ainsi un rôle dans le contrôle de la stabilité et de la quantité des protéines produites dans la cellule.

4. ARN catalytiques (ribozymes) Contrairement à la croyance traditionnelle que seuls les protéines peuvent catalyser des réactions biochimiques, certains ARN, appelés ribozymes, ont des capacités catalytiques. Ils peuvent catalyser des réactions chimiques, telles que la liaison ou la coupure de liaisons phosphodiester dans l'ARN lui-même, jouant ainsi un rôle dans des processus comme l'épissage.

5. Épissage alternatif et régulation post-transcriptionnelle L'ARN pré-messager subit souvent un processus appelé épissage, où certaines parties (introns) sont éliminées et les parties restantes (exons) sont réunies pour former l'ARNm final. L'épissage alternatif permet à un même gène de produire plusieurs variantes d'ARNm, ce qui conduit à la production de protéines différentes à partir du même gène.

6. ARNs non codants (ARNnc) En dehors de leur rôle dans la synthèse des protéines, de nombreux ARN ne codent pas pour des protéines, mais assurent des fonctions régulatrices et structurales dans la cellule. Par exemple, les longs ARN non codants (lncRNA) sont impliqués dans la régulation de l'expression génique, la structure chromatinienne et d'autres processus biologiques complexes.

7. ARN circulaires (circRNA) Les ARN circulaires sont une classe d'ARNs non codants qui forment une boucle continue. Ils jouent un rôle dans la régulation génique, notamment en séquestrant les miARN, en stabilisant d'autres ARN ou en servant de matrice pour la traduction non conventionnelle.

8. Rôle dans la défense immunitaire (ARN viraux) - Certains virus, comme les virus à ARN (par exemple, le virus de la grippe ou le SARS-CoV-2), utilisent l'ARN comme matériel génétique. Les cellules hôtes utilisent des mécanismes d'interférence à ARN pour détecter et dégrader l'ARN viral, soulignant le rôle de l'ARN dans l'immunité innée.

En résumé, l'ARN est une molécule extraordinairement versatile qui remplit des rôles multiples dans les cellules, allant de la traduction de l'information génétique à la régulation et la catalyse. Cette diversité fonctionnelle fait de l'ARN un acteur clé dans presque tous les aspects de la biologie moléculaire.

L'ADN d'un organisme doit être stable et relativement immuable au cours de sa vie. Il peut subir des mutations spontanées ou même des gènes supplémentaires, mais il faut des générations de sélection naturelle pour que des changements temporaires dans les séquences d'ADN s'installent dans une population. L'ARN, en revanche, est en constante évolution, réagissant aux conditions dynamiques à l'intérieur et à l'extérieur de la cellule. Les signaux d'ARN ne durent pas longtemps, mais ce n'est pas nécessaire, car ils peuvent très vite devenir inutiles.

En tant que message, l’ARN est transitoire. Il s’agit d’une caractéristique, pas d’un bug : il ne peut avoir que des effets à court terme sur d’autres cellules avant de se dégrader. Et comme l’ARN à l’intérieur d’une cellule change constamment, " le message que vous pouvez envoyer à votre cellule voisine " peut également changer très rapidement, a déclaré Erdmann. En ce sens, il s’apparente davantage à un message texte ou à un e-mail rapide destiné à communiquer des informations opportunes qu’à des runes gravées dans la pierre ou à un mémo officiel sur papier à en-tête.

Bien qu'il semble que les archées voisines absorbent et internalisent les EV provenant de leurs cellules voisines, on ne sait pas encore si ces messages les affectent. Erdmann se demande également ce qui arrive à ces vésicules dans la nature, où de nombreux organismes différents pourraient être à portée d'oreille des messages qu'elles transportent.

" Combien d’autres organismes dans le même environnement pourraient capter ce message ? ", s’est-elle interrogée. " Et le mangent-ils simplement et utilisent-ils l’ARN comme nourriture, ou détectent-ils réellement le signal ? "

Bien que cela puisse encore être un mystère pour Haloferax , d’autres chercheurs ont démontré que des cellules à travers des espèces, des règnes et même des domaines de la vie peuvent envoyer et recevoir des missives moléculaires remarquablement pointues.

Dialogue biologique croisé

Bien que l'ARN ait une durée de vie courte, il s'est révélé être une merveille moléculaire capable de changer de forme. Il est surtout connu pour aider les cellules à produire de nouvelles protéines en copiant les instructions de l'ADN (sous forme d'ARN messager, ou ARNm) et en les transmettant au ribosome pour construction. Cependant, son squelette flexible permet à l'ARN de se replier dans un certain nombre de formes qui peuvent avoir un impact sur la biologie cellulaire. Il peut agir comme une enzyme pour accélérer les réactions chimiques au sein des cellules. Il peut se lier à l'ADN pour activer ou désactiver l'expression des gènes. Et des brins d'ARN concurrents peuvent emmêler les instructions de l'ARNm dans un processus appelé interférence ARN qui empêche la production de nouvelles protéines.

Les chercheurs se sont de plus en plus intéressés aux façons dont l'ARN modifie l'activité cellulaire. Ils ont donc étudié des stratégies pour utiliser cette petite molécule mutable comme outil expérimental, comme traitement contre les maladies et même comme base du vaccin à ARNm contre la Covid-19 . Toutes ces applications nécessitent le transfert d'ARN dans les cellules, mais il semble que l'évolution nous ait devancés : les VE transmettent l'ARN même aux cellules qui ne souhaitent pas recevoir le message.

Il y a environ 10 ans, la généticienne moléculaire Hailing Jin et son laboratoire à l'Université de Californie, Riverside a découvert que deux organismes de règnes différents - une plante et un champignon - échangent de l'ARN comme une forme de guerre. Jin étudiait Botrytis cinerea , une moisissure grise duveteuse qui ravage des cultures telles que les fraises et les tomates, lorsqu'elle a vu qu'elle échangeait de l'ARN avec la plante Arabidopsis (arabette) pendant l'infection. Le champignon Botrytis a délivré de l'ARN qui interférait avec la capacité de la plante à combattre l'infection. Des travaux ultérieurs ont montré que les cellules végétales pouvaient répondre avec leur propre volée d'ARN qui a endommagé le champignon.

Dans cette " course aux armements coévolutionnaires ", comme l’a décrite Jin, les deux organismes ont utilisé des EV comme vecteurs de ces messages ARN délicats mais dommageables. Auparavant, les scientifiques intéressés par la dynamique hôte-pathogène se concentraient principalement sur les protéines et les métabolites, a expliqué Jin, car ces molécules peuvent être plus faciles à étudier. Mais il est logique que les organismes disposent de plusieurs moyens de résister aux défis environnementaux, a-t-elle ajouté, notamment en utilisant l’ARN pour interagir avec des parents évolutifs éloignés.

Au cours de la dernière décennie, de plus en plus de scientifiques ont découvert des exemples d'échange d'ARN entre règnes comme stratégie offensive lors d'une infection. Les vers parasites vivant dans les intestins de souris libèrent de l'ARN dans les EV qui désactivent les protéines immunitaires défensives de l'hôte. Les bactéries peuvent envoyer des messages aux cellules humaines qui atténuent les réponses immunitaires antibactériennes. Le champignon Candida albicans a même appris à détourner un message des véhicules électriques humains à son propre avantage : il utilise l'ARN humain pour favoriser sa propre croissance.

La correspondance entre les règnes n'est pas toujours un courrier haineux. Ces interactions ont également été observées dans des relations amicales (ou neutres), a déclaré Jin. Par exemple, les bactéries qui vivent en symbiose dans les racines des légumineuses envoient des messages ARN pour favoriser la nodulation — la croissance de petites bosses où les bactéries vivent et fixent l’azote pour la plante.

Comment l’ARN d’une branche de l’arbre de la vie peut-il être compris par les organismes d’une autre branche ? C’est un langage commun, explique Buck. L’ARN existe probablement depuis le tout début de la vie. Alors que les organismes ont évolué et se sont diversifiés, leur mécanisme de lecture de l’ARN est resté en grande partie le même. " L’ARN a déjà une signification dans chaque cellule ", explique Buck. " Et c’est un code assez simple. "

C'est tellement simple qu'une cellule réceptrice peut ouvrir et interpréter le message avant de se rendre compte qu'il pourrait être dangereux, de la même manière que nous pourrions cliquer instinctivement sur un lien dans un e-mail avant de remarquer l'adresse suspecte de l'expéditeur. En effet, plus tôt cette année, le laboratoire de Jin a montré que les cellules végétales d'Arabidopsis peuvent envoyer des instructions d'ARN apparemment inoffensives qui ont un impact surprenant sur un champignon ennemi. Au cours d'expériences, l'équipe de Jin a vu le champignon Botrytis lire l'ARNm envahissant ainsi que ses propres molécules et créer sans le vouloir des protéines qui endommageaient ses capacités infectieuses.

C'est presque comme si les plantes créaient un " pseudo-virus ", a expliqué Jin : de petits paquets d'ARN qui infectent une cellule et utilisent ensuite la machinerie de cette cellule pour produire des protéines.

" C’est un mécanisme assez puissant ", a-t-elle déclaré. " Un ARNm peut être traduit en de très nombreuses copies de protéines. […] C’est beaucoup plus efficace que le transport de la protéine elle-même. "

À sa connaissance, Jin a déclaré que c'était la première fois qu'elle observait des preuves d'organismes de différents règnes échangeant des messages d'ARNm et les lisant dans des protéines. Mais elle pense que ce phénomène sera probablement observé dans de nombreux autres systèmes, une fois que les gens commenceront à le rechercher.

Le domaine est jeune, a déclaré Buck, ce qui est passionnant. Il reste encore beaucoup à apprendre : par exemple, si les autres molécules contenues dans les VE aident à transmettre le message de l'ARN. " C'est un défi amusant de démêler tout cela ", a-t-elle déclaré. " Nous devrions être inspirés par la puissance et le dynamisme incroyables de l'ARN, et par la façon dont nous découvrons encore toutes les façons dont il façonne et régule la vie. " 



 

Auteur: Internet

Info: https://www.quantamagazine.org/, Annie Melchor, 16 sept 2024

[ . ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste