Citation
Catégorie
Tag – étiquette
Auteur
Info
Rechercher par n'importe quelle lettre



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 5278
Temps de recherche: 0.0359s

espace lointain

Le plus puissant télescope au monde réécrit l'histoire du temps et de l'espace

Le télescope James Webb de la NASA a permis de lever le voile sur les premières galaxies, qui sont plus nombreuses et plus brillantes que ce qu'imaginaient les scientifiques.

Sur l’une des vues les plus profondes de l’Univers jamais réalisées, le télescope spatial James Webb montre des milliers d’étoiles et de galaxies. Au centre, l’amas de galaxies distord le trajet de la lumière.

(Photo - simulation. Quand l'univers était jeune il y a plus de 13 milliards et demi d’années, aucune étoile ne brillait dans les profondeurs du ciel. Nous étions alors en plein âges sombres, époque où le cosmos était empli d’hélium et d’hydrogène – des gaz qui allaient constituer la matière première de tous les mondes à venir.)

Existait également la mystérieuse matière noire, dont la gravité allait pousser le gaz à se concentrer en structures complexes. Puis, avec l’expansion et le refroidissement ambiant, une partie de cette matière allait elle-même se concentrer en d’immenses sphères, qui attireraient le gaz. L’augmentation de la pression à l’intérieur de ces halos, comme les astronomes vont les nommer, poussa les atomes d’hydrogène à fusionner, formant ainsi des atomes d’hélium et allumant les premières étoiles de l’Univers primordial.

Émerveillé, j’observe ces prémices de l’aube cosmique à travers des lunettes 3D. Assis face à un projecteur à l’Institut Kavli d’astrophysique des particules et de cosmologie de l’université Stanford, aux États-Unis, je suis du regard des filaments de matière noire qui forment sur l’image un réseau gris fantomatique entre les halos au fur et à mesure que l’Univers s’étend. Des maelströms d’étoiles venant de naître s’enroulent en spirales au centre de ces derniers pour former les premières galaxies.

Depuis des décennies, les scientifiques travaillent au récit de l’origine de l’Univers. Mais, l’an dernier, le télescope spatial le plus perfectionné jamais construit a changé la donne. Le James Webb Space Telescope (JWST) a mis au jour d’anciennes galaxies, plus nombreuses et actives que prévu, dévoilant ainsi un prologue frénétique à la saga de l’espace et du temps.

Le télescope James Webb ne peut cependant pas distinguer les premières étoiles, pas encore assez brillantes pour être détectées. Il faudra attendre qu’elles rayonnent pendant quelques millions d’années avant d’exploser en supernovae – une parenthèse à l’échelle du temps astronomique.

" En fait, nous avons un peu ralenti les images, me confie le cosmologiste Tom Abel. Ça va tellement vite. La version complète aurait été constituée de flashes beaucoup plus rapides. "

Ces flashes, en fait des supernovae nées d’étoiles dont la masse peut atteindre des centaines de fois celle du Soleil, ont généré de nouveaux éléments qui ont transformé l’Univers : oxygène (nécessaire à la formation de l’eau), silicium (à celle des planètes), ou encore phosphore (indispensable aux cellules). Ces premières étoiles ont aussi cassé les atomes d’hydrogèn locaux, contribuant à rendre l’espace transparent, moment clé connu sous le nom de " réionisation ". À mesure que la brume se levait, des poches d’astres ont fusionné, formant des agglomérats tourbillonnants toujours plus vastes – dont les premiers éléments de notre Voie lactée.

Tom Abel a commencé à modéliser la naissance des premières étoiles dans les années 1990, alors que la nature du premier objet astronomique restait une énigme : s’agissait-il d’un trou noir, d’un corps de la taille de Jupiter, ou d’autre chose ? Par ses simulations informatiques, il a contribué avec ses collègues à établir qu’il devait s’agir d’étoiles, nées là où la gravité l’avait lentement emporté sur la pression du gaz. Il pensa alors qu’il n’y avait plus rien à apprendre.P

Puis vint le télescope James Webb.L

Lancé le matin de Noël 2021, le télescope spatial est maintenant positionné à 1,5 million de kilomètres de la Terre. Son miroir primaire de 6,5 m recouvert d’or capte une lumière qui a traversé l’espace pendant plus de 13 milliards d’années, nous révélant le visage d’alors des premières galaxies.

Les astronomes s’attendaient à détecter des galaxies naissantes. Mais ils ne pensaient pas en trouver autant, ni que cela puisse bouleverser leur compréhension des choses.

Dans cette région de la nébuleuse d’Orion, le rayonnement ultraviolet venant d’un amas d’étoiles voisin provoque d’intenses réactions chimiques. Le JWST y a découvert des cations méthyles. Ce composé carboné – encore jamais détecté dans l’espace – facilite la formation de molécules complexes nécessaires à la vie.

(photo : Dans cette région de la nébuleuse d’Orion, le rayonnement ultraviolet venant d’un amas d’étoiles voisin provoque d’intenses réactions chimiques. Le JWST y a découvert des cations méthyles. Ce composé carboné – encore jamais détecté dans l’espace – facilite la formation de molécules complexes nécessaires à la vie.)

L'étude des galaxies la plus poussée jamais entreprise a débuté en septembre 2022, quand l’équipe internationale du JADES (JWST Advanced Deep Extragalactic Survey) a commencé à braquer le télescope sur des régions du ciel des dizaines d’heures d’affilée. Deux semaines plus tard, elle se réunissait à Tucson, à l’université de l’Arizona, pour discuter des premiers résultats.

Quelque cinquante astronomes se sont entassés dans une salle de classe, certains restant debout au fond de la pièce ou apportant des chaises supplémentaires pour pouvoir s’asseoir le long des murs.

Tous les scientifiques présents scrutaient avec fébrilité sur leurs ordinateurs une mosaïque de centaines d’images fraîchement capturées, partagée quelques jours auparavant. Elle contenait des dizaines de milliers de galaxies et autres objets célestes, et des murmures enthousiastes se faisaient entendre à mesure que les participants s’indiquaient des choses jamais vues jusque-là : des régions remplies d’étoiles en formation, des centres galactiques incandescents où pourraient se cacher des trous noirs, des taches de lumière rougeâtres provenant de galaxies si éloignées que seul le télescope James Webb pouvait les détecter. " On était comme des enfants dans un magasin de bonbons ", me raconte Marcia Rieke, astronome à l’université de l’Arizona et l’une des responsables du programme JADES.

Contrairement au télescope Hubble, notre précédente fenêtre sur le passé lointain, le télescope James Webb observe l’Univers dans l’infrarouge – ce qui en fait un instrument idéal pour capturer les rayons des premières étoiles, émis sous forme d’ultraviolets mais dont les longueurs d’ondes, étirées par l’expansion de l’Univers, se sont ensuite décalées vers le rouge. Plus ce décalage est prononcé, plus la cible est éloignée et donc ancienne.

Marcia Rieke a supervisé les débats avec un mélange de joie et de rigueur, répondant aux questions techniques ou discutant du fonctionnement du télescope. En plus d’être l’une des chercheuses les plus éminentes du JADES, elle est la responsable principale de la caméra dans le proche infrarouge (NIRCam) du JWST – à l’origine de la mosaïque de galaxies source de tant d’émoi. Elle a supervisé la conception de l’appareil de 150 kg, un assemblage de miroirs, de lentilles et de détecteurs permettant d’absorber la lumière de l’Univers et de l’étudier à travers différents filtres. "Ces images sont à la hauteur de toutes nos espérances ", souligne-t-elle.

Pour autant, tout ne fonctionne pas parfaitement sur le télescope. Son spectrographe dans le proche infrarouge (NIRSpec) a connu des courts-circuits, qui ont créé des taches claires sur certaines cibles visées. L’instrument a pour fonction de scinder la lumière en spectres, ce qui permet aux scientifiques de reconstituer la composition chimique d’une galaxie et de mesurer précisément son décalage vers le rouge. Si les images de la NIRCam peuvent aider à estimer les distances des galaxies, on a besoin du NIRSpec pour les confirmer. Les courts-circuits ont retardé certaines observations, ce qui fut un mal pour un bien. Car, si les astronomes avaient prévu d’utiliser le NIRSpec pour examiner des objets connus grâce au télescope spatial Hubble, ils pouvaient désormais changer de cibles et s’intéresser aux galaxies tout juste découvertes par la NIRCam. " Nous sommes devenus fous en les traquant dans ces données que personne n’avait jamais vues ", me glisse Kevin Hainline, astrophysicien à l’université de l’Arizona.

Une chose que l’équipe ne pouvait pas faire, c’était changer l’orientation du télescope. Par chance, quatre galaxies lointaines se trouvaient dans son champ de vision. Deux d’entre elles, comme le confirmerait le NIRSpec, étaient plus éloignées et plus vieilles qu’aucune autre connue.

La plus distante, JADES-GS-z13-0, s’était formée juste 325 millions d’années après le big bang. " Dans toute cette folie, je n’ai pas réalisé la portée de ce moment où j’étais assis là, à me dire : - Oh ! C’est la galaxie la plus lointaine que l’homme ait jamais vue !”, raconte Kevin Hainline.

Deux choses sont déjà claires à leur propos : elles sont plus nombreuses que prévu, et étonnamment brillantes pour leur âge. Ces anomalies pourraient être dues au fait que les premières étoiles qui les constituent se sont formées plus facilement qu’on le pensait, ou qu’il y avait plus d’étoiles massives que ce qui était envisagé.

Une des premières galaxies, GN-z11, datant d’environ 440 millions d’années après le big bang, était suffisamment brillante pour que Hubble la repère dès 2016. Le JWST l’a aussi observée et a capté son spectre avec le NIRSpec. " Celle-là a à la fois déconcerté et enthousiasmé tout le monde ", note Emma Curtis-Lake, astrophysicienne à l’université du Hertfordshire, en Angleterre, et membre de l’équipe du NIRSpec.

Certains éléments chimiques génèrent des raies d’émission brillantes dans le spectre d’une galaxie, telles des empreintes digitales que laisserait derrière elle la matière galactique. Le spectre de GN-z11 a révélé une quantité étonnante d’azote – ce qui a surpris les scientifiques, incapables d’en expliquer la source. Il est possible qu’une population d’étoiles de Wolf-Rayet, très chaudes et très actives, ait dispersé cet élément via des vents stellaires. À moins que plusieurs étoiles massives soient entrées en collision, libérant de l’azote dans le processus.

Les galaxies lointaines ne sont pas le seul moyen d’en savoir plus sur l’Univers primordial. Des galaxies naines proches contiennent de petites étoiles qui se sont formées très tôt et existent toujours. C’est le cas de la galaxie de Wolf-Lundmark-Melotte (en haut, à gauche, sur une image du VST, le télescope de sondage du VLT, de l’Observatoire européen austral, ou ESO, au Chili). Le JWST en a scruté l’intérieur (voir les images ci-dessous) pour étudier quelques-unes de ces anciennes étoiles à combustion lente – fossiles des époques passées.

(PHOTO du european southern observatory : GN-z11 pourrait aussi abriter un trou noir supermassif en son centre, ce qui serait remarquable pour cette époque primitive. Il serait " le trou noir le plus éloigné identifié ", pointe l’astrophysicienne. Caché, il a été révélé par des raies spectrales qui suggèrent que de la matière se déplace dans une zone dense, tourbillonnant à plus de 1,5 million de kilomètres à l’heure – le genre de chose auxquelles on s’attend près d’un trou noir. Mais comment ce dernier a pu se développer aussi vite, donc tôt, reste un mystère.)

George, le mari de Marcia Rieke, lance, en entrant dans une salle de contrôle servant aussi de kitchenette :  Ce n’est plus comme avant. " Son épouse confirme : " Non, il y a cinq fois plus d’écrans. " Le couple a proposé de me montrer un vieux télescope dans les montagnes, près de Tucson, où ils ont passé une grande partie de leur début de carrière. Tous deux astronomes à l’université de l’Arizona, ils se sont rencontrés en 1972. Le télescope de 1,5 m du mont Bigelow était alors assez récent et servait à cartographier la surface de la Lune. Il est devenu l’un des principaux observatoires dans le domaine naissant de l’astronomie infrarouge. Une sorte d’aïeul du télescope James Webb.

Les Rieke ont contribué à assurer la passation entre les deux instruments. Alors que Marcia supervisait le développement de la NIRCam, George était en charge du MIRI (Mid-Infrared Instrument – pour des mesures dans l’" infrarouge moyen ") du JWST. Restant éveillés des nuits entières, ils ajustaient lentement l’engin pour qu’il garde une cible en vue pendant que

la Terre tournait. Aujourd’hui, leurs assistants peuvent faire la plus grande partie de ce travail à partir d’ordinateurs portables. " Une bande de chiffes molles ", plaisante George.

Dans les années 1970, le couple a effectué au mont Bigelow quelques-unes des premières observations dans l’infrarouge du centre de la Voie lactée. Les scientifiques tenaient alors cette zone de notre galaxie pour " une collection de vieilles étoiles sans intérêt ", se rappelle Marcia. Mais, dans cette lumière infrarouge, des poches de gaz turbulentes accueillant la formation rapide d’étoiles sont apparues. " Tout le tableau en a été changé ", note George.

À l’époque, la lumière infrarouge commençait tout juste à être étudiée en astronomie. Le développement de nouveaux capteurs a peu à peu permis de révéler cette immense partie jusque là ignorée du spectre électromagnétique – allant des rayons gamma aux ondes radio. Le télescope du mont Bigelow a permis de combler une lacune dans l’observation de l’Univers local, et le JWST est ensuite venu compléter notre vision du cosmos lointain.

Mais, pour comprendre vraiment nos origines cosmiques, le télescope spatial ne suffira pas.

Par un matin d'avril, je me suis retrouvé sur un plateau entre des volcans enneigés du désert d’Atacama, au Chili, plissant les yeux dans le soleil. Des tubes en plastique m’apportent un complément d’oxygène, précaution nécessaire quand on rejoint le Grand Réseau millimétrique /submillimétrique de l’Atacama (ALMA), un télescope situé à 5 000 m d’altitude.

Le ciel est d’un bleu plus profond, avec une atmosphère moins dense en molécules risquant de disperser la lumière – un lieu idéal pour l’astronomie. D’où les dizaines d’antennes paraboliques hautes de quatre étages se dressant face à moi, comme autant de sentinelles disséminées sur le plateau andin de Chajnantor. Dans un étonnant ballet, toutes pivotent de conserve quand elles se fixent sur une nouvelle cible.

Le nuage moléculaire géant de Rho Ophiuchi est la pouponnière d’étoiles la plus proche de la Terre. Une cinquantaine d’étoiles y naissent dans des cocons de gaz et de poussière, la plupart de masse similaire au Soleil. En bas, une étoile plus puissante crée une cavité géante.

Observatoire de radioastronomie parmi les plus perfectionnés de la planète, l’ALMA est aussi l’un des rares outils capables de percevoir les galaxies primitives découvertes par le JWST, bien qu’avec une approche différente. Le télescope spatial capte la lumière des étoiles perçant à travers la poussière des galaxies ; tandis que l’ALMA traque la luminosité de la poussière elle-même, chauffée par les étoiles situées à l’intérieur de ces galaxies. " Ces grains de poussière proviennent de l’explosion de supernovae, ce qui permet d’obtenir indirectement des informations sur elles et, partant, sur la première population d’étoiles ", explique María Emilia De Rossi, astrophysicienne à l’Institut d’astronomie et de physique de l’espace (IAFE) à Buenos Aires.

L’ALMA a donc orienté ses antennes paraboliques vers certaines des galaxies primordiales. Mais, lors de ses premières tentatives, il n’a souvent pas été en mesure de détecter d’émission de la poussière. Cela pourrait signifier que les galaxies sont encore à un stade embryonnaire et qu’il n’y a pas assez de poussière générée par des explosions stellaires – ou bien que certaines sont en fait plus proches qu’on ne le pensait.

Dans un cas, l’ALMA a toutefois bien détecté une raie d’émission à côté d’une cible du JWST, suggérant que les étoiles de la galaxie ont dispersé leur poussière, ou alors que deux galaxies dans des phases différentes de leur vie sont en train de fusionner.

Mais ces premières tentatives de l’ALMA pour détecter les galaxies découvertes par le JWST n’étaient que des aperçus fugitifs : des observations plus longues sont désormais prévues. Elles pourraient révéler la quantité de poussière et, surtout, le nombre d’éléments lourds produits – témoins du stade d’évolution des galaxies. Lors de ma visite, deux de ses imposantes antennes avaient été démontées à des fins d’amélioration. Bientôt, elles retourneront sur le plateau de Chajnantor et poseront un regard encore plus performant vers le firmament pour s’attaquer aux mystères des galaxies primordiales.


 

 

Auteur: Internet

Info: Jay Bennett, 1 aout 2024, Source : national geographic 2023

[ astrométrie ]

 

Commentaires: 0

Ajouté à la BD par miguel

trouble dépressif post-accouchement

Il y a quatre ans, alors que mon fils n’avait qu’un mois, lui et moi avons été admis dans une unité mère-bébé, un service psychiatrique qui s’occupe des personnes souffrant de problèmes de santé mentale périnatale et de leurs bébés. On a diagnostiqué chez moi une anxiété et une dépression post-partum sévères et on m’a mise sous traitement. J’ai eu des séances hebdomadaires avec l’équipe psychiatrique pour discuter de mes progrès, et mon fils et moi avons passé du temps avec les autres femmes du service et leurs bébés. Chaque jour, parfois deux fois par jour, mon mari venait nous voir et nous nous promenions dans Hackney tandis que j’essayais de me rappeler qui j’étais autrefois et de résister à la tentation de me jeter devant une voiture. Petit à petit, horriblement, douloureusement lentement, je me suis un peu améliorée. Au bout de huit semaines, nous avons reçu notre congé et sommes rentrés chez nous.

Mais si je n’étais plus en situation de crise, ma santé mentale était extrêmement fragile. J’avais des appels hebdomadaires avec une thérapeute du NHS qui abordait ma maladie de manière méthodique et précise. Elle m’expliquait ce qui m’arrivait et pourquoi c’était arrivé. Je voulais désespérément mettre tout cela sur le compte des hormones, je voulais fuir la version corrompue de moi-même et ne plus jamais penser à elle, je voulais la rayer de mon cœur, de mon esprit, l’enterrer et cracher sur sa tombe. J’étais tellement gênée et honteuse d’elle, je la détestais. Mais mon thérapeute m’a gentiment rappelé que ce n’était pas seulement dû aux hormones et que je devais trouver un moyen de l’accepter.

Deux mois plus tard, je n’avais toujours pas toute ma tête, j’étais toujours tourmentée par le fait que j’avais imaginé faire des choses terribles et maléfiques à mon fils. Je savais que ces pensées intrusives étaient dues à ma maladie, mais cela ne les rendait pas plus faciles à vivre. C’est à ce moment-là que j’ai commencé à penser aux sorcières. Même si, pour être honnête, j’ai toujours pensé aux sorcières. C’est le cas de nombreuses femmes. Même cette année, pour Halloween, mon fils voulait être la sorcière de Room on the Broom – ce qui était ennuyeux parce que je lui avais déjà acheté un costume de squelette. Et beaucoup de femmes ont une sorcière préférée : Glinda du Magicien d’Oz, Les sorcières d’Eastwick, Samantha dans Bewitched et, pour ma part, Mildred Hubble (La pire des sorcières).

Les sorcières représentent le pouvoir féminin et peuvent être une célébration de notre puissance, mais elles sont aussi souvent utilisées comme l’incarnation des anciennes peurs de la société à l’égard des femmes. Par conséquent, beaucoup d’entre nous ont peur de devenir des sorcières, de se transformer en sorcières et en biques en vieillissant, d’être poussées à l’écart de leur communauté, d’être tournées en dérision, d’être ignorées, d’être hideuses. Pour d’autres, les sorcières représentent des femmes incontrôlables – elles nous montrent les dangers d’une femme déséquilibrée, une mégère qui ne fait pas ce qu’on lui dit de faire. Mais je pense que pour moi, en ce mois de décembre gris et silencieux, encore plongée dans ma folie, les sorcières représentaient l’espoir.

Les mauvaises sorcières sont devenues une aspiration. Elles m’ont fait sentir que je n’étais pas seule

J’ai dressé une liste de tous les films de sorcières auxquels je pouvais penser et je les ai regardés un par un pendant que mon fils dormait sur ma poitrine. Ce faisant, j’ai trouvé des liens et du réconfort. Mais alors que j’avais aimé les " bonnes " sorcières, roses et maternelles, qui n’utilisaient leur pouvoir que pour changer de tenue ou aider une amie, j’étais de plus en plus attirée par les " mauvaises "  sorcières. La méchante sorcière de l’Ouest n’avait peut-être pas tort lorsqu’elle s’écriait " Quel monde, quel monde, quel monde ! " en se fondant dans un sol de pierre froide.

J’ai réalisé qu’en fait, ce dont j’avais besoin, c’était d’avoir le courage d’accepter que la personne que je considérais comme mauvaise, pathétique et malade était, en fait, moi. Après cela, les méchantes sorcières sont devenues une source d’inspiration. Elles m’ont donné l’impression que je n’étais pas seule. Peut-être que je n’étais pas mauvaise. Peut-être n’étais-je qu’une sorcière ?

Au cours de l’été 1645, Matthew Hopkins, l’un des plus célèbres " découvreurs de sorcières " à parcourir le pays avec ses petites bottes à talons, est arrivé dans le Suffolk. À cette époque, les procès en sorcellerie se déroulent en Angleterre depuis plus de 60 ans, et Hopkins est réputé pour découvrir des sorcières partout où il passe. Pendant les pauses cinéma, alors que mon fils buvait du lait maternisé au biberon (je vous ai dit que j’étais méchante), j’ai lu les témoignages des femmes accusées dans ce procès.

Anna Moats avait avoué volontairement dans les deux heures qui avaient suivi son arrestation. Et l’acte diabolique qu’elle avait commis ? " Maudire son mari et ses enfants ". Anna savait qu’en avouant être une sorcière, elle serait mise dans une charrette et conduite dans les rues, avant d’être pendue à la potence, sous les yeux de ses amis, de sa famille et peut-être même de ses enfants. Et pourtant, elle a avoué.

En 1645, Matthew Hopkins était connu pour avoir découvert des sorcières partout où il allait

J’ai appelé Marion Gibson, professeur de Renaissance et d’études magiques à l’université d’Exeter, et je lui ai demandé pourquoi une personne comme Anna avouait – était-ce à cause de la torture ? " Non, les sorcières n’étaient pas torturées en Angleterre". Ma voix s’est bloquée dans ma gorge. Certaines femmes ont donc avoué sans avoir été torturées ? " Oui. Et elles savaient qu’elles allaient mourir ?  Oui. Et personne n’est sûr de savoir pourquoi elles ont fait ça. " Huh. J’ai une théorie.

Pour clarifier, s’il n’y a pas eu de torture, ils ont eu recours à la privation de sommeil et à l’intimidation. Ils ont également fouillé le corps nu des femmes à la recherche de marques du diable, ce qui aurait conduit à de nombreux aveux forcés. Cependant, grâce aux recherches du professeur Louise Jackson, j’ai appris que dans quelques dépositions du Suffolk, les aveux avaient été faits " librement ". Matthew Hopkins a écrit que Rebecca Morris " a avoué, avant toute violence, observation [privation de sommeil] ou autre menace ", que le diable était venu à elle sous la forme d’un garçon. Alicia Warner " a avoué librement qu’elle avait entretenu certains esprits maléfiques ". Eliza Southerne a avoué immédiatement : " Le ministre n’a utilisé aucun autre argument pour la faire avouer… [il s’est contenté] de lui dire de faire le mal elle-même, mais de libérer sa conscience ".

Très peu de recherches ont été menées sur ces " aveux volontaires " et sur les raisons pour lesquelles ces femmes étaient si prêtes à se condamner à mort. Mais en lisant leurs témoignages, j’ai eu l’impression de savoir. En faisant défiler les conversations téléphoniques que j’ai avec les femmes de ma vie, j’ai eu l’impression de savoir. La culpabilité et la honte que tant d’entre nous ressentent parce qu’elles ne sont pas assez bonnes. La pression suffocante que nous ressentons pour être parfaites. Comme l’écrit le professeur Louise Jackson, " dans la production des aveux, la coercition était autant culturelle que physique. Les cadres de croyance concernant les rôles, les responsabilités et les attentes des femmes les conduisaient à se condamner elles-mêmes… Les femmes du Suffolk qui avouaient être des sorcières avouaient également qu’elles étaient de ‘mauvaises’ mères, de ‘mauvaises’ épouses et de ‘mauvaises’ voisines… " À mon avis, peu de choses ont changé. Ils n’ont pas besoin de nous torturer, nous le ferons nous-mêmes.

Elizabeth Sankey : " Ce qu’il me fallait, c’était le courage d’accepter que la personne que je considérais comme mauvaise, pathétique et malade, c’était en fait moi ".

J’ai également vu des descriptions de maladies mentales dans les confessions. À l’époque, les tentatives de suicide et la dépression étaient presque toujours liées au diable, et ces idées figurent en bonne place dans les témoignages des femmes. Lidea Taylor a avoué " que ses diablotins… lui conseillaient de se tuer ". Ellen Greenelif a avoué qu’" elle était souvent tentée de se tuer ". Elizabeth Fillet a avoué que " le diable l’a tentée de se tuer ". J’ai également constaté des signes de dépression post-partum et de psychose. Prissilla Collit a avoué que le diable l’avait tentée de tuer ses enfants. Elle a placé l’un de ses enfants près du feu pour le brûler, mais un frère ou une sœur l’a éloigné. Mary Scrutton a avoué que " le diable lui est apparu deux fois, une fois sous la forme d’un ours, une fois sous la forme d’un chat, et l’a tentée, d’une voix creuse, de tuer son enfant ". Susanna Smith a avoué le lendemain de son arrestation que 18 ans auparavant, le diable lui était apparu sous la forme d’un chien rouge hirsute et l’avait tentée de tuer ses enfants.

J’ai contacté le Dr Trudi Seneviratne, une psychiatre qui a sauvé d’innombrables vies grâce à son travail à l’unité Bethlem Mother and Baby, qui fait partie de l’hôpital South London and Maudsley. Elle a hoché la tête en lisant les témoignages de 1645, reconnaissant les symptômes d’une maladie mentale post-partum. Elle a déclaré qu’aujourd’hui encore, le diable apparaît dans les cas de psychose, les femmes se voient comme des sorcières, entendent des voix sataniques qui leur disent de faire des choses terribles.

L’un des cas les plus tragiques de psychose post-partum s’est produit en 2001 lorsque Andrea Yates, une mère texane, a noyé ses cinq enfants dans la baignoire au cours d’un épisode psychotique. Yates a déclaré plus tard qu’elle pensait être une mauvaise mère et qu’elle les avait condamnés à l’enfer. Lorsque j’ai lu l’histoire d’Andrea et de sa famille, j’ai sangloté. Bien que je ne sois pas atteinte de psychose, je savais à quel point j’avais été proche de son expérience. Nombre de mes symptômes étaient similaires aux siens – manie, agitation, dépression.

Beaucoup de mes symptômes étaient similaires à ceux d’Andrea – manie, agitation, dépression

J’étais renfermée, je pleurais, mon anxiété était telle que je n’arrivais pas à dormir. Le plus alarmant, cependant, c’est que quelques jours avant mon admission à l’hôpital, j’ai commencé à croire que mettre fin à la vie de mon fils était le seul moyen d’échapper à la torture que je subissais. Si je n’avais pas reçu d’aide aussi rapidement, qui sait ce qui se serait passé ? Les femmes atteintes de ces maladies peuvent voir leur état se détériorer très rapidement. Les symptômes de la psychose du post-partum apparaissent généralement dans les heures ou les jours qui suivent l’accouchement et la présentation peut changer en quelques minutes. Pour un patient souffrant de psychose en général, il faut parfois des mois pour observer les mêmes changements. C’est l’un des rares cas où un épisode psychiatrique est considéré comme une urgence.

Je pense tout le temps à Andrea. Elle vit actuellement dans un hôpital psychiatrique d’État à faible sécurité et, bien qu’elle puisse être libérée depuis de nombreuses années, elle refuse toujours. Heureusement, les cas comme le sien ne sont pas courants, mais ils se produisent encore. Alors qu’au Royaume-Uni, la loi sur l’infanticide, qui a été réadoptée en 1938, prévoit des peines plus légères pour une mère qui tue son enfant au cours de la première année de sa vie, aux États-Unis, il n’existe pas de protection de ce type.

Le 4 janvier 2023, Lindsay Clancy, du Massachusetts, a étranglé ses trois enfants, puis s’est ouvert les veines et a sauté par la fenêtre. Elle a survécu, mais pas ses enfants. Aujourd’hui paralysée à partir de la taille, elle est jugée pour homicide. Mme Clancy, dont le plus jeune enfant n’avait que huit mois lorsqu’il est mort, a déclaré qu’elle avait étranglé les enfants pendant un " moment de psychose ". L’accusation la dépeint comme une sociopathe qui a assassiné ses enfants, puis simulé une tentative de suicide. Ils affirment qu’elle se comportait normalement le jour de la tragédie et qu’elle n’avait jamais mentionné quoi que ce soit suggérant une crise psychotique, juste " une pointe d’anxiété post-partum ".

Mes amis et ma famille m’ont incroyablement soutenue pendant ma maladie

Toute femme ayant souffert d’une maladie mentale périnatale ne sera pas surprise de constater que Clancy était réticente à parler explicitement de ce qui lui arrivait. Mes amis et ma famille m’ont incroyablement soutenue pendant ma maladie, mais j’avais peur de leur dire tout ce que je pensais et ressentais. Notamment comment, dans les jours précédant mon hospitalisation, mon cerveau s’était mis à jouer en boucle des scènes horribles. Je me voyais étouffer notre fils avec un oreiller, le faire tomber d’une fenêtre au troisième étage, le noyer dans la baignoire. Et pourtant, je l’aimais plus que je n’avais jamais aimé qui que ce soit ou quoi que ce soit. C’était si effrayant, si horrible. Je ne voulais pas les accabler, mais je ne voulais pas non plus que ce soit vrai. Alors je me convainquais que je faisais toute une histoire pour rien.

Ce qui a finalement fait basculer les choses pour moi, c’est de rejoindre Motherly Love, un groupe de soutien composé de femmes d’horizons différents ayant connu des problèmes de santé mentale périnatale. Toutes ont compris. Quelles que soient les pensées terrifiantes que j’avais, quelqu’un d’autre les avait eues aussi et avait survécu. Le groupe est devenu une source vitale d’espoir, de soutien et de connaissances anecdotiques, qui ne semblaient accessibles nulle part ailleurs. Ce sont ces femmes qui ont reconnu la gravité de mes symptômes et qui m’ont poussée à me faire soigner immédiatement. Elles m’ont sauvé la vie simplement en partageant leurs sentiments et en veillant à ce que je sache que je n’étais pas seule.

Le suicide reste la principale cause de décès maternel entre six semaines et douze mois après la naissance, représentant 39 % des décès au cours de cette période. Et malgré l’augmentation des financements et de la sensibilisation, les taux de suicide ont augmenté de 15 % en dix ans. Je pense que cela est dû en grande partie à la pression étouffante que subissent les femmes pour être parfaites.

Ma maladie a commencé avec les hormones, mais elle a été exacerbée par la stigmatisation, la culpabilité et la honte qui ont commencé dès que j’ai quitté l’hôpital avec mon petit garçon et que j’ai réalisé que j’avais ouvert la porte d’une autre chambre de torture pour les femmes. Nous devons être des mères et, lorsque nous sommes mères, nous devons être des mères parfaites. Nous devons allaiter nos bébés, ils doivent bien dormir, s’ils sont gardés, il faut que ce soit la meilleure des gardes, nous devons faire des carrières à mort, tout en étant présentes et calmes pour nos enfants, nous devons rester jeunes, nous ne pouvons pas prendre de poids. Nous devons être sages. Et surtout, nous devons être performantes.

C’est impossible, nous le savons toutes, et pourtant nous continuons à essayer, à échouer, et lorsque nous échouons, nous intériorisons la honte et la culpabilité parce que c’est ce que nous avons été conditionnés à faire, et cela nous ronge.

Ma maladie m’a changée à bien des égards, mais je pense que le plus grand cadeau qu’elle m’ait fait est de me faire prendre conscience qu’il y a une infinité de façons d’être une femme. Et j’ai renoncé à être une bonne mère – j’ai échoué après seulement un mois. Ce qui est en fait incroyablement libérateur. Ces jours-ci, je me sens tellement chanceuse d’être encore là. De tenir le corps chaud de mon fils chaque matin à son réveil, de le regarder manger une part de gâteau d’anniversaire dans un silence extatique. J’ai de la chance d’avoir eu l’occasion d’accepter et même d’aimer cette version sombre et tordue de moi-même que je détestais tant autrefois. Elle me manquerait si elle disparaissait. Et j’ai beaucoup de chance de pouvoir vieillir. Beaucoup trop d’entre nous n’ont pas cette chance. J’ai l’intention de voler vers lui comme la sorcière que je suis, sauvage et folle, insuffisante et imparfaite.



 

Auteur: Internet

Info: The Guardian. Au plus profond de ma folie, les sorcières m’ont donné de l’espoir : Elizabeth Sankey parle de maternité, de dépression et de sorcières.Le documentaire d’ES, Witches, fut diffusé sur MUBI fin 2024

[ femmes-entre-elles ] [ baby blues ] [ pensée-de-femme ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-animal

Le processus d’encéphalisation
Parmi l’ensemble des animaux non-humains, les dauphins sont dotés du quotient encéphalique le plus élevé au monde, soit à peu près celui de l’être humain.
A ce petit jeu, d’ailleurs, le cachalot nous dépasse tous largement !
Une telle augmentation du volume cérébral, bien au-delà des simples besoins de la motricité ou de la sensorialité, est qualifiée "d’encéphalisation structurelle".
Ce phénomène n’est pas rare. Il semble que dès le Jurassique, des dinosauriens bipèdes de taille moyenne aient commencé à augmenter de manière encore timide leurs capacités cérébrales.
Au Tertiaire, les ancêtres des éléphants et des cétacés se sont lancés à leur tour dans la course au gros cerveau mais ce n’est qu’au Quaternaire, il y a de cela de trois à six millions d’années, que certains primates hominoïdes développent une boîte crânienne de type néoténique à fontanelles non suturées durant les premiers temps de l’enfance, afin de permettre une croissance ultérieure de l’un des cerveaux les plus puissants du monde.
Ce processus d’encéphalisation apparaît également chez certains oiseaux – corvidés, psittacidés – à peu près vers la même époque. A chaque fois, bien sûr, des comportements très élaborés sont toujours associés à un accroissement spectaculaire du tissu cérébral.
Une si curieuse convergence de formes, la survenance simultanée ou successive de tous ces "grands fronts", pose bien évidemment question en termes darwiniens.
Le ptérodactyle, la mouche, le colibri, la chauve-souris ont des ailes pour voler, la truite, l’ichtyosaure, le marsouin ont un corps fait pour nager, le grillon fouisseur et la taupe ont des pattes en forme de pelles pour creuser, etc.
Mais à quoi rime dès lors un vaste crâne et à quelle fonction est-il dévolu ?
Essentiellement à comprendre le monde et ceux qui le composent, en ce compris les membres de sa propre espèce, avec lesquels il faut sans cesse gérer une relation équilibrée.
Même les gros cerveaux les plus solitaires vivent en fait en société : tigres, baleines bleues, panthères, orangs-outans gardent des liens étroits, bien que distants ou différés, avec leur fratrie et leurs partenaires.
L’intelligence est à coup sûr l’arme suprême contre les aléas du monde, ses mutations incessantes, puisqu’elle permet notamment de gérer un groupe comme un seul corps mais aussi de pénétrer les lois subtiles qui sont à la base du mouvement des choses.
En augmentant d’un degré supérieur ces facultés par le moyen du langage, lequel conserve le savoir des générations mortes, l’homme et le cétacé ont sans doute franchi un nouveau pas vers une plus grande adaptabilité.
Le problème de l’humain, mais nous n’y reviendrons pas davantage, c’est qu’il ne s’est servi jusqu’à ce jour que d’une partie de son intelligence et qu’il se laisse ensevelir vivants dans ses propres déchets, et avec lui les reste du monde, pour n’avoir pas su contrôler sa propre reproduction ni la saine gestion de son environnement.
Intelligents ou non ? (Le point de vue de Ken Levasseur)
Dans un courrier CFN posté en avril 2003 relatif à l’utilisation de dauphins militaires en Irak, Ken Levasseur, l’un des meilleurs spécialistes actuels de cette question, a tenu à faire le point à propos de l’intelligence réelle ou supposée de ces mammifères marins. Aux questions que lui avait adressées un étudiant sur ce thème, Ken répond ici de manière définitive, sur la base de de son expérience et de ses intimes convictions.
Eu égard aux remarquables recherches menées par Ken depuis des années et au fait qu’il a travaillé longtemps aux côtés du professeur Louis Hermann, son point de vue n’est évidemment pas négligeable ni ses opinions sans fondements. On lira d’ailleurs sur ce site même son article en anglais relatif au cerveau du dauphin
Inutile de dire que le gestionnaire de ce site partage totalement le point de vue de Ken Levasseur, dont les travaux l’inspirent depuis de nombreuses années, au même titre que ceux de Wade Doak ou de Jim Nollman : tous ont en commun d’affirmer que les dauphins ne sont pas des animaux au sens strict mais bien l’équivalent marin de l’humanité terrestre.
Q- A quel niveau d’intelligence réelle les dauphins se situent-ils ? A celui du chien ? Du grand singe ? D’un être humain ?
R- Mon meilleur pronostic est qu’un jour prochain, nous pourrons prouver que la plupart des espèces de cétacés disposent d’une intelligence équivalente ou supérieure à celle d’un humain adulte.
Q- Quelles sont les preuves nous permettant d’affirmer que les dauphins sont intelligents ?
R- Il a été démontré depuis longtemps que les dauphins peuvent développer des capacités cognitives qui équivalent ou excèdent les possibilités mentales de l’être humain. Aujourd’hui, nous sommes à même de définir exactement en quoi consiste l’intelligence humaine. Une fois que nous parviendrons à définir l’intelligence d’une manière strictement objective et valable pour toutes les autres espèces, on permettra enfin aux cétacés de faire la preuve de la leur.
Q- Quelles preuves avons-nous que les dauphins ne sont PAS intelligents ?
R- Il n’y a aucune preuve scientifique qui tendrait à prouver que l’intelligence du dauphin serait située entre celle du chien et celle du chimpanzé (comme l’affirment les delphinariums et la marine américaine) .
Q- Est-ce que les dauphins possèdent un langage propre ?
R- La définition d’une "langue", comme celle de l’intelligence, repose sur des bases subjectives définies pour et par les humains. Une fois que nous pourrons disposer d’une définition plus objective de ce qu’est un langage, et que les recherches sur la communication des dauphins ne seront plus "classifiée" par les américains, il est fort probable que les chercheurs puissent enfin conduire les recherches appropriées et qu’ils reconnaissent que les dauphins disposent de langages naturels.
Q- Est-ce leur capacité à apprendre et à exécuter des tours complexes qui les rend plus intelligents ou non ?
R- La capacité du dauphin à apprendre à exécuter des tours complexes est surtout une indication de l’existence d’un niveau élevé des capacités mentales, interprétées comme synonymes d’une intelligence élevée.
Q- Jusqu’à quel point ont été menées les recherches sur les dauphins et leur intelligence ? Que savent vraiment les scientifiques à leur propos ?
R- La US Navy a "classifié" ses recherches sur les dauphins en 1967, au moment où l’acousticien Wayne Batteau est parvenu à développer des moyens efficaces pour communiquer avec des dauphins dressés. La communication et l’intelligence des dauphins constituent donc désormais des données militaires secrètes, qui ne peuvent plus être divulguées au public.
Q- Est-ce que les dauphins disposent d’un langage propre ? Y a t-il des recherches qui le prouvent ?
R- Vladimir Markov et V. M. Ostrovskaya en ont fourni la preuve en 1990 en utilisant la "théorie des jeux" pour analyser la communication des dauphins dans un environnement contrôlé et à l’aide de moyens efficaces. Il est donc très probable que les dauphins aient une langue naturelle.
Q- Les capacités tout à fait spéciales des dauphins en matière d’écholocation ont-elles quelque chose à voir avec leurs modes de communication?
R- A mon sens, les recherches futures fourniront la preuve que le langage naturel des cétacés est fondé sur les propriétés physiques de l’écholocation, de la même manière que les langues humaines se basent sur des bruits et des représentations.
Q- Quelle est VOTRE opinion à propos de l’intelligence des dauphins ?
R- Pendant deux ans, j’ai vécu à quinze pieds (1 Pied : 30 cm 48) d’un dauphin et à trente-cinq pieds d’un autre. À mon avis, les dauphins possèdent une intelligence équivalente à celle d’un être humain. Ils devraient bénéficier dès lors de droits similaires aux Droits de l’Homme et se trouver protégé des incursions humaines dans son cadre de vie.
Q- La ressemblance entre les humains et les dauphins a-t-elle quelque chose à voir avec leur intelligence commune ?
R- Les dauphins sont très éloignés des humains à de nombreux niveaux mais les ressemblances que nous pouvons noter sont en effet fondées sur le fait que les dauphins possèdent des capacités mentales plus élevées (que la plupart des autres animaux) et sont à ce titre interprétés en tant qu’intelligence de type humain.
Q- La grande taille de leur cerveau, relativement à celle de leur corps, est-elle un indicateur de leur haute intelligence ?
R- Le volume absolu d’un cerveau ne constitue pas une preuve d’intelligence élevée. Le coefficient encéphalique (taille du cerveau par rapport à la taille de corps) n’en est pas une non plus. Néanmoins, on pourrait dire que la taille absolue du cerveau d’une espèce donnée par rapport au volume global du corps constitue un bon indicateur pour comparer les capacités mentales de différentes espèces. Souvenons-nous par ailleurs que les cétacés ne pèsent rien dans l’eau, puisqu’ils flottent et qu’une grande part de leur masse se compose simplement de la graisse. Cette masse de graisse ne devrait pas être incluse dans l’équation entre le poids du cerveau et le poids du corps car cette graisse n’est traversée par aucun nerf ni muscle et n’a donc aucune relation de cause à effet avec le volume du cerveau.
Q- Est-ce que la capacité des dauphins à traiter des clics écholocatoires à une vitesse inouïe nous laisse-t-elle à penser qu’ils sont extrêmement intelligents ?
R- On a pu montrer que les dauphins disposaient, et de loin, des cerveaux les plus rapides du monde. Lorsqu’ils les observent, les humains leur semblent se mouvoir avec une extrême lenteur en émettant des sons extrêmement bas. Un cerveau rapide ne peut forcément disposer que de capacités mentales très avancées.
Q- Pensez-vous des scientifiques comprendront un jour complètement les dauphins?
R- Est-ce que nos scientifiques comprennent bien les humains? Si tout va bien, à l’avenir, les dauphins devraient être compris comme les humains se comprennent entre eux.
Q- Le fait que les dauphins possèdent une signature sifflée est-elle une preuve de l’existence de leur langage ?
R- Non. Cette notion de signature sifflée est actuellement mal comprise et son existence même est sujette à caution.
Q- Les dauphins font plein de choses très intelligentes et nous ressemblent fort. Est-ce parce qu’ils sont vraiment intelligents ou simplement très attractifs ?
R- La réponse à votre question est une question d’expérience et d’opinion. Ce n’est une question qui appelle une réponse scientifique, chacun a son opinion personnelle sur ce point.
Q- Pouvons-nous vraiment émettre des conclusions au sujet de l’intelligence des dauphins, alors que nous savons si peu à leur propos et qu’ils vivent dans un environnement si différent du nôtre ?
R- Jusqu’à présent, ce genre de difficultés n’a jamais arrêté personne. Chacun tire ses propres conclusions. Les scientifiques ne se prononcent que sur la base de ce qu’ils savent vrai en fonction des données expérimentales qu’ils recueillent.
Q- Est-ce que nous pourrons-nous jamais communiquer avec les dauphins ou même converser avec eux ?
R- Oui, si tout va bien, et ce seront des conversations d’adulte à adulte, rien de moins.
II. DAUPHIN : CERVEAU ET MONDE MENTAL
"Parmi l’ensemble des animaux non-humains, les dauphins disposent d’un cerveau de grande taille très bien développé, dont le coefficient encéphalique, le volume du néocortex, les zones dites silencieuses (non motrices et non sensorielles) et d’autres indices d’intelligence sont extrêmement proches de ceux du cerveau humain" déclare d’emblée le chercheur russe Vladimir Markov.
Lorsque l’on compare le cerveau des cétacés avec celui des grands primates et de l’homme en particulier, on constate en effet de nombreux points communs mais également des différences importantes :
– Le poids moyen d’un cerveau de Tursiops est de 1587 grammes.
Son coefficient encéphalique est de l’ordre de 5.0, soit à peu près le double de celui de n’importe quel singe. Chez les cachalots et les orques, ce même coefficient est de cinq fois supérieur à celui de l’homme.
– Les circonvolutions du cortex cervical sont plus nombreuses que celles d’un être humain. L’indice de "pliure" (index of folding) est ainsi de 2.86 pour l’homme et de 4.47 pour un cerveau de dauphin de taille globalement similaire.
Selon Sam Ridgway, chercheur "réductionniste de la vieille école", l’épaisseur de ce même cortex est de 2.9 mm en moyenne chez l’homme et de 1.60 à 1.76 mm chez le dauphin. En conséquence, continue-t-il, on peut conclure que le volume moyen du cortex delphinien (560cc) se situe à peu près à 80 % du volume cortical humain. Ce calcul est évidemment contestable puisqu’il ne tient pas compte de l’organisation très particulière du cerveau delphinien, mieux intégré, plus homogène et moins segmenté en zones historiquement distinctes que le nôtre.
Le fait que les cétacés possèdent la plus large surface corticale et le plus haut indice de circonvolution cérébral au monde joue également, comme on s’en doute, un rôle majeur dans le développement de leurs capacités cérébrales.
D’autres scientifiques, décidément troublés par le coefficient cérébral du dauphin, tentent aujourd’hui de prouver qu’un tel développement n’aurait pas d’autre usage que d’assurer l’écholocation. Voici ce que leur répond le neurologue H. Jerison : "La chauve-souris dispose à peu de choses près des mêmes capacités que le dauphin en matière d’écholocation, mais son cerveau est gros comme une noisette. L’outillage écholocatoire en tant que tel ne pèse en effet pas lourd. En revanche, le TRAITEMENT de cette même information "sonar" par les zones associatives prolongeant les zones auditives, voilà qui pourrait expliquer le formidable développement de cette masse cérébrale. Les poissons et tous les autres êtres vivants qui vivent dans l’océan, cétacés mis à part, se passent très bien d’un gros cerveau pour survivre et même le plus gros d’entre eux, le requin-baleine, ne dépasse pas l’intelligence d’une souris…"
La croissance du cerveau d’un cétacé est plus rapide et la maturité est atteinte plus rapidement que chez l’homme.
Un delphineau de trois ans se comporte, toutes proportions gardées, comme un enfant humain de huit ans. Cette caractéristique apparemment "primitive" est paradoxalement contredite par une enfance extrêmement longue, toute dévolue à l’apprentissage. Trente années chez le cachalot, vingt chez l’homme, douze à quinze chez le dauphin et environ cinq ans chez le chimpanzé.
Les temps de vie sont du même ordre : 200 ans en moyenne chez la baleine franche, 100 ans chez le cachalot, 80 chez l’orque, 78 ans chez l’homme, 60 chez le dauphin, sous réserve bien sûr des variations favorables ou défavorables de l’environnement.
Pourquoi un gros cerveau ?
"Nous devons nous souvenir que le monde mental du dauphin est élaboré par l’un des systèmes de traitement de l’information parmi les plus vastes qui ait jamais existé parmi les mammifères" déclare H.Jerison, insistant sur le fait que "développer un gros cerveau est extrêmement coûteux en énergie et en oxygène. Cet investissement a donc une raison d’être en terme d’évolution darwinienne. Nous devons dès lors considérer la manière dont ces masses importantes de tissu cérébral ont été investies dans le contrôle du comportement et de l’expérimentation du monde, ceci en comparaison avec l’usage qu’en font les petites masses cérébrales".
Un cerveau est par essence un organe chargé de traiter l’information en provenance du monde extérieur.
Les grands cerveaux exécutent cette tâche en tant qu’ensemble élaborés de systèmes de traitement, alors que le cerveau de la grenouille ou de l’insecte, par exemple, se contente de modules moins nombreux, dont la finesse d’analyse est comparativement plus simple.
Cela ne nous empêche pas cependant de retrouver des structures neuronales étonnamment semblables d’un animal à l’autre : lorsqu’un promeneur tombe nez à nez avec un crotale, c’est le même plancher sub-thalamique dévolue à la peur qui s’allume chez l’une et l’autre des ces créatures. Quant un chien ou un humain se voient soulagés de leurs angoisses par le même produit tranquillisant, ce sont évidemment les mêmes neuromédiateurs qui agissent sur les mêmes récepteurs neuronaux qui sont la cause du phénomène.
A un très haut niveau de cette hiérarchie, le traitement en question prend la forme d’une représentation ou d’un modèle du monde (Craik, 1943, 1967, Jerison, 1973) et l’activité neuronale se concentre en "paquets d’informations" (chunks) à propos du temps et de l’espace et à propos d’objets, en ce compris les autres individus et soi-même.
" Puisque le modèle du monde qui est construit de la sorte" insiste H.Jerison, "se trouve fondé sur des variables physiquement définies issues directement du monde externe et puisque ces informations sont traitées par des cellules nerveuses et des réseaux neuronaux structurellement semblables chez tous les mammifères supérieurs, les modèles du monde construits par différents individus d’une même espèce ou même chez des individus d’espèces différentes, ont de bonnes chances d’être également similaires".
Et à tout le moins compréhensibles l’un pour l’autre.

Auteur: Internet

Info: http://www.dauphinlibre.be/dauphins-cerveau-intelligence-et-conscience-exotiques

[ comparaisons ]

 

Commentaires: 0

évolution technologique

Intelligence artificielle ou stupidité réelle ?

Bien que le battage médiatique augmente la sensibilisation à l'IA, il facilite également certaines activités assez stupides et peut distraire les gens de la plupart des progrès réels qui sont réalisés.
Distinguer la réalité des manchettes plus dramatiques promet d'offrir des avantages importants aux investisseurs, aux entrepreneurs et aux consommateurs.

L'intelligence artificielle a acquis sa notoriété récente en grande partie grâce à des succès très médiatisés tels que la victoire d'IBM Watson à Jeopardy et celle de Google AlphaGo qui a battu le champion du monde au jeu "Go". Waymo, Tesla et d'autres ont également fait de grands progrès avec les véhicules auto-propulsés. Richard Waters a rendu compte de l'étendue des applications de l'IA dans le Financial Times : "S'il y a un message unificateur qui sous-tend la technologie grand public exposée [au Consumer Electronics Show] .... c'est : "L'IA partout."

Les succès retentissants de l'IA ont également capturé l'imagination des gens à un tel point que cela a suscité d'autres efforts d'envergure. Un exemple instructif a été documenté par Thomas H. Davenport et Rajeev Ronanki dans le Harvard Business Review. Ils écrirent, "En 2013, le MD Anderson Cancer Center a lancé un projet ""Moon shot " : diagnostiquer et recommander des plans de traitement pour certaines formes de cancer en utilisant le système cognitif Watson d'IBM". Malheureusement, ce système n'a pas fonctionné et en 2017 le projet fut mis en veilleuse après avoir coûté plus de 62 millions de dollars sans avoir été utilisé pour les patients.

Waters a également abordé un autre message, celui des attentes modérées. En ce qui concerne les "assistants personnels à commande vocale", note-t-elle, "on ne sait pas encore si la technologie est capable de remplacer le smartphone pour naviguer dans le monde numérique autrement autrement que pour écouter de la musique ou vérifier les nouvelles et la météo".

D'autres exemples de prévisions modérées abondent. Generva Allen du Baylor College of Medicine et de l'Université Rice a avertit , "Je ne ferais pas confiance à une très grande partie des découvertes actuellement faites qui utilisent des techniques de machine learning appliquées à de grands ensembles de données". Le problème, c'est que bon nombre des techniques sont conçues pour fournir des réponses précises et que la recherche comporte des incertitudes. Elle a précisé : "Parfois, il serait beaucoup plus utile qu'ils reconnaissent que certains sont vraiment consolidés, mais qu'on est pas sûr pour beaucoup d'autres".

Pire encore, dans les cas extrêmes, l'IA n'est pas seulement sous-performante ; elle n'a même pas encore été mise en œuvre. Le FT rapporte, "Quatre jeunes entreprises européennes sur dix n'utilisent aucun programme d'intelligence artificielle dans leurs produits, selon un rapport qui souligne le battage publicitaire autour de cette technologie.

Les cycles d'attentes excessives suivies de vagues de déception ne sont pas surprenants pour ceux qui ont côtoyé l'intelligence artificielle pendant un certain temps. Ils savent que ce n'est pas le premier rodéo de l'IA. En effet, une grande partie du travail conceptuel date des années 1950. D'ailleurs, en passant en revue certaines de mes notes récentes je suis tombé sur une pièce qui explorait les réseaux neuronaux dans le but de choisir des actions - datant de 1993.

La meilleure façon d'avoir une perspective sur l'IA est d'aller directement à la source et Martin Ford nous en donne l'occasion dans son livre, Architects of Intelligence. Organisé sous la forme d'une succession d'entrevues avec des chercheurs, des universitaires et des entrepreneurs de premier plan de l'industrie, le livre présente un historique utile de l'IA et met en lumière les principaux courants de pensée.

Deux perspectives importantes se dégagent de ce livre.

La première est qu'en dépit des origines et des personnalités disparates des personnes interrogées, il existe un large consensus sur des sujets importants.

L'autre est qu'un grand nombre des priorités et des préoccupations des principales recherches sur l'IA sont bien différentes de celles exprimées dans les médias grand public.

Prenons par exemple le concept d'intelligence générale artificielle (AGI). Qui est étroitement lié à la notion de "singularité" ce point où l'IA rejoindra celle de l'homme - avant un dépassement massif de cette dernière. Cette idée et d'autres ont suscité des préoccupations au sujet de l'IA, tout comme les pertes massives d'emplois, les drones tueurs et une foule d'autres manifestations alarmantes.

Les principaux chercheurs en AI ont des points de vue très différents ; ils ne sont pas du tout perturbés par l'AGI et autres alarmismes.

Geoffrey Hinton, professeur d'informatique à l'Université de Toronto et vice-président et chercheur chez Google, dit : "Si votre question est : Quand allons-nous obtenir un commandant-docteur Data (comme dans Star Trek ) je ne crois pas que ce sera comme çà que ça va se faire. Je ne pense pas qu'on aura des programmes uniques et généralistes comme ça."

Yoshua Bengio, professeur d'informatique et de recherche opérationnelle à l'Université de Montréal, nous dit qu'il y a des problèmes très difficiles et que nous sommes très loin de l'IA au niveau humain. Il ajoute : "Nous sommes tous excités parce que nous avons fait beaucoup de progrès dans cette ascension, mais en nous approchant du sommet, nous apercevons d'autres collines qui s'élèvent devant nous au fur et à mesure".

Barbara Grosz, professeur de sciences naturelles à l'Université de Harvard : "Je ne pense pas que l'AGI soit la bonne direction à prendre". Elle soutient que la poursuite de l'AGI (et la gestion de ses conséquences) sont si loin dans l'avenir qu'elles ne sont que "distraction".

Un autre fil conducteur des recherches sur l'IA est la croyance que l'IA devrait être utilisée pour améliorer le travail humain plutôt que le remplacer.

Cynthia Breazeal, directrice du groupe de robots personnels du laboratoire de médias du MIT, aborde la question : "La question est de savoir quelle est la synergie, quelle est la complémentarité, quelle est l'amélioration qui permet d'étendre nos capacités humaines en termes d'objectifs, ce qui nous permet d'avoir vraiment un plus grand impact dans le monde, avec l'IA."

Fei-Fei Li, professeur d'informatique à Stanford et scientifique en chef pour Google Cloud dit lui : "L'IA en tant que technologie a énormément de potentiel pour valoriser et améliorer le travail, sans le remplacer".

James Manyika, président du conseil et directeur du McKinsey Global Institute, fait remarquer que puisque 60 % des professions ont environ un tiers de leurs activités qui sont automatisables et que seulement environ 10 % des professions ont plus de 90 % automatisables, "beaucoup plus de professions seront complétées ou augmentées par des technologies qu'elles ne seront remplacées".

De plus, l'IA ne peut améliorer le travail humain que si elle peut travailler efficacement de concert avec lui.

Barbara Grosz fait remarquer : "J'ai dit à un moment donné que 'les systèmes d'IA sont meilleurs s'ils sont conçus en pensant aux gens'". Je recommande que nous visions à construire un système qui soit un bon partenaire d'équipe et qui fonctionne si bien avec nous que nous ne nous rendions pas compte qu'il n'est pas humain".

David Ferrucci, fondateur d'Elemental Cognition et directeur d'IA appliquée chez Bridgewater Associates, déclare : " L'avenir que nous envisageons chez Elemental Cognition repose sur une collaboration étroite et fluide entre l'intelligence humaine et la machine. "Nous pensons que c'est un partenariat de pensée." Yoshua Bengio nous rappelle cependant les défis à relever pour former un tel partenariat : "Il ne s'agit pas seulement de la précision [avec l'IA], il s'agit de comprendre le contexte humain, et les ordinateurs n'ont absolument aucun indice à ce sujet."

Il est intéressant de constater qu'il y a beaucoup de consensus sur des idées clés telles que l'AGI n'est pas un objectif particulièrement utile en ce moment, l'IA devrait être utilisée pour améliorer et non remplacer le travail et l'IA devrait fonctionner en collaboration avec des personnes. Il est également intéressant de constater que ces mêmes leçons sont confirmées par l'expérience des entreprises.

Richard Waters décrit comment les implémentations de l'intelligence artificielle en sont encore à un stade assez rudimentaire.

Éliminez les recherches qui monopolisent les gros titres (un ordinateur qui peut battre les humains au Go !) et la technologie demeure à un stade très primaire .

Mais au-delà de cette "consumérisation" de l'IT, qui a mis davantage d'outils faciles à utiliser entre les mains, la refonte des systèmes et processus internes dans une entreprise demande beaucoup de travail.

Ce gros travail prend du temps et peu d'entreprises semblent présentes sur le terrain. Ginni Rometty, responsable d'IBM, qualifie les applications de ses clients d'"actes aléatoires du numérique" et qualifie nombre de projets de "hit and miss". (ratages). Andrew Moore, responsable de l'intelligence artificielle pour les activités de Google Cloud business, la décrit comme "intelligence artificielle artisanale". Rometty explique : "Ils ont tendance à partir d'un ensemble de données isolé ou d'un cas d'utilisation - comme la rationalisation des interactions avec un groupe particulier de clients. Tout ceci n'est pas lié aux systèmes, données ou flux de travail plus profonds d'une entreprise, ce qui limite leur impact."

Bien que le cas HBR du MD Anderson Cancer Center soit un bon exemple d'un projet d'IA "au clair de lune "qui a probablement dépassé les bornes, cela fournit également une excellente indication des types de travail que l'IA peut améliorer de façon significative. En même temps que le centre essayait d'appliquer l'IA au traitement du cancer, son "groupe informatique expérimentait l'utilisation des technologies cognitives pour des tâches beaucoup moins ambitieuses, telles que faire des recommandations d'hôtels et de restaurants pour les familles des patients, déterminer quels patients avaient besoin d'aide pour payer leurs factures, et résoudre les problèmes informatiques du personnel".

Dans cette entreprise, le centre a eu de bien meilleures expériences : "Les nouveaux systèmes ont contribué à accroître la satisfaction des patients, à améliorer le rendement financier et à réduire le temps consacré à la saisie fastidieuse des données par les gestionnaires de soins de l'hôpital. De telles fonctions banales ne sont peut-être pas exactement du ressort de Terminator, mais elles sont quand même importantes.

Optimiser l'IA dans le but d'augmenter le travail en collaborant avec les humains était également le point central d'une pièce de H. James Wilson et Paul R. Daugherty "HBRpiece". Ils soulignent : "Certes, de nombreuses entreprises ont utilisé l'intelligence artificielle pour automatiser leurs processus, mais celles qui l'utilisent principalement pour déplacer leurs employés ne verront que des gains de productivité à court terme. Grâce à cette intelligence collaborative, l'homme et l'IA renforcent activement les forces complémentaires de l'autre : le leadership, le travail d'équipe, la créativité et les compétences sociales de la première, la rapidité, l'évolutivité et les capacités quantitatives de la seconde".

Wilson et Daugherty précisent : "Pour tirer pleinement parti de cette collaboration, les entreprises doivent comprendre comment les humains peuvent le plus efficacement augmenter les machines, comment les machines peuvent améliorer ce que les humains font le mieux, et comment redéfinir les processus commerciaux pour soutenir le partenariat". Cela demande beaucoup de travail et cela va bien au-delà du simple fait de balancer un système d'IA dans un environnement de travail préexistant.

Les idées des principaux chercheurs en intelligence artificielle, combinées aux réalités des applications du monde réel, offrent des implications utiles. La première est que l'IA est une arme à double tranchant : le battage médiatique peut causer des distractions et une mauvaise attribution, mais les capacités sont trop importantes pour les ignorer.

Ben Hunt discute des rôles de la propriété intellectuelle (PI) et de l'intelligence artificielle dans le secteur des investissements, et ses commentaires sont largement pertinents pour d'autres secteurs. Il note : "L'utilité de la propriété intellectuelle pour préserver le pouvoir de fixation des prix est beaucoup moins fonction de la meilleure stratégie que la PI vous aide à établir, et beaucoup plus fonction de la façon dont la propriété intellectuelle s'intègre dans le l'esprit du temps (Zeitgeist) dominant dans votre secteur.

Il poursuit en expliquant que le "POURQUOI" de votre PI doit "répondre aux attentes de vos clients quant au fonctionnement de la PI" afin de protéger votre produit. Si vous ne correspondez pas à l'esprit du temps, personne ne croira que les murs de votre château existent, même si c'est le cas". Dans le domaine de l'investissement (et bien d'autres encore), "PERSONNE ne considère plus le cerveau humain comme une propriété intellectuelle défendable. Personne." En d'autres termes, si vous n'utilisez pas l'IA, vous n'obtiendrez pas de pouvoir de fixation des prix, quels que soient les résultats réels.

Cela fait allusion à un problème encore plus grave avec l'IA : trop de gens ne sont tout simplement pas prêts à y faire face.

Daniela Rus, directrice du laboratoire d'informatique et d'intelligence artificielle (CSAIL) du MIT déclare : "Je veux être une optimiste technologique. Je tiens à dire que je vois la technologie comme quelque chose qui a le potentiel énorme d'unir les gens plutôt que les diviser, et de les autonomiser plutôt que de les désolidariser. Mais pour y parvenir, nous devons faire progresser la science et l'ingénierie afin de rendre la technologie plus performante et plus utilisable." Nous devons revoir notre façon d'éduquer les gens afin de nous assurer que tous ont les outils et les compétences nécessaires pour tirer parti de la technologie.

Yann Lecun ajoute : "Nous n'aurons pas de large diffusion de la technologie de l'IA à moins qu'une proportion importante de la population ne soit formée pour en tirer parti ".

Cynthia Breazeal répéte : "Dans une société de plus en plus alimentée par l'IA, nous avons besoin d'une société alphabétisée à l'IA."

Ce ne sont pas non plus des déclarations creuses ; il existe une vaste gamme de matériel d'apprentissage gratuit pour l'IA disponible en ligne pour encourager la participation sur le terrain.

Si la société ne rattrape pas la réalité de l'IA, il y aura des conséquences.

Brezeal note : "Les craintes des gens à propos de l'IA peuvent être manipulées parce qu'ils ne la comprennent pas."

Lecun souligne : " Il y a une concentration du pouvoir. À l'heure actuelle, la recherche sur l'IA est très publique et ouverte, mais à l'heure actuelle, elle est largement déployée par un nombre relativement restreint d'entreprises. Il faudra un certain temps avant que ce ne soit utilisé par une plus grande partie de l'économie et c'est une redistribution des cartes du pouvoir."

Hinton souligne une autre conséquence : "Le problème se situe au niveau des systèmes sociaux et la question de savoir si nous allons avoir un système social qui partage équitablement... Tout cela n'a rien à voir avec la technologie".

À bien des égards, l'IA est donc un signal d'alarme. En raison de l'interrelation unique de l'IA avec l'humanité, l'IA a tendance à faire ressortir ses meilleurs et ses pires éléments. Certes, des progrès considérables sont réalisés sur le plan technologique, ce qui promet de fournir des outils toujours plus puissants pour résoudre des problèmes difficiles. Cependant, ces promesses sont également limitées par la capacité des gens, et de la société dans son ensemble, d'adopter les outils d'IA et de les déployer de manière efficace.

Des preuves récentes suggèrent que nous avons du pain sur la planche pour nous préparer à une société améliorée par l'IA. Dans un cas rapporté par le FT, UBS a créé des "algorithmes de recommandation" (tels que ceux utilisés par Netflix pour les films) afin de proposer des transactions pour ses clients. Bien que la technologie existe, il est difficile de comprendre en quoi cette application est utile à la société, même de loin.

Dans un autre cas, Richard Waters nous rappelle : "Cela fait presque dix ans, par exemple, que Google a fait trembler le monde de l'automobile avec son premier prototype de voiture autopropulsée". Il continue : "La première vague de la technologie des voitures sans conducteur est presque prête à faire son entrée sur le marché, mais certains constructeurs automobiles et sociétés de technologie ne semblent plus aussi désireux de faire le grand saut. Bref, ils sont menacés parce que la technologie actuelle est à "un niveau d'autonomie qui fait peur aux constructeurs automobiles, mais qui fait aussi peur aux législateurs et aux régulateurs".

En résumé, que vous soyez investisseur, homme d'affaires, employé ou consommateur, l'IA a le potentiel de rendre les choses bien meilleures - et bien pires. Afin de tirer le meilleur parti de cette opportunité, un effort actif axé sur l'éducation est un excellent point de départ. Pour que les promesses d'AI se concrétisent, il faudra aussi déployer beaucoup d'efforts pour mettre en place des infrastructures de systèmes et cartographier les forces complémentaires. En d'autres termes, il est préférable de considérer l'IA comme un long voyage plutôt que comme une destination à court terme.

Auteur: Internet

Info: Zero Hedge, Ven, 03/15/2019 - 21:10

[ prospective ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

intelligence artificielle

Apprendre l'anglais n'est pas une tâche facile, comme le savent d'innombrables étudiants. Mais lorsque l'étudiant est un ordinateur, une approche fonctionne étonnamment bien : Il suffit d'alimenter un modèle mathématique géant, appelé réseau neuronal, avec des montagnes de textes provenant d'Internet. C'est le principe de fonctionnement des modèles linguistiques génératifs tels que ChatGPT d'OpenAI, dont la capacité à tenir une conversation cohérente (à défaut d'être toujours sincère) sur un large éventail de sujets a surpris les chercheurs et le public au cours de l'année écoulée.

Mais cette approche présente des inconvénients. D'une part, la procédure de "formation" nécessaire pour transformer de vastes archives textuelles en modèles linguistiques de pointe est coûteuse et prend beaucoup de temps. D'autre part, même les personnes qui forment les grands modèles linguistiques ont du mal à comprendre leur fonctionnement interne, ce qui, à son tour, rend difficile la prévision des nombreuses façons dont ils peuvent échouer.

Face à ces difficultés, certains chercheurs ont choisi d'entraîner des modèles plus petits sur des ensembles de données plus restreints, puis d'étudier leur comportement. "C'est comme le séquençage du génome de la drosophile par rapport au séquençage du génome humain", explique Ellie Pavlick, chercheuse sur les modèles de langage à l'université de Brown.

Dans un article récemment publié sur le serveur scientifique arxiv.org, deux chercheurs de Microsoft ont présenté une nouvelle méthode pour former de minuscules modèles de langage : Les élever avec un régime strict d'histoires pour enfants.

RÉSEAUX NEURONAUX

Des chercheurs acquièrent une nouvelle compréhension à partir d'une simple IA  

Les chercheurs en apprentissage automatique ont compris cette leçon. GPT-3.5, le grand modèle linguistique qui alimente l'interface ChatGPT, compte près de 200 milliards de paramètres et a été entraîné sur un ensemble de données comprenant des centaines de milliards de mots (OpenAI n'a pas publié les chiffres correspondants pour son successeur, GPT-4).  L'entraînement de modèles aussi vastes nécessite généralement au moins 1 000 processeurs spécialisés, appelés GPU, fonctionnant en parallèle pendant des semaines. Seules quelques entreprises peuvent réunir les ressources nécessaires, sans parler de l'entraînement et de la comparaison de différents modèles.

Les deux chercheurs ont montré que des modèles linguistiques des milliers de fois plus petits que les systèmes de pointe actuels apprenaient rapidement à raconter des histoires cohérentes et grammaticalement justes lorsqu'ils étaient formés de cette manière. Leurs résultats indiquent de nouvelles pistes de recherche qui pourraient être utiles pour former des modèles plus importants et comprendre leur comportement.

"J'ai trouvé tout  ça très instructif", a déclaré Chandra Bhagavatula, chercheur sur les modèles de langage à l'Allen Institute for Artificial Intelligence de Seattle. "Le concept lui-même est très intéressant.

Il était une fois

Les réseaux neuronaux au cœur des modèles de langage sont des structures mathématiques vaguement inspirées du cerveau humain. Chacun d'entre eux contient de nombreux neurones artificiels disposés en couches, avec des connexions entre les neurones des couches adjacentes. Le comportement du réseau neuronal est régi par la force de ces connexions, appelées paramètres. Dans un modèle linguistique, les paramètres contrôlent les mots que le modèle peut produire ensuite, compte tenu d'une invite initiale et des mots qu'il a déjà générés.

Un modèle ne prend véritablement vie qu'au cours de la formation, lorsqu'il compare de manière répétée ses propres résultats au texte de son ensemble de données de formation et qu'il ajuste ses paramètres afin d'accroître la ressemblance. Un réseau non entraîné avec des paramètres aléatoires est trivialement facile à assembler à partir de quelques lignes de code, mais il ne produira que du charabia. Après l'entraînement, il peut souvent poursuivre de manière plausible un texte peu familier. Les modèles de plus grande taille sont souvent soumis à des réglages plus fins qui leur apprennent à répondre à des questions et à suivre des instructions, mais l'essentiel de la formation consiste à maîtriser la prédiction des mots.

Pour réussir à prédire des mots, un modèle linguistique doit maîtriser de nombreuses compétences différentes. Par exemple, les règles de la grammaire anglaise suggèrent que le mot suivant le mot "going" sera probablement "to", quel que soit le sujet du texte. En outre, un système a besoin de connaissances factuelles pour compléter "la capitale de la France est", et compléter un passage contenant le mot "not" nécessite une connaissance rudimentaire de la logique.

"Le langage brut est très compliqué", explique Timothy Nguyen, chercheur en apprentissage automatique chez DeepMind. "Pour que des capacités linguistiques intéressantes apparaissent, les gens ont eu recours à l'idée que plus il y a de données, mieux c'est".

(photo) Ronen Eldan s'est rendu compte qu'il pouvait utiliser les histoires d'enfants générées par de grands modèles linguistiques pour en entraîner rapidement de plus petits.

Introduction

Ronen Eldan, mathématicien qui a rejoint Microsoft Research en 2022 pour étudier les modèles de langage génératifs, souhaitait développer un moyen moins coûteux et plus rapide d'explorer leurs capacités. Le moyen naturel d'y parvenir était d'utiliser un petit ensemble de données, ce qui signifiait qu'il devait entraîner les modèles à se spécialiser dans une tâche spécifique, afin qu'ils ne s'éparpillent pas. Au départ, il voulait entraîner les modèles à résoudre une certaine catégorie de problèmes mathématiques, mais un après-midi, après avoir passé du temps avec sa fille de 5 ans, il s'est rendu compte que les histoires pour enfants convenaient parfaitement. "L'idée m'est venue littéralement après lui avoir lu une histoire", a-t-il déclaré.

Pour générer des histoires cohérentes pour les enfants, un modèle de langage devrait apprendre des faits sur le monde, suivre les personnages et les événements, et observer les règles de grammaire - des versions plus simples des défis auxquels sont confrontés les grands modèles. Mais les grands modèles formés sur des ensembles de données massives apprennent d'innombrables détails non pertinents en même temps que les règles qui comptent vraiment. Eldan espérait que la brièveté et le vocabulaire limité des histoires pour enfants rendraient l'apprentissage plus gérable pour les petits modèles, ce qui les rendrait à la fois plus faciles à former et plus faciles à comprendre.

Dans le monde des modèles de langage, cependant, le terme "petit" est relatif : Un ensemble de données mille fois plus petit que celui utilisé pour former GPT-3.5 devrait encore contenir des millions d'histoires. "Je ne sais pas combien d'argent vous voulez dépenser, mais je suppose que vous n'allez pas engager des professionnels pour écrire quelques millions de nouvelles", a déclaré M. Nguyen.

Il faudrait un auteur extraordinairement prolifique pour satisfaire des lecteurs aussi voraces, mais Eldan avait quelques candidats en tête. Qui peut mieux écrire pour un public de petits modèles linguistiques que pour de grands modèles ?

Toys stories

Eldan a immédiatement entrepris de créer une bibliothèque d'histoires synthétiques pour enfants générées par de grands modèles linguistiques. Mais il a rapidement découvert que même les modèles de pointe ne sont pas naturellement très créatifs. Si l'on demande à GPT-4 d'écrire des histoires adaptées à des enfants de 4 ans, explique Eldan, "environ un cinquième des histoires concernera des enfants qui vont au parc et qui ont peur des toboggans". C'est apparemment la quintessence des histoires pour enfants d'âge préscolaire, selon l'Internet.

La solution a consisté à ajouter un peu d'aléatoire dans le message. Tout d'abord, Eldan a utilisé le GPT-4 pour générer une liste de 1 500 noms, verbes et adjectifs qu'un enfant de 4 ans pourrait connaître - suffisamment courte pour qu'il puisse facilement la vérifier lui-même. Il a ensuite écrit un programme informatique simple qui demanderait à plusieurs reprises à GPT-3.5 ou à GPT-4 de générer une histoire adaptée à l'âge de l'enfant, comprenant trois mots aléatoires de la liste, ainsi qu'un détail supplémentaire choisi au hasard, comme une fin heureuse ou un rebondissement de l'intrigue. Les histoires obtenues, heureusement, étaient moins axées sur des diapositives effrayantes.

Eldan disposait désormais d'une procédure pour produire des données de formation à la demande, mais il n'avait aucune idée du nombre d'histoires dont il aurait besoin pour former un modèle fonctionnel, ni de la taille de ce modèle. C'est alors qu'il s'est associé à Yuanzhi Li, chercheur en apprentissage automatique chez Microsoft et à l'université Carnegie Mellon, pour essayer différentes possibilités, en tirant parti du fait que les petits modèles peuvent être formés très rapidement. La première étape consistait à décider comment évaluer leurs modèles.

Introduction

Dans la recherche sur les modèles de langage - comme dans toute salle de classe - la notation est un sujet délicat. Il n'existe pas de rubrique parfaite qui englobe tout ce que les chercheurs veulent savoir, et les modèles qui excellent dans certaines tâches échouent souvent de manière spectaculaire dans d'autres. Au fil du temps, les chercheurs ont mis au point divers critères de référence standard basés sur des questions dont les réponses ne sont pas ambiguës, ce qui est une bonne approche si vous essayez d'évaluer des compétences spécifiques. Mais Eldan et Li se sont intéressés à quelque chose de plus nébuleux : quelle doit être la taille réelle des modèles linguistiques si l'on simplifie le langage autant que possible ?

"Pour vérifier directement si le modèle parle anglais, je pense que la seule chose à faire est de laisser le modèle générer de l'anglais de manière ouverte", a déclaré M. Eldan.

Il n'y a que deux façons de mesurer les performances d'un modèle sur des questions aussi qualitatives : S'appuyer sur des évaluateurs humains ou se tourner à nouveau vers le GPT-4. Les deux chercheurs ont opté pour cette dernière solution, laissant les grands modèles à la fois rédiger les manuels et noter les dissertations.

Bhagavatula a déclaré qu'il aurait aimé voir comment les évaluations de GPT-4 se comparaient à celles des correcteurs humains - GPT-4 peut être biaisé en faveur des modèles qu'il a aidé à former, et l'opacité des modèles de langage rend difficile la quantification de tels biais. Mais il ne pense pas que de telles subtilités affecteraient les comparaisons entre différents modèles formés sur des ensembles similaires d'histoires synthétiques - l'objectif principal du travail d'Eldan et Li.

Eldan et Li ont utilisé une procédure en deux étapes pour évaluer chacun de leurs petits modèles après la formation. Tout d'abord, ils ont présenté au petit modèle la première moitié d'une histoire distincte de celles de l'ensemble des données d'apprentissage, de manière à ce qu'il génère une nouvelle fin, en répétant ce processus avec 50 histoires de test différentes. Ensuite, ils ont demandé à GPT-4 d'évaluer chacune des fins du petit modèle en fonction de trois catégories : créativité, grammaire et cohérence avec le début de l'histoire. Ils ont ensuite fait la moyenne des notes obtenues dans chaque catégorie, obtenant ainsi trois notes finales par modèle.

Avec cette procédure en main, Eldan et Li étaient enfin prêts à comparer les différents modèles et à découvrir quels étaient les étudiants les plus brillants.

Résultats des tests

Après quelques explorations préliminaires, les deux chercheurs ont opté pour un ensemble de données de formation contenant environ 2 millions d'histoires. Ils ont ensuite utilisé cet ensemble de données, baptisé TinyStories, pour entraîner des modèles dont la taille varie de 1 million à 30 millions de paramètres, avec un nombre variable de couches. Le travail a été rapide : En utilisant seulement quatre GPU, l'entraînement du plus grand de ces modèles n'a pas pris plus d'une journée.

Les plus petits modèles ont eu du mal. Par exemple, l'une des histoires testées commence par un homme à l'air méchant qui dit à une fille qu'il va lui prendre son chat. Un modèle à un million de paramètres s'est retrouvé bloqué dans une boucle où la fille répète sans cesse à l'homme qu'elle veut être son amie. Mais les modèles plus grands, qui sont encore des milliers de fois plus petits que GPT-3.5, ont obtenu des résultats surprenants. La version à 28 millions de paramètres racontait une histoire cohérente, même si la fin était sinistre : "Katie s'est mise à pleurer, mais l'homme s'en fichait. Il a emporté le chat et Katie n'a plus jamais revu son chat. Fin de l'histoire".

En plus de tester leurs propres modèles, Eldan et Li ont soumis le même défi au GPT-2 d'OpenAI, un modèle de 1,5 milliard de paramètres publié en 2019. Le résultat a été bien pire - avant la fin abrupte de l'histoire, l'homme menace d'emmener la jeune fille au tribunal, en prison, à l'hôpital, à la morgue et enfin au crématorium.

Introduction

Selon M. Nguyen, il est passionnant que des modèles aussi petits soient aussi fluides, mais il n'est peut-être pas surprenant que GPT-2 ait eu du mal à accomplir la tâche : il s'agit d'un modèle plus grand, mais loin de l'état de l'art, et il a été formé sur un ensemble de données très différent. "Un enfant en bas âge qui ne s'entraînerait qu'à des tâches d'enfant en bas âge, comme jouer avec des jouets, obtiendrait de meilleurs résultats que vous ou moi", a-t-il fait remarquer. "Nous ne nous sommes pas spécialisés dans cette chose simple.

Les comparaisons entre les différents modèles de TinyStories ne souffrent pas des mêmes facteurs de confusion. Eldan et Li ont observé que les réseaux comportant moins de couches mais plus de neurones par couche étaient plus performants pour répondre aux questions nécessitant des connaissances factuelles ; inversement, les réseaux comportant plus de couches et moins de neurones par couche étaient plus performants pour garder en mémoire les personnages et les points de l'intrigue situés plus tôt dans l'histoire. Bhagavatula a trouvé ce résultat particulièrement intriguant. S'il peut être reproduit dans des modèles plus vastes, "ce serait un résultat vraiment intéressant qui pourrait découler de ce travail", a-t-il déclaré.

Eldan et Li ont également étudié comment les capacités de leurs petits modèles dépendaient de la durée de la période de formation. Dans tous les cas, les modèles maîtrisaient d'abord la grammaire, puis la cohérence. Pour Eldan, ce schéma illustre comment les différences dans les structures de récompense entraînent des différences dans les schémas d'acquisition du langage entre les réseaux neuronaux et les enfants. Pour les modèles de langage, qui apprennent en prédisant des mots, "l'incitation pour les mots "je veux avoir" est aussi importante que pour les mots "crème glacée"", a-t-il déclaré. Les enfants, en revanche, "ne se soucient pas de savoir s'ils disent 'j'aimerais avoir de la glace' ou simplement 'glace, glace, glace'".

Qualité contre quantité

Eldan et Li espèrent que cette étude incitera d'autres chercheurs à entraîner différents modèles sur l'ensemble des données de TinyStories et à comparer leurs capacités. Mais il est souvent difficile de prédire quelles caractéristiques des petits modèles apparaîtront également dans les plus grands.

"Peut-être que les modèles de vision chez la souris sont de très bons substituts de la vision humaine, mais les modèles de dépression chez la souris sont-ils de bons modèles de la dépression chez l'homme ? a déclaré M. Pavlick. "Pour chaque cas, c'est un peu différent.

Le succès des modèles TinyStories suggère également une leçon plus large. L'approche standard pour compiler des ensembles de données de formation consiste à aspirer des textes sur l'internet, puis à filtrer les déchets. Le texte synthétique généré par des modèles de grande taille pourrait constituer une autre façon d'assembler des ensembles de données de haute qualité qui n'auraient pas besoin d'être aussi volumineux.

"Nous avons de plus en plus de preuves que cette méthode est très efficace, non seulement pour les modèles de la taille de TinyStories, mais aussi pour les modèles plus importants", a déclaré M. Eldan. Ces preuves proviennent d'une paire d'articles de suivi sur les modèles à un milliard de paramètres, rédigés par Eldan, Li et d'autres chercheurs de Microsoft. Dans le premier article, ils ont entraîné un modèle à apprendre le langage de programmation Python en utilisant des extraits de code générés par GPT-3.5 ainsi que du code soigneusement sélectionné sur l'internet. Dans le second, ils ont complété l'ensemble de données d'entraînement par des "manuels" synthétiques couvrant un large éventail de sujets, afin d'entraîner un modèle linguistique à usage général. Lors de leurs tests, les deux modèles ont été comparés favorablement à des modèles plus importants formés sur des ensembles de données plus vastes. Mais l'évaluation des modèles linguistiques est toujours délicate, et l'approche des données d'entraînement synthétiques n'en est qu'à ses balbutiements - d'autres tests indépendants sont nécessaires.

Alors que les modèles linguistiques de pointe deviennent de plus en plus volumineux, les résultats surprenants de leurs petits cousins nous rappellent qu'il y a encore beaucoup de choses que nous ne comprenons pas, même pour les modèles les plus simples. M. Nguyen s'attend à ce que de nombreux autres articles explorent l'approche inaugurée par TinyStories.

"La question est de savoir où et pourquoi la taille a de l'importance", a-t-il déclaré. "Il devrait y avoir une science à ce sujet, et cet article est, je l'espère, le début d'une riche histoire.



 



 

Auteur: Internet

Info: https://www.quantamagazine.org/ Ben Brubaker, 5 octobre 2023

[ synthèse ]

 

Commentaires: 0

Ajouté à la BD par miguel

vacuité

Comment le cerveau humain fait face à l'étrangeté du zéro

Le zéro, inventé tardivement dans l'histoire, est un nombre particulier. De nouvelles études révèlent comment le cerveau crée quelque chose à partir de rien.

(image : À certains égards, le zéro ressemble à n'importe quel autre chiffre sur une droite numérique. Mais une nouvelle étude suggère que l'esprit pourrait traiter différemment le symbole de l'absence.) 

Il y a environ 2 500 ans, des commerçants babyloniens en Mésopotamie ont gravé deux pièces inclinées sur des tablettes d'argile. Ces formes représentaient un chiffre de remplacement, coincé entre d'autres, pour distinguer des nombres tels que 50, 505 et 5 005. Une version élémentaire du concept de zéro était née.

Des centaines d'années plus tard, au VIIe siècle en Inde, le zéro a pris une nouvelle identité. Ce n'était plus un simple symbole, mais un chiffre qui avait une valeur et qui avait trouvé sa place sur la droite numérique, avant le chiffre 1. Son invention a donné naissance à des avancées historiques dans les domaines de la science et de la technologie. C'est du zéro que sont nées les lois de l'univers, la théorie des nombres et les mathématiques modernes.

" Le zéro est, pour de nombreux mathématiciens, certainement considéré comme l'une des plus grandes – ou peut-être la plus grande – réalisation de l'humanité ", a déclaré le neuroscientifique Andreas Nieder., qui étudie l'intelligence animale et humaine à l'université de Tübingen en Allemagne. " Il a fallu une éternité pour que les mathématiciens inventent enfin le zéro comme nombre. "

Ce n'est peut-être pas surprenant, car le concept peut être difficile à saisir pour le cerveau. Les enfants mettent plus de temps à comprendre et à utiliser le zéro que les autres nombres, et les adultes mettent plus de temps à le lire que les autres petits nombres. En effet, pour comprendre le zéro, notre esprit doit créer quelque chose à partir de rien. Il doit reconnaître l'absence comme un objet mathématique.

 C'est comme un niveau d'abstraction supplémentaire par rapport au monde qui vous entoure ", a déclaré Benjy Barnett, qui termine ses études supérieures sur la conscience à l'University College de Londres. Les nombres non nuls correspondent à des objets dénombrables dans l'environnement : trois chaises, chacune avec quatre pieds, à une table. Avec zéro, dit-il, " nous devons aller plus loin et dire : " OK, il n'y avait rien là. Par conséquent, il doit y en avoir zéro." 

 (images : À gauche : une entrée pointue du temple de Chaturbhuj, avec une colonne de chaque côté, est creusée dans une paroi rocheuse rouge. À droite : un petit cercle fait partie d'une inscription gravée en sanskrit. À l'intérieur du temple de Chaturbhuj en Inde (à gauche), une inscription murale présente le plus ancien exemple connu du chiffre zéro, daté de 876 de notre ère (à droite). Il fait partie du nombre 270.)

Ces dernières années, les chercheurs ont commencé à découvrir comment le cerveau humain représente les nombres, mais personne n'a examiné comment il gère le zéro. Deux études indépendantes, dirigées respectivement par Nieder et Barnett, ont montré que le cerveau code le zéro comme il le fait pour les autres nombres, sur une ligne numérique mentale. Mais, comme l'a révélé l'une des études, le zéro occupe également un statut particulier dans le cerveau.

" Le fait que [zéro] ne représente rien n'est une contradiction en soi ", a déclaré Carlo Semenza, professeur émérite de neurosciences à l'université de Padoue en Italie, qui n'a participé à aucune des deux études. " Cela semble être du béton parce que les gens le placent sur la droite numérique, mais cela n'existe pas. […] C'est fascinant, absolument fascinant "

Penser à rien

L'idée du zéro, appelée à l'origine sunya pour " vide " en sanskrit, a d'abord été introduite en Inde dans le monde arabe. Au XIIIe siècle, un humble voyageur du nom de Fibonacci a repris l'idée en Afrique du Nord et l'a ramenée en Europe médiévale, avec le système numérique à base 10 et les chiffres indo-arabes.

Au début, le zéro a semé la confusion. " Sa capacité à représenter le " rien " et à permettre des opérations mathématiques complexes a remis en question des idées théologiques et philosophiques profondément ancrées ", a déclaré Nieder. En raison notamment de l'influence de l'Église, les philosophes et les théologiens ont associé le " rien " au chaos et au désordre et étaient peu enclins à l'accepter. Beaucoup le craignaient même, le considérant comme " le nombre du diable ", a déclaré Barnett.

Mais les commerçants ont vite compris que le zéro était précieux pour les affaires. Au XVe siècle, il s'était répandu dans le commerce, la finance et les mathématiques à travers l'Europe, mais n'a jamais perdu son aura de mystère. " Si vous multipliez un nombre par zéro, il disparaît. C'était vraiment difficile à comprendre ", a déclaré Semenza. Ce sentiment persiste aujourd'hui : bien que le zéro soit désormais omniprésent et apparemment simple, les étudiants en mathématiques et les mathématiciens continuent de se débattre avec lui.

Le zéro est " l'oncle excentrique de la famille des nombres ", a déclaré Nieder. Pour utiliser le zéro dans les calculs, les mathématiciens ont dû établir toutes sortes de règles. On ne peut diviser aucun autre nombre par zéro, mais on peut diviser zéro par n'importe quel autre nombre. Un nombre non nul à la puissance de zéro donne un ; zéro à une puissance d'un nombre non nul donne zéro, mais zéro à une puissance de zéro donne une erreur de calcul – et un mal de tête.

Pourtant, " l'idée du zéro, ou de quelque chose qui joue le rôle d'un zéro, apparaît d'une manière ou d'une autre partout dans les mathématiques ", a déclaré Neil Barton., philosophe des mathématiques à l'Université nationale de Singapour. Sans elle, les mathématiques modernes n'existeraient pas : vous ne seriez pas capable de résoudre une fonction, de faire des calculs ou de faire la distinction entre 1 et 1 million.

Quelle que soit la façon dont on l’envisage, le zéro est unique. Pour les chercheurs qui s'intéressent à la façon dont le cerveau traite les nombres, le zéro est " le nombre le plus fascinant de tous ", a déclaré Nieder. Il semble que si le zéro est spécial en histoire et en mathématiques, alors le cerveau doit aussi le traiter de manière spéciale.

L'équipe de Nieder a déjà montré que certains neurones du cerveau ont des nombres préférés. Certains ont une préférence pour le 3 et s'activent plus rapidement lorsqu'on leur présente trois pommes, par exemple, que lorsqu'on leur présente deux ou quatre pommes – et bien plus rapidement que lorsqu'on leur présente cinq ou sept. Plus les neurones s'activent rapidement, plus ils s'intéressent à un nombre spécifique. Cela est vrai non seulement chez les humains, mais aussi chez d'autres animaux. Si les animaux non humains ne comprennent pas les nombres lorsqu'ils sont représentés sous forme de chiffres – une construction entièrement humaine – ils peuvent estimer des quantités, également appelées nombres. Les chercheurs ont déjà découvert que les singes et les corbeaux ont des neurones spécifiquement réglés sur la numérosité zéro.

Mais jusqu'à très récemment, personne n'avait jamais sondé la base neuronale du zéro chez l'homme.

"Juste un autre numéro"

Barnett s'intéresse à l'absence avant de s'intéresser au zéro. La majeure partie des travaux sur la conscience et la perception au cours du siècle dernier se sont concentrés sur ce qui se passe dans le cerveau lorsque nous détectons quelque chose dans l'environnement. " Mais cela ignore tout l'autre aspect des choses ", at-il déclaré, " à savoir que nous pouvons souvent avoir l'impression que quelque chose n'est pas là. " Par exemple, si vous allez chercher vos clés et qu'elles ne sont pas là où vous les avez laissées sur la table du couloir, vous ressentez l'absence.

Jusqu'à présent, les chercheurs pensaient que l'absence était représentée dans le cerveau par des neurones qui ne s'activaient pas. Mais des études récentes ont montré que le cerveau code l'absence avec des schémas neuronaux uniques. Pour aller plus loin dans ses travaux, Barnett s'est tourné vers le zéro, " un concept d'absence que nous connaissons tous ", at-il déclaré.

Il y a quelques années, Barnett a commencé ses études sur l'absence avec le nombre zéro. Il a recruté 24 participants pour effectuer des tâches liées au zéro alors qu'ils étaient assis dans un scanner magnétoencéphalographique, qui " ressemble à ces machines de coiffeur à l'ancienne ", at-il déclaré. Lorsque les neurones s'activent, ils génèrent des tensions, qui à leur tour créent un champ magnétique qui peut être détecté par la machine. En analysant les champs magnétiques, les chercheurs peuvent apprendre comment les populations de neurones réagissent lorsqu'on les incite à réfléchir à des sujets spécifiques, comme le zéro.

Barnett et son conseiller à l'University College de Londres, Stephen Fleming, cherchaient des preuves de l'effet de distance numérique, un phénomène qui se produit lorsque le cerveau traite des nombres non nuls. En gros, le cerveau peut plus facilement distinguer deux nombres s'ils sont éloignés de l'un de l'autre sur la droite numérique que s'ils sont proches de l'un de l'autre. Il confond donc plus souvent 6 et 7 que 6 et 9. Les chercheurs ont estimé que si le cerveau traite le zéro de la même manière que les autres nombres, il devrait également présenter l'effet de distance numérique.

En effet, dans des résultats publiés dans Current Biology en août, Barnett et Fleming ont conclu que le cerveau traite zéro, à la fois comme chiffre et comme quantité, de la même manière qu'il traite les autres nombres. " Le zéro est représenté sur cette ligne de nombres neuronaux ", a déclaré Barnett.

Nieder, pour sa part, est obsédé par le zéro et l'absence depuis près d'une décennie. En 2016, il a suggéré que les mécanismes neurologiques qui codent l'absence pourraient être partagés avec ceux qui codent le zéro. Il a émis l'hypothèse que le zéro devait avoir évolué. Il a commencé par des représentations plus fondamentales de l'absence perceptive. Tout d'abord, le cerveau devait comprendre l'absence d'un stimulus, comme une lumière éteinte ; ce n'est qu'ensuite qu'il pouvait reconnaître le " rien " comme une catégorie apparentée à " quelque chose ", mais représentant tout ce qui n'est pas quelque chose. Enfin, il devait transformer le " rien " en un concept quantitatif. En comprenant comment le cerveau code le zéro, pensant-il, nous serons bientôt capables de comprendre comment le cerveau gérer l'absence.

Depuis 2015, Nieder collabore avec Florian Mormann, responsable du groupe de neurophysiologie cognitive et clinique de l'université de Bonn, qui traite des patients épileptiques. Pour leur traitement, ces patients se voient implanter des électrodes dans le cerveau, grâce à laquelle Mormann peut recueillir des données de recherche en neurosciences avec le consentement du patient. "Le zéro est codé avec d'autres petits nombres, mais il est représenté plus distinctement par rapport à eux", a déclaré Nieder. " Il s'agit simplement d'une valeur aberrante excentrique et représentée comme telle dans le cerveau. "

Mormann a enregistré l'activité cérébrale de neurones individuels pendant que les patients effectuaient des tâches liées aux nombres. Dans l'analyse, lui et Nieder se sont d'abord concentrés sur les nombres non nuls et ils ont découvert que le cerveau traite les grands nombres différemment des petits. Ils sont ensuite retournés à leurs données pour se concentrer uniquement sur le zéro.

Comme ils l'ont rapporté dans Current Biology en septembre, Nieder et Mormann ont trouvé la même chose que Barnett, à savoir que le zéro présentait un effet de distance numérique. Dans le cerveau, cela signifie que, pour le cerveau, zéro n'est qu'un autre nombre, a déclaré Nieder.

Ou est-ce le cas ?

" Si l'on regarde de plus près, dit-il, zéro reste une valeur aberrante parmi les autres nombres. "

Ce qui rend Zero spécial

L'équipe de Nieder a découvert quelques différences entre la façon dont le cerveau représente le zéro et la façon dont il traite les autres nombres. D'une part, plus de neurones avaient le zéro comme nombre préféré que n'importe quel autre petit nombre. Comme il y a plus de neurones qui codent pour le zéro, le cerveau peut représenter l'ensemble vide avec plus de précision que d'autres petites quantités, ont-ils découverts.

Cependant, ils n'ont pas constaté de différence de précision dans la façon dont le cerveau représentait la version numérique du zéro (0) par rapport aux autres chiffres. "Tous les symboles numériques sont des abstractions, fonctionnant comme des symboles formels au sein d'un système symbolique", a déclaré Nieder. " En tant que tel, le zéro est traité comme n'importe quel autre nom formel. "

(image : Un point rempli fait partie d'un texte sanskrit griffonné à l'encre. Dans le manuscrit Bakhshali, un texte mathématique indien datant du IVe siècle, un zéro réservé est représenté par un point.)

Les bibliothèques Bodleian, Université d'Oxford

Les conclusions de Nieder sont légèrement différentes de celles de Barnett. Barnett n'a observé aucune différence, même minime, dans la manière dont le zéro était représenté par rapport aux autres nombres.

Comment expliquer cette différence ? Après avoir examiné leurs articles respectifs, Barnett et Nieder ont convenu que leurs résultats étaient complémentaires. Selon eux, toute différence est probablement liée à l'échelle : l'étude de Barnett a porté sur de grandes populations de neurones, tandis que celle de Nieder s'est intéressée à des neurones isolés.

Brian Butterworth, un neuroscientifique cognitif de l'University College de Londres, a noté que les différences entre les études pourraient plutôt être dues à la zone cérébrale étudiée. Le groupe de Barnett a pu examiner l'ensemble du cerveau, y compris le cortex pariétal, la région considérée comme le centre du traitement des nombres. Cependant, Nieder et Mormann étaient limités par l'endroit où les électrodes des patients étaient placées ; ils ont examiné de près des neurones individuels dans le lobe temporal médian, qui sont connus pour traiter la mémoire. " C'est comme chercher vos clés perdues sous le lampadaire ", a déclaré Butterworth. Le duo a peut-être examiné "les souvenirs pour le zéro", at-il ajouté, plutôt que le chiffre ou l'idée elle-même. Nieder n'est pas d'accord : cette zone du cerveau, ainsi que beaucoup d'autres, s'est également avérée capable de traiter les nombres, at-il déclaré.

Malgré les différences, les résultats ont enthousiasmé Semenza. Il avait déjà émis l'hypothèse que le zéro aurait sa place sur la ligne numérique mentale et ne serait pas un concept distinct des autres nombres. " J'aurais aimé faire ces expériences moi-même ", at-il déclaré.

Tous les chercheurs ont convenu que ces études ne sont qu'un début pour comprendre comment notre cerveau traite le zéro et comment concilier ses différents modes. Aucun des deux groupes de recherche, par exemple, n'a étudié la façon dont le cerveau traite le " zéro " comme un mot écrit.

" Combien de concepts zéro différents existent-t-il et comment pouvons-nous unifier ces idées sous un même toit ? ", a déclaré Barton. " C'est une notion mathématique bien comprise, mais j'aimerais en voir davantage de la part des neurobiologistes. "

Tandis que Nieder espère continuer à s'intéresser au monde des neurosciences numériques, Barnett a les yeux rivaux sur le concept d'absence. S'il parvient à trouver des similitudes dans la façon dont l'esprit représente le zéro et l'absence, dit-il, alors peut-être que la théorie de Nieder est juste – le zéro pourrait être le résultat d'une capacité plus fondamentale à saisir l'idée que " rien " est vraiment " quelque chose ".

Auteur: Internet

Info: https://www.quantamagazine.org/, Yasemin Saplakoglu, 18 octobre 2024

[ viduité ] [ nada ] [ zilch ] [ oualou ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

protérozoïque

Des molécules fossilisées révèlent un monde perdu de vie ancienne

Une nouvelle analyse de sédiments vieux d’un milliard d’années comble une lacune dans les archives fossiles, révélant une dynastie de premiers eucaryotes qui pourraient avoir façonné l’histoire de la vie sur Terre.

Un arbre a quelque chose en commun avec les mauvaises herbes et les champignons qui poussent autour de ses racines, les écureuils qui grimpent sur son tronc, les oiseaux perchés sur ses branches et le photographe qui prend des photos de la scène. Ils ont tous un génome et une machinerie cellulaire soigneusement emballés dans des compartiments reliés par des membranes, un système organisationnel qui les place dans un groupe de formes de vie extrêmement performantes appelés eucaryotes.

Les débuts de l’histoire des eucaryotes fascinent depuis longtemps les scientifiques qui aspirent à comprendre quand la vie moderne a commencé et comment elle a évolué. Mais retracer les premiers eucaryotes à travers l’histoire de la Terre a été difficile. Des données fossiles limitées montrent que leur premier ancêtre est apparu il y a au moins 1,6 milliard d’années. Pourtant, d’autres preuves révélatrices de leur existence manquent. Les eucaryotes devraient produire et laisser derrière eux certaines molécules distinctives, mais les versions fossilisées de ces molécules n'apparaissent dans les archives rocheuses qu'il y a 800 millions d'années. Cet écart inexpliqué de 800 millions d'années dans l'histoire des premiers eucaryotes, période cruciale au cours de laquelle le dernier ancêtre commun de toute la vie complexe d'aujourd'hui est apparu, a enveloppé de mystère l'histoire des débuts de la vie.

"Il existe un énorme écart temporel entre les archives fossiles de ce que nous pensons être les premiers eucaryotes et les premiers biomarqueurs des eucaryotes", a déclaré Galen Halverson , professeur à l'Université McGill de Montréal.

Il existe de nombreuses explications possibles à cet écart paradoxal. Peut-être que les eucaryotes étaient trop rares à cette époque pour laisser derrière eux des preuves de fossiles moléculaires. Ou peut-être étaient-ils abondants, mais leurs fossiles moléculaires n’ont pas survécu aux dures conditions géologiques.

Une étude récente publiée dans Nature propose une explication alternative : les scientifiques ont peut-être recherché les mauvaises molécules fossilisées pendant tout ce temps. Lorsque les auteurs de l’étude ont recherché des versions plus primitives des produits chimiques recherchés par d’autres, ils les ont découverts en abondance – révélant ce qu’ils ont décrit comme " un monde perdu " d’eucaryotes qui vivaient il y a 800 millions à au moins 1,6 milliard d’années.

"Ces molécules ont toujours été là", a déclaré Jochen Brocks , géochimiste à l'Université nationale australienne de Canberra, qui a codirigé l'étude avec Benjamin Nettersheim, alors étudiant diplômé . "Nous ne pouvions pas les trouver parce que nous ne savions pas à quoi elles ressemblaient."

Les résultats apportent une nouvelle clarté à la dynamique de la vie eucaryote précoce. L'abondance de ces fossiles moléculaires suggère que les organismes primitifs ont prospéré dans les océans pendant des centaines de millions d'années avant que les ancêtres des eucaryotes modernes ne prennent le relais, semant des formes de vie qui évolueraient un jour vers les animaux, les plantes, les champignons et les protistes que nous voyons. aujourd'hui.

"C'est une hypothèse élégante qui semble réconcilier ces enregistrements très disparates", a déclaré Halverson, qui n'a pas participé à l'étude. " Cela donne un sens à tout."

Ces découvertes ont été une bonne nouvelle pour des paléontologues comme Phoebe Cohen , présidente de géosciences au Williams College dans le Massachusetts, qui a longtemps pensé qu'il manquait quelque chose dans le dossier des biomarqueurs. "Il existe une histoire riche et dynamique de la vie avant l'évolution des animaux, qui est plus difficile à comprendre car nous ne pouvons pas la voir", a déclaré Cohen. "Mais c'est extrêmement important car cela prépare le terrain pour le monde que nous avons aujourd'hui."

Le casse-tête des protostéroïdes

Lorsque les archives fossiles sont décevantes, les scientifiques disposent d’autres moyens pour estimer le moment où différentes espèces se sont dérivées les unes des autres dans l’arbre évolutif. Parmi ces outils figurent principalement les horloges moléculaires : des fragments d’ADN qui mutent à un rythme constant, permettant aux scientifiques d’estimer le passage du temps. Selon les horloges moléculaires, le dernier ancêtre commun des eucaryotes modernes, qui appartenait à un ensemble diversifié d’organismes appelé groupe couronne, est apparu pour la première fois il y a au moins 1,2 milliard d’années.

Mais l’histoire des eucaryotes ne commence pas là. D’autres eucaryotes primitifs, connus sous le nom de groupe souche, ont vécu des centaines de millions d’années avant l’évolution de notre premier ancêtre commun. Les chercheurs en savent peu sur eux, au-delà du fait qu’ils ont existé. La petite poignée d’anciens fossiles d’eucaryotes découverts sont trop ambigus pour être identifiés comme une tige ou une couronne.

En l’absence de fossiles corporels convaincants, les chercheurs recherchent des fossiles moléculaires. Les fossiles moléculaires, qui se conservent séparément des fossiles corporels, peuvent être difficiles à cerner pour les scientifiques. Ils doivent d’abord identifier quelles molécules auraient pu être produites uniquement par les organismes qu’ils souhaitent étudier. Ensuite, ils doivent composer avec le fait que toutes ces molécules ne se fossilisent pas bien.

La matière organique se désintègre à des rythmes différents et certaines parties des eucaryotes se conservent mieux que d’autres dans la roche. Les tissus se dissolvent en premier. L’ADN peut rester plus longtemps, mais pas trop longtemps : l’ADN le plus ancien jamais découvert a environ 2 millions d’années. Les molécules de graisse, cependant, peuvent potentiellement survivre pendant des milliards d’années.

Les eucaryotes créent de grandes quantités de molécules de graisse appelées stérols, un type de stéroïde qui constitue un composant essentiel des membranes cellulaires. Étant donné que la présence d’une membrane cellulaire est révélatrice des eucaryotes et que les molécules de graisse ont tendance à persister dans la roche, les stérols sont devenus le fossile moléculaire de référence pour ce groupe.

Les eucaryotes modernes fonctionnent avec trois grandes familles de stérols : le cholestérol chez les animaux, les phytostérols chez les plantes et l'ergostérol chez les champignons et certains protistes. Leur synthèse commence par une molécule linéaire, que la cellule façonne en quatre anneaux afin que la forme résultante s'intègre parfaitement dans une membrane, a déclaré Brocks. Ce processus comporte de nombreuses étapes : il faut huit étapes enzymatiques supplémentaires aux cellules animales pour fabriquer du cholestérol, tandis que les cellules végétales nécessitent 11 étapes enzymatiques supplémentaires pour fabriquer un phytostérol.

En route pour fabriquer son stérol avancé, une cellule crée une série de molécules plus simples à chaque étape du processus. Lorsqu’ils sont branchés sur une membrane artificielle, même ces stérols intermédiaires offrent la perméabilité et la rigidité dont une cellule a besoin pour fonctionner comme elle le devrait. Le biochimiste Konrad Bloch, qui a reçu le prix Nobel en 1964 en partie pour avoir découvert les étapes cellulaires de fabrication du cholestérol , "en a été perplexe", a déclaré Brocks. Pourquoi une cellule déploierait-elle des efforts supplémentaires pour fabriquer un stérol plus complexe alors qu’une molécule plus simple ferait le travail ?

En 1994, Bloch a écrit un livre dans lequel il prédisait que chacun de ces stérols intermédiaires avait été autrefois le produit final utilisé dans la membrane d'une cellule eucaryote ancestrale. Chaque étape supplémentaire a peut-être nécessité plus d'énergie de la cellule, mais la molécule résultante constituait une légère amélioration par rapport à la précédente – une amélioration suffisante pour surpasser le précurseur et s'imposer dans l'histoire de l'évolution.

Si cela était vrai, cela expliquerait pourquoi personne n’avait pu trouver de fossiles moléculaires de stérols avant l’expansion rapide des eucaryotes modernes, il y a environ 800 millions d’années. Les chercheurs recherchaient des cholestérols et d’autres structures modernes dans les archives rocheuses. Ils ne se rendaient pas compte que les anciennes voies biochimiques étaient plus courtes et que les organismes des groupes souches ne produisaient pas de stérols modernes : ils  faisaient des protostérols.

Mouture de café moléculaire

En 2005, environ cinq ans après la mort de Bloch, Brocks et ses collègues ont rapporté dans Nature les premiers indices de l'existence de telles molécules intermédiaires. Dans d'anciens sédiments, ils avaient trouvé des stéroïdes de structure inhabituelle qu'ils ne reconnaissaient pas. Mais à l’époque, Brocks ne pensait pas qu’un eucaryote aurait pu les créer. " À l’époque, j’étais assez convaincu qu’ils étaient bactériens ", a-t-il déclaré. "Personne ne pensait du tout à la possibilité d'avoir des eucaryotes du groupe souche."

Il a continué à échantillonner des roches anciennes et à rechercher ces curieuses molécules. Environ une décennie après le début de leurs travaux, Nettersheim et lui ont réalisé que de nombreuses structures moléculaires dans les échantillons de roche semblaient " primitives " et ne ressemblaient pas à celles que fabriquent généralement les bactéries, a déclaré Brocks. Serait-ce les stérols intermédiaires de Bloch ?

(Photo : De rares fossiles microscopiques de la vie ancienne fournissent des horodatages sur l’évolution des eucaryotes.  Satka favosa  (à gauche) et  Valeria lophostriata  datent d'il y a 1,6 milliard d'années. On ne sait pas si les organismes, probablement des protistes, appartiennent au groupe tige ou couronne. )

Il leur fallait davantage de preuves. Au cours de la décennie qui a suivi, Brocks et Nettersheim ont contacté des sociétés pétrolières et minières pour demander des échantillons de tout sédiment ancien qu'elles avaient accidentellement découvert lors d'expéditions de forage.

"La plupart des gens auraient trouvé deux exemples et publiés", a déclaré Andrew Knoll , professeur d'histoire naturelle à l'Université Harvard qui n'a pas participé à l'étude. (Il était le conseiller postdoctoral de Brocks il y a des années.) " Jochen a passé la majeure partie de la décennie à étudier les roches du Protérozoïque du monde entier. "

Pendant ce temps, les chercheurs ont créé un modèle de recherche pour identifier les molécules présentes dans les sédiments. Ils ont converti les molécules intermédiaires modernes fabriquées lors de la synthèse des stérols en équivalents géologiques plausibles des stéroïdes. (Le cholestérol, par exemple, se fossilise sous forme de cholestane.) " Si vous ne savez pas à quoi ressemble la molécule, vous ne la verrez pas 2, a déclaré Brocks.

En laboratoire, ils ont extrait des molécules fossiles des échantillons de sédiments en utilisant un processus qui " ressemble un peu à la préparation du café ", a déclaré Nettersheim. Après avoir broyé les roches, ils ont ajouté des solvants organiques pour en extraire les molécules – tout comme l’eau chaude est utilisée pour extraire le café des grains torréfiés et moulus.

(Photo :Benjamin Nettersheim, géochimiste à l'Université de Brême, examine les cartes moléculaires d'anciens sédiments rocheux à la recherche de biomarqueurs de la vie ancienne.)

Pour analyser leurs échantillons et les comparer à leurs références, ils ont utilisé la spectrométrie de masse, qui détermine le poids des molécules, et la chromatographie, qui révèle leur composition atomique.

Le processus est ardu. "Vous analysez des centaines de roches et ne trouvez rien", a déclaré Brocks. Lorsque l’on trouve quelque chose, il s’agit souvent d’une contamination récente. Mais plus ils analysaient d’échantillons, plus ils trouvaient de fossiles.

Certains échantillons étaient remplis à ras bord de protostéroïdes. Ils ont découvert ces molécules dans des roches datant d'il y a 800 millions à 1,6 milliard d'années. Il semblait que non seulement les eucaryotes anciens étaient présents depuis environ 800 millions d’années avant le décollage des eucaryotes modernes, mais qu’ils étaient également abondants.

Les chercheurs ont même pu reconnaître le processus évolutif des eucaryotes à mesure que leurs stéroïdes devenaient plus complexes. Par exemple, dans des roches vieilles de 1,3 milliard d’années, ils ont découvert une molécule intermédiaire plus avancée que les protostéroïdes vieux de 1,6 milliard d’années, mais pas aussi avancée que les stéroïdes modernes.

"C'était une façon très intelligente de traiter les archives manquantes de fossiles moléculaires", a déclaré David Gold , géobiologiste à l'Université de Californie à Davis, qui n'a pas participé à l'étude. Leur découverte a immédiatement comblé une lacune de 800 millions d’années dans l’histoire de la naissance de la vie moderne.

Un monde perdu

Les découvertes moléculaires, combinées aux données génétiques et fossiles, révèlent l'image la plus claire à ce jour de la dynamique eucaryote précoce d'il y a environ 1 milliard d'années, au cours de la mystérieuse ère médiane du Protérozoïque, ont déclaré les experts. D'après les preuves de Brocks et Nettersheim, les eucaryotes des groupes tige et couronne (stem and crown)  ont probablement vécu ensemble pendant des centaines de millions d'années et se sont probablement fait concurrence pendant une période que les géologues appellent le milliard ennuyeux en raison de sa lente évolution biologique.

L'absence de stéroïdes plus modernes à cette époque suggère que le groupe couronne n'a pas immédiatement pris le dessus. Au contraire, les organismes liés à la membrane ont commencé petit à mesure qu'ils trouvaient des niches dans l'ancien écosystème, a déclaré Gold. " Il faut beaucoup de temps pour que les [eucaryotes] deviennent écologiquement dominants ", a-t-il déclaré.

(Photo : Ces anciens microfossiles partagent un ancêtre avec tous les eucaryotes vivant aujourd’hui. Vieille d’un milliard d’années, l’algue benthique  Proterocladus antiquus  (au centre) est le plus ancien fossile de couronne connu. Il y a 750 millions d'années, les eucaryotes du groupe couronne tels que l'amibozoaire Bonniea dacruchares  (à gauche) et le rhizarien  Melicerion poikilon  (à droite) étaient courants.)

De gauche à droite : Susannah Porter ; Avec l'aimable autorisation de Virginia Tech ; Susannah Porter

Au début, le groupe souche avait peut-être un avantage. Les niveaux d’oxygène dans l’atmosphère étaient nettement inférieurs à ce qu’ils sont aujourd’hui. Étant donné que la construction de protostérols nécessite moins d’oxygène et d’énergie que les stérols modernes, les eucaryotes du groupe souche étaient probablement plus efficaces et plus abondants.

Leur influence déclina lorsque le monde traversa une transition critique connue sous le nom de période tonienne. Il y a entre 1 milliard et 720 millions d’années, l’oxygène, les nutriments et autres matières premières cellulaires ont augmenté dans les océans. Des fossiles d'eucaryotes modernes, comme des algues et des champignons, commencent à apparaître dans les archives rocheuses, et les stéroïdes modernes commencent à dépasser en nombre les protostéroïdes dans les biomarqueurs fossilisés – des preuves qui suggèrent que les eucaryotes du groupe couronne avaient commencé à prospérer, à augmenter en nombre et à se diversifier.

Pourquoi les stérols deviendraient-ils plus compliqués avec le temps ? Les auteurs suggèrent que les stérols les plus complexes confèrent à leurs propriétaires un certain avantage évolutif, peut-être lié à la dynamique des membranes cellulaires des créatures. Quelle que soit la raison, le changement de stérol était significatif sur le plan évolutif. La composition des stérols modernes a probablement donné aux eucaryotes du groupe couronne un avantage par rapport au groupe souche. Finalement, " ce monde perdu d’anciens eucaryotes a été remplacé par les eucaryotes modernes ", a déclaré Brocks.

Une ride bactérienne

L’histoire évolutive des chercheurs sur les stérols est convaincante, mais elle n’est pas solide comme le roc.

"Je ne serais pas surpris" si leur interprétation est correcte, a déclaré Gold. Cependant, il existe une autre possibilité. Bien que les scientifiques aient tendance à associer les stérols aux eucaryotes, certaines bactéries peuvent également les fabriquer. Les fossiles moléculaires de l’étude auraient-ils pu être laissés par des bactéries ?Gordon Love , géochimiste à l'Université de Californie à Riverside, pense que le scénario bactérien est plus logique. "Ces protostéroïdes se retrouvent dans les roches de tous âges", a-t-il déclaré. "Ils ne disparaissent pas tout simplement, ce qui signifie que quelque chose d'autre que les eucaryotes souches est capable de les fabriquer." Il a fait valoir que les bactéries, qui dominaient la mer à cette époque, auraient pu facilement produire des protostéroïdes.

Les auteurs ne peuvent pas exclure cette possibilité. En fait, ils soupçonnent que certaines de leurs molécules fossiles ont été fabriquées par des bactéries. Mais la possibilité que leur vaste collection de protostéroïdes fossilisés, s'étendant sur des centaines de millions d'années, ait été entièrement constituée de bactéries semble peu probable, a déclaré Brocks.


" Si vous regardez l'écologie de ces bactéries aujourd'hui et leur abondance, il n'y a tout simplement aucune raison de croire qu'elles pourraient devenir si abondantes qu'elles auraient pu produire toutes ces molécules", a-t-il déclaré. Dans le monde moderne, les bactéries produisent des protostérols uniquement dans des environnements de niche tels que les sources hydrothermales ou les suintements de méthane.

Cohen, paléontologue du Williams College, est d'accord avec Brocks. L’interprétation selon laquelle ces molécules ont été faites par des eucaryotes " est cohérente avec toutes les autres sources de preuves ", a-t-elle déclaré – des archives fossiles aux analyses de l’horloge moléculaire. " Je ne suis pas aussi inquiète 2 quant à cette possibilité, a-t-elle déclaré.

L’une ou l’autre interprétation présente plus de questions que de réponses. "Les deux histoires seraient absolument folles et bizarres", a déclaré Brocks. Ce sont " des visions différentes de notre monde ", a-t-il ajouté, et il serait bien de savoir laquelle est la vraie.

Faute de machine à remonter le temps, les chercheurs recherchent davantage de preuves pour améliorer leur certitude dans un sens ou dans l’autre. Mais il n’existe qu’un nombre limité de façons de reconstruire ou de percevoir la vie ancienne – et même les meilleures suppositions des scientifiques ne peuvent jamais combler complètement cette lacune. "La plupart des formes de vie n'ont laissé aucune trace sur Terre", a déclaré Nettersheim. " Le bilan que nous voyons est limité. … Pendant la majeure partie de l’histoire de la Terre, la vie aurait pu être très différente. "

Auteur: Internet

Info: Quanta Magazine, Yasemin Saplakoglu, 23 octobre 2023

[ unicité ] [ microbiote ] [ paliers évolutifs ] [ précambrien ] [ protérozoïque ] [ radiations adaptatives ] [ pressions de sélection ] [ équilibres ponctués ]

 

Commentaires: 0

Ajouté à la BD par miguel

régulation post-transcriptionnelle

Les cellules de l'arbre de vie échangent des " messages texte " à l'aide de l'ARN

Connu depuis longtemps comme un messager au sein des cellules, l’ARN est de plus en plus considéré comme le système de communication moléculaire de la vie, même entre des organismes largement séparés par l’évolution.

( photo) Les cellules de l’arbre de la vie peuvent échanger des messages de courte durée codés par l’ARN – des missives qui ressemblent à un texte rapide plutôt qu’à une note formelle sur papier à en-tête.

Pour une molécule d’ARN, le monde est un endroit dangereux. Contrairement à l’ADN, qui peut persister pendant des millions d’années sous sa forme à double brin remarquablement stable, l’ARN n’est pas conçu pour durer, pas même dans la cellule qui l’a créé. À moins d’être attaché de manière protectrice à une molécule plus grosse, l’ARN peut se dégrader en quelques minutes, voire moins. Et à l’extérieur d’une cellule ? Oubliez ça. Les enzymes voraces qui détruisent l’ARN sont partout, sécrétées par toutes les formes de vie pour se défendre contre les virus qui écrivent leur identité génétique dans un code ARN.

L’ARN peut survivre indemne à l’extérieur d’une cellule d’une manière ou d’une autre : dans une minuscule bulle protectrice. Depuis des décennies, les chercheurs ont remarqué que les cellules libèrent ces bulles de membrane cellulaire, appelées vésicules extracellulaires (VE), remplies d’ARN dégradé, de protéines et d’autres molécules. Mais ces sacs étaient considérés comme de simples sacs poubelles qui évacuent les déchets moléculaires décomposés d’une cellule lors d’un nettoyage de routine.

Puis, au début des années 2000, des expériences menées par Hadi Valadi, biologiste moléculaire à l'université de Göteborg, a révélé que l'ARN à l'intérieur de certaines EV ne ressemblait pas à des déchets. Le cocktail de séquences d'ARN était considérablement différent de celui trouvé à l'intérieur de la cellule, et ces séquences étaient intactes et fonctionnelles. Lorsque l’équipe de Valadi a exposé des cellules humaines à des EV provenant de cellules de souris, ils ont été choqués d’observer que les cellules humaines absorbaient les messages d’ARN et les " lisaient " pour créer des protéines fonctionnelles qu’elles n’auraient pas pu fabriquer autrement.

Valadi a conclu que les cellules empaquetaient des brins d’ARN dans des vésicules spécifiquement pour communiquer entre elles. " Si je suis sorti et que je vois qu’il pleut, dit-il, je peux vous dire : si vous sortez, prenez un parapluie avec vous. " De la même manière, a-t-il suggéré, une cellule pourrait avertir ses voisines d’une exposition à un agent pathogène ou à un produit chimique nocif avant qu’elles ne soient elles-mêmes confrontées au danger.

Depuis, de nombreuses preuves ont été avancées pour étayer cette théorie, grâce aux progrès de la technologie de séquençage qui permettent aux scientifiques de détecter et de décoder des segments d’ARN de plus en plus petits. Depuis que Valadi a publié ses expériences, d’autres chercheurs ont également observé des EV remplis de combinaisons d’ARN complexes. Ces séquences d’ARN peuvent contenir des informations détaillées sur la cellule qui les a créées et déclencher des effets spécifiques dans les cellules réceptrices. Ces résultats ont conduit certains chercheurs à suggérer que l’ARN pourrait être une lingua franca moléculaire qui transcende les frontières taxonomiques traditionnelles et peut donc coder des messages qui restent intelligibles dans tout l’arbre de la vie.

En 2024, de nouvelles études ont révélé des couches supplémentaires de cette histoire, montrant, par exemple, qu'avec les bactéries et les cellules eucaryotes, les archées échangent également. L'ARN lié aux vésicules confirme que le phénomène est universel dans les trois domaines de la vie. Une autre étude a élargi notre compréhension de la communication cellulaire entre les règnes en montrant que les plantes et les champignons infectieux peuvent utiliser des paquets d'ARN dévastateurs comme une forme de guerre de l’information coévolutionnaire : une cellule ennemie lit l’ARN et construit des protéines autodestructrices avec sa propre machinerie moléculaire.

" J'ai été impressionnée par ce que l'ARN peut faire ", a déclaré Amy Buck, biologiste spécialiste de l’ARN à l’Université d’Édimbourg, qui n’a pas participé à la nouvelle recherche. Pour elle, comprendre l’ARN comme moyen de communication " va au-delà de l’appréciation de la sophistication et de la nature dynamique de l’ARN au sein de la cellule ". La transmission d’informations au-delà de la cellule pourrait être l’un de ses rôles innés.

Livraison dans des délais serrés

La microbiologiste Susanne Erdmann étudie les infections virales chez Haloferax volcanii , un organisme unicellulaire qui prospère dans des environnements incroyablement salés comme la mer Morte ou le Grand Lac Salé. On sait que les bactéries unicellulaires échangent largement des VE, mais H. volcanii n'est pas une bactérie - c'est un archéen , un membre de la troisième branche évolutive de la vie, qui présente des cellules construites différemment des bactéries ou des eucaryotes comme nous.

Comme les EV ont la même taille et la même densité que les particules virales étudiées par l'équipe d'Erdmann à l'Institut Max Planck de microbiologie marine en Allemagne, ils " apparaissent toujours lorsque vous isolez et purifiez des virus ", a-t-elle déclaré. Finalement, son groupe est devenu curieux et a décidé de jeter un œil à ce qu'il y avait à l'intérieur.

" Je m’attendais à de l’ADN ", se souvient Erdmann, après avoir appris que d’autres espèces d’archées intégraient de l’ADN dans des EV. Au lieu de cela, son laboratoire a découvert tout un assortiment d’ARN – en particulier des ARN non codants, de mystérieux fragments de nucléotides sans fonction connue dans les archées. Ces séquences d’ARN non codantes étaient beaucoup plus abondantes dans les EV que dans les cellules archéennes elles-mêmes. " C’était la première fois que nous trouvions de l’ARN dans des EV chez des archées ", a-t-elle déclaré.

Erdmann s'est demandé si les vésicules archaïques avaient une utilité. Une cellule peut produire spontanément des vésicules lorsque sa membrane se resserre sur elle-même pour former une petite bulle qui se détache ensuite. Cependant, d'autres mécanismes impliquent des processus plus actifs et délibérés, similaires à ceux qui déplacent les molécules à l'intérieur de la cellule. Le groupe d'Erdmann a identifié une protéine archaïque essentielle à la production d'EV contenant de l'ARN.


Cela lui a permis de penser que l’ARN ne se retrouvait pas dans les vésicules par hasard et que le processus n’était pas simplement une question d’élimination des déchets. " Il est très probable que les archées les utilisent pour communiquer entre cellules ", a-t-elle déclaré. " Sinon, pourquoi investir autant d’énergie à éliminer de l’ARN aléatoire dans des vésicules ? "

Erdmann ne sait pas exactement pourquoi les microbes Haloferax remplissent leurs vésicules d'ARN alors que d'autres espèces d'archées préfèrent l'ADN. Mais elle soupçonne que cela est lié à la sensibilité temporelle du message moléculaire. " L'ARN est un langage différent de l'ADN ", a-t-elle déclaré, et il remplit une fonction fondamentalement différente à l'intérieur comme à l'extérieur des cellules. 

L'acide ribonucleique est mieux connu comme molécule messagère qui copie des recettes de protéines à partir de l'ADN. Cependant sa structure chimique lui permet de se plier en des formes complexes qui jouent des rôles variés dans la cellule.

1. Support de l'information génétique (ARN messager, ARNm)   L'ARNm est une copie temporaire d'un gène de l'ADN qui est utilisée pour produire des protéines. Il sert de pont entre l'ADN (qui reste dans le noyau) et les ribosomes, les machines de production des protéines dans le cytoplasme.

2. Rôle dans la traduction des protéines (ARN de transfert, ARNt et ARN ribosomal, ARNr)   ARNt : L'ARN de transfert joue un rôle crucial dans la traduction de l'ARNm en protéines. Il transporte les acides aminés spécifiques vers le ribosome en fonction du codon présent sur l'ARNm.   ARNr : L'ARN ribosomal constitue une partie essentielle des ribosomes, les structures où la synthèse des protéines a lieu. Il catalyse les réactions qui relient les acides aminés entre eux.

3. Régulation de l’expression génétique (microARN, ARN interférents, etc.) Les microARN (miARN) et les petits ARN interférents (siARN) sont des régulateurs de l'expression génétique. Ils agissent en ciblant des ARNm spécifiques pour inhiber leur traduction ou favoriser leur dégradation, jouant ainsi un rôle dans le contrôle de la stabilité et de la quantité des protéines produites dans la cellule.

4. ARN catalytiques (ribozymes) Contrairement à la croyance traditionnelle que seuls les protéines peuvent catalyser des réactions biochimiques, certains ARN, appelés ribozymes, ont des capacités catalytiques. Ils peuvent catalyser des réactions chimiques, telles que la liaison ou la coupure de liaisons phosphodiester dans l'ARN lui-même, jouant ainsi un rôle dans des processus comme l'épissage.

5. Épissage alternatif et régulation post-transcriptionnelle L'ARN pré-messager subit souvent un processus appelé épissage, où certaines parties (introns) sont éliminées et les parties restantes (exons) sont réunies pour former l'ARNm final. L'épissage alternatif permet à un même gène de produire plusieurs variantes d'ARNm, ce qui conduit à la production de protéines différentes à partir du même gène.

6. ARNs non codants (ARNnc) En dehors de leur rôle dans la synthèse des protéines, de nombreux ARN ne codent pas pour des protéines, mais assurent des fonctions régulatrices et structurales dans la cellule. Par exemple, les longs ARN non codants (lncRNA) sont impliqués dans la régulation de l'expression génique, la structure chromatinienne et d'autres processus biologiques complexes.

7. ARN circulaires (circRNA) Les ARN circulaires sont une classe d'ARNs non codants qui forment une boucle continue. Ils jouent un rôle dans la régulation génique, notamment en séquestrant les miARN, en stabilisant d'autres ARN ou en servant de matrice pour la traduction non conventionnelle.

8. Rôle dans la défense immunitaire (ARN viraux) - Certains virus, comme les virus à ARN (par exemple, le virus de la grippe ou le SARS-CoV-2), utilisent l'ARN comme matériel génétique. Les cellules hôtes utilisent des mécanismes d'interférence à ARN pour détecter et dégrader l'ARN viral, soulignant le rôle de l'ARN dans l'immunité innée.

En résumé, l'ARN est une molécule extraordinairement versatile qui remplit des rôles multiples dans les cellules, allant de la traduction de l'information génétique à la régulation et la catalyse. Cette diversité fonctionnelle fait de l'ARN un acteur clé dans presque tous les aspects de la biologie moléculaire.

L'ADN d'un organisme doit être stable et relativement immuable au cours de sa vie. Il peut subir des mutations spontanées ou même des gènes supplémentaires, mais il faut des générations de sélection naturelle pour que des changements temporaires dans les séquences d'ADN s'installent dans une population. L'ARN, en revanche, est en constante évolution, réagissant aux conditions dynamiques à l'intérieur et à l'extérieur de la cellule. Les signaux d'ARN ne durent pas longtemps, mais ce n'est pas nécessaire, car ils peuvent très vite devenir inutiles.

En tant que message, l’ARN est transitoire. Il s’agit d’une caractéristique, pas d’un bug : il ne peut avoir que des effets à court terme sur d’autres cellules avant de se dégrader. Et comme l’ARN à l’intérieur d’une cellule change constamment, " le message que vous pouvez envoyer à votre cellule voisine " peut également changer très rapidement, a déclaré Erdmann. En ce sens, il s’apparente davantage à un message texte ou à un e-mail rapide destiné à communiquer des informations opportunes qu’à des runes gravées dans la pierre ou à un mémo officiel sur papier à en-tête.

Bien qu'il semble que les archées voisines absorbent et internalisent les EV provenant de leurs cellules voisines, on ne sait pas encore si ces messages les affectent. Erdmann se demande également ce qui arrive à ces vésicules dans la nature, où de nombreux organismes différents pourraient être à portée d'oreille des messages qu'elles transportent.

" Combien d’autres organismes dans le même environnement pourraient capter ce message ? ", s’est-elle interrogée. " Et le mangent-ils simplement et utilisent-ils l’ARN comme nourriture, ou détectent-ils réellement le signal ? "

Bien que cela puisse encore être un mystère pour Haloferax , d’autres chercheurs ont démontré que des cellules à travers des espèces, des règnes et même des domaines de la vie peuvent envoyer et recevoir des missives moléculaires remarquablement pointues.

Dialogue biologique croisé

Bien que l'ARN ait une durée de vie courte, il s'est révélé être une merveille moléculaire capable de changer de forme. Il est surtout connu pour aider les cellules à produire de nouvelles protéines en copiant les instructions de l'ADN (sous forme d'ARN messager, ou ARNm) et en les transmettant au ribosome pour construction. Cependant, son squelette flexible permet à l'ARN de se replier dans un certain nombre de formes qui peuvent avoir un impact sur la biologie cellulaire. Il peut agir comme une enzyme pour accélérer les réactions chimiques au sein des cellules. Il peut se lier à l'ADN pour activer ou désactiver l'expression des gènes. Et des brins d'ARN concurrents peuvent emmêler les instructions de l'ARNm dans un processus appelé interférence ARN qui empêche la production de nouvelles protéines.

Les chercheurs se sont de plus en plus intéressés aux façons dont l'ARN modifie l'activité cellulaire. Ils ont donc étudié des stratégies pour utiliser cette petite molécule mutable comme outil expérimental, comme traitement contre les maladies et même comme base du vaccin à ARNm contre la Covid-19 . Toutes ces applications nécessitent le transfert d'ARN dans les cellules, mais il semble que l'évolution nous ait devancés : les VE transmettent l'ARN même aux cellules qui ne souhaitent pas recevoir le message.

Il y a environ 10 ans, la généticienne moléculaire Hailing Jin et son laboratoire à l'Université de Californie, Riverside a découvert que deux organismes de règnes différents - une plante et un champignon - échangent de l'ARN comme une forme de guerre. Jin étudiait Botrytis cinerea , une moisissure grise duveteuse qui ravage des cultures telles que les fraises et les tomates, lorsqu'elle a vu qu'elle échangeait de l'ARN avec la plante Arabidopsis (arabette) pendant l'infection. Le champignon Botrytis a délivré de l'ARN qui interférait avec la capacité de la plante à combattre l'infection. Des travaux ultérieurs ont montré que les cellules végétales pouvaient répondre avec leur propre volée d'ARN qui a endommagé le champignon.

Dans cette " course aux armements coévolutionnaires ", comme l’a décrite Jin, les deux organismes ont utilisé des EV comme vecteurs de ces messages ARN délicats mais dommageables. Auparavant, les scientifiques intéressés par la dynamique hôte-pathogène se concentraient principalement sur les protéines et les métabolites, a expliqué Jin, car ces molécules peuvent être plus faciles à étudier. Mais il est logique que les organismes disposent de plusieurs moyens de résister aux défis environnementaux, a-t-elle ajouté, notamment en utilisant l’ARN pour interagir avec des parents évolutifs éloignés.

Au cours de la dernière décennie, de plus en plus de scientifiques ont découvert des exemples d'échange d'ARN entre règnes comme stratégie offensive lors d'une infection. Les vers parasites vivant dans les intestins de souris libèrent de l'ARN dans les EV qui désactivent les protéines immunitaires défensives de l'hôte. Les bactéries peuvent envoyer des messages aux cellules humaines qui atténuent les réponses immunitaires antibactériennes. Le champignon Candida albicans a même appris à détourner un message des véhicules électriques humains à son propre avantage : il utilise l'ARN humain pour favoriser sa propre croissance.

La correspondance entre les règnes n'est pas toujours un courrier haineux. Ces interactions ont également été observées dans des relations amicales (ou neutres), a déclaré Jin. Par exemple, les bactéries qui vivent en symbiose dans les racines des légumineuses envoient des messages ARN pour favoriser la nodulation — la croissance de petites bosses où les bactéries vivent et fixent l’azote pour la plante.

Comment l’ARN d’une branche de l’arbre de la vie peut-il être compris par les organismes d’une autre branche ? C’est un langage commun, explique Buck. L’ARN existe probablement depuis le tout début de la vie. Alors que les organismes ont évolué et se sont diversifiés, leur mécanisme de lecture de l’ARN est resté en grande partie le même. " L’ARN a déjà une signification dans chaque cellule ", explique Buck. " Et c’est un code assez simple. "

C'est tellement simple qu'une cellule réceptrice peut ouvrir et interpréter le message avant de se rendre compte qu'il pourrait être dangereux, de la même manière que nous pourrions cliquer instinctivement sur un lien dans un e-mail avant de remarquer l'adresse suspecte de l'expéditeur. En effet, plus tôt cette année, le laboratoire de Jin a montré que les cellules végétales d'Arabidopsis peuvent envoyer des instructions d'ARN apparemment inoffensives qui ont un impact surprenant sur un champignon ennemi. Au cours d'expériences, l'équipe de Jin a vu le champignon Botrytis lire l'ARNm envahissant ainsi que ses propres molécules et créer sans le vouloir des protéines qui endommageaient ses capacités infectieuses.

C'est presque comme si les plantes créaient un " pseudo-virus ", a expliqué Jin : de petits paquets d'ARN qui infectent une cellule et utilisent ensuite la machinerie de cette cellule pour produire des protéines.

" C’est un mécanisme assez puissant ", a-t-elle déclaré. " Un ARNm peut être traduit en de très nombreuses copies de protéines. […] C’est beaucoup plus efficace que le transport de la protéine elle-même. "

À sa connaissance, Jin a déclaré que c'était la première fois qu'elle observait des preuves d'organismes de différents règnes échangeant des messages d'ARNm et les lisant dans des protéines. Mais elle pense que ce phénomène sera probablement observé dans de nombreux autres systèmes, une fois que les gens commenceront à le rechercher.

Le domaine est jeune, a déclaré Buck, ce qui est passionnant. Il reste encore beaucoup à apprendre : par exemple, si les autres molécules contenues dans les VE aident à transmettre le message de l'ARN. " C'est un défi amusant de démêler tout cela ", a-t-elle déclaré. " Nous devrions être inspirés par la puissance et le dynamisme incroyables de l'ARN, et par la façon dont nous découvrons encore toutes les façons dont il façonne et régule la vie. " 



 

Auteur: Internet

Info: https://www.quantamagazine.org/, Annie Melchor, 16 sept 2024

[ . ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

méta-moteur

Le comportement de cet animal est programmé mécaniquement.

Des interactions biomécaniques, plutôt que des neurones, contrôlent les mouvements de l'un des animaux les plus simples. Cette découverte offre un aperçu de la façon dont le comportement animal fonctionnait avant l'apparition des neurones.

L'animal extrêmement simple Trichoplax adhaerens se déplace et réagit à son environnement avec agilité et avec un but apparent, mais il n'a pas de neurones ou de muscles pour coordonner ses mouvements. De nouveaux travaux montrent que les interactions biomécaniques entre les cils de l'animal suffisent à en expliquer ses mouvements.

Le biophysicien Manu Prakash se souvient très bien du moment où, tard dans la nuit, dans le laboratoire d'un collègue, il y a une douzaine d'années, il a regardé dans un microscope et a rencontré sa nouvelle obsession. L'animal sous les lentilles n'était pas très beau à voir, ressemblant plus à une amibe qu'à autre chose : une tache multicellulaire aplatie, de 20 microns d'épaisseur et de quelques millimètres de diamètre, sans tête ni queue. Elle se déplaçait grâce à des milliers de cils qui recouvraient sa face inférieure pour former la "plaque velue collante" qui lui a inspiré son nom latin, Trichoplax adhaerens.

Cette étrange créature marine, classée dans la catégorie des placozoaires, dispose pratiquement d'une branche entière de l'arbre de l'évolution de la vie pour elle-même, ainsi que du plus petit génome connu du règne animal. Mais ce qui a le plus intrigué Prakash, c'est la grâce, l'agilité et l'efficacité bien orchestrées avec lesquelles les milliers ou les millions de cellules du Trichoplax se déplacent.

Après tout, une telle coordination nécessite habituellement des neurones et des muscles - et le Trichoplax n'en a pas.

Prakash s'est ensuite associé à Matthew Storm Bull, alors étudiant diplômé de l'université de Stanford, pour faire de cet étrange organisme la vedette d'un projet ambitieux visant à comprendre comment les systèmes neuromusculaires ont pu évoluer et comment les premières créatures multicellulaires ont réussi à se déplacer, à trouver de la nourriture et à se reproduire avant l'existence des neurones.

"J'appelle souvent ce projet, en plaisantant, la neuroscience sans les neurones", a déclaré M. Prakash.

Dans un trio de prétirés totalisant plus de 100 pages - publiés simultanément sur le serveur arxiv.org l'année dernière - lui et Bull ont montré que le comportement de Trichoplax pouvait être décrit entièrement dans le langage de la physique et des systèmes dynamiques. Les interactions mécaniques qui commencent au niveau d'un seul cilium, puis se multiplient sur des millions de cellules et s'étendent à des niveaux supérieurs de structure, expliquent entièrement la locomotion coordonnée de l'animal tout entier. L'organisme ne "choisit" pas ce qu'il doit faire. Au contraire, la horde de cils individuels se déplace simplement - et l'animal dans son ensemble se comporte comme s'il était dirigé par un système nerveux. Les chercheurs ont même montré que la dynamique des cils présente des propriétés qui sont généralement considérées comme des signes distinctifs des neurones.

Ces travaux démontrent non seulement comment de simples interactions mécaniques peuvent générer une incroyable complexité, mais ils racontent également une histoire fascinante sur ce qui aurait pu précéder l'évolution du système nerveux.

"C'est un tour de force de la biophysique", a déclaré Orit Peleg, de l'université du Colorado à Boulder, qui n'a pas participé aux études. Ces découvertes ont déjà commencé à inspirer la conception de machines mécaniques et de robots, et peut-être même une nouvelle façon de penser au rôle des systèmes nerveux dans le comportement animal. 

La frontière entre le simple et le complexe

Les cerveaux sont surestimés. "Un cerveau est quelque chose qui ne fonctionne que dans le contexte très spécifique de son corps", a déclaré Bull. Dans les domaines connus sous le nom de "robotique douce" et de "matière active", la recherche a démontré que la bonne dynamique mécanique peut suffire à accomplir des tâches complexes sans contrôle centralisé. En fait, les cellules seules sont capables de comportements remarquables, et elles peuvent s'assembler en systèmes collectifs (comme les moisissures ou les xénobots) qui peuvent accomplir encore plus, le tout sans l'aide de neurones ou de muscles.

Mais est-ce possible à l'échelle d'un animal multicellulaire entier ?

Le Trichoplax fut un cas d'étude parfait : assez simple pour être étudié dans les moindres détails, mais aussi assez compliqué pour offrir quelque chose de nouveau aux chercheurs. En l'observant, "vous regardez simplement une danse", a déclaré Prakash. "Elle est d'une incroyable complexité". Elle tourne et se déplace sur des surfaces. Elle s'accroche à des plaques d'algues pour les piéger et les consommer comme nourriture. Elle se reproduit asexuellement en se divisant en deux.

"Un organisme comme celui-ci se situe dans un régime intermédiaire entre quelque chose de réellement complexe, comme un vertébré, et quelque chose qui commence à devenir complexe, comme les eucaryotes unicellulaires", explique Kirsty Wan, chercheur à l'université d'Exeter en Angleterre, qui étudie la locomotion ciliaire.

Ce terrain intermédiaire entre les cellules uniques et les animaux dotés de muscles et de systèmes nerveux semblait être l'endroit idéal pour que Prakash et Bull posent leurs questions. "Pour moi, un organisme est une idée", a déclaré Prakash, un terrain de jeu pour tester des hypothèses et un berceau de connaissances potentielles.

Prakash a d'abord construit de nouveaux microscopes permettant d'examiner le Trichoplax par en dessous et sur le côté, et a trouvé comment suivre le mouvement à grande vitesse de ses cils. (Ce n'était pas un terrain entièrement nouveau pour lui, puisqu'il était déjà célèbre pour ses travaux sur le Foldscope, un microscope facile à assembler et dont la fabrication coûte moins d'un dollar). Il pouvait alors voir et suivre des millions de cils individuels, chacun apparaissant comme une minuscule étincelle dans le champ de vision du microscope pendant une fraction de seconde à la fois. "Vous ne voyez que les empreintes lorsqu'elles se posent sur la surface", a déclaré Prakash.

Lui-même - et plus tard Bull, qui a rejoint son laboratoire il y a six ans - ont passé des heures à observer l'orientation de ces petites empreintes. Pour que ces motifs complexes soient possibles, les scientifiques savaient que les cils devaient être engagés dans une sorte de communication à longue distance. Mais ils ne savaient pas comment.

Ils ont donc commencé à rassembler les pièces du puzzle, jusqu'à ce que, l'année dernière, ils décident enfin qu'ils avaient leur histoire.

Une marche en pilote automatique

Au départ, Prakash et Bull s'attendaient à ce que les cils glissent sur des surfaces, avec une fine couche de liquide séparant l'animal du substrat. Après tout, les cils sont généralement vus dans le contexte des fluides : ils propulsent des bactéries ou d'autres organismes dans l'eau, ou déplacent le mucus ou les fluides cérébrospinaux dans un corps. Mais lorsque les chercheurs ont regardé dans leurs microscopes, ils ont constaté que les cils semblaient marcher, et non nager.

Bien que l'on sache que certains organismes unicellulaires utilisent les cils pour ramper, ce type de coordination n'avait jamais été observé à cette échelle. "Plutôt qu'utiliser les cils pour propulser un fluide, il s'agit de mécanique, de friction, d'adhésion et de toutes sortes de mécanismes solides très intéressants", a-t-elle déclaré.

Prakash, Bull et Laurel Kroo, une étudiante diplômée en génie mécanique de Stanford, ont donc entrepris de caractériser la démarche des cils. Ils ont suivi la trajectoire de l'extrémité de chaque cilium au fil du temps, l'observant tracer des cercles et pousser contre des surfaces. Ils ont défini trois types d'interactions : le glissement, au cours duquel les cils effleurent à peine la surface ; la marche, lorsque les cils adhèrent brièvement à la surface avant de se détacher ; et le calage, lorsque les cils restent coincés contre la surface.

Dans leurs modèles, l'activité de marche émergeait naturellement de l'interaction entre les forces motrices internes des cils et l'énergie de leur adhésion à la surface. Le bon équilibre entre ces deux paramètres (calculé à partir de mesures expérimentales de l'orientation, de la hauteur et de la fréquence des battements des cils) permettant une locomotion régulière, chaque cilium se collant puis se soulevant, comme une jambe. Un mauvais équilibre produisant les phases de glissement ou de décrochage.

Nous pensons généralement, lorsque quelque chose se passe comme ça, qu'il y a un signal interne semblable à une horloge qui dit : "OK, allez-y, arrêtez-vous, allez-y, arrêtez-vous", a déclaré Simon Sponberg, biophysicien à l'Institut de technologie de Géorgie. "Ce n'est pas ce qui se passe ici. Les cils ne sont pas rythmés. Il n'y a pas une chose centrale qui dit 'Go, go, go' ou autre. Ce sont les interactions mécaniques qui mettent en place quelque chose qui va, qui va, qui va."

De plus, la marche pourrait être modélisée comme un système excitable, c'est-à-dire un système dans lequel, sous certaines conditions, les signaux se propagent et s'amplifient au lieu de s'atténuer progressivement et de s'arrêter. Un neurone est un exemple classique de système excitable : De petites perturbations de tension peuvent provoquer une décharge soudaine et, au-delà d'un certain seuil, le nouvel état stimulé se propage au reste du système. Le même phénomène semble se produire ici avec les cils. Dans les expériences et les simulations, de petites perturbations de hauteur, plutôt que de tension, entraînent des changements relativement importants dans l'activité des cils voisins : Ils peuvent soudainement changer d'orientation, et même passer d'un état de stase à un état de marche. "C'est incroyablement non linéaire", a déclaré Prakash.

En fait, les modèles de cils de Prakash, Bull et Kroo se sont avérés très bien adaptés aux modèles établis pour les potentiels d'action au sein des neurones. "Ce type de phénomène unique se prête à une analogie très intéressante avec ce que l'on observe dans la dynamique non linéaire des neurones individuels", a déclaré Bull. Sponberg est d'accord. "C'est en fait très similaire. Il y a une accumulation de l'énergie, et puis pop, et puis pop, et puis pop".

Les cils s'assemblent comme des oiseaux

Forts de cette description mathématique, Prakash et Bull ont examiné comment chaque cilium pousse et tire sur ses voisins lors de son interaction avec la surface, et comment toute ces activités indépendantes peuvent se transformer en quelque chose de synchronisé et cohérent.

Ils ont mesuré comment la démarche mécanique de chaque cilium entraînait de petites fluctuations locales de la hauteur du tissu. Ils ont ensuite écrit des équations pour expliquer comment ces fluctuations pouvaient influencer le comportement des cellules voisines, alors même que les cils de ces cellules effectuaient leurs propres mouvements, comme un réseau de ressorts reliant de minuscules moteurs oscillants.

Lorsque les chercheurs ont modélisé "cette danse entre élasticité et activité", ils ont constaté que les interactions mécaniques - de cils poussant contre un substrat et de cellules se tirant les unes les autres - transmettaient rapidement des informations à travers l'organisme. La stimulation d'une région entraînait des vagues d'orientation synchronisée des cils qui se déplaçaient dans le tissu. "Cette élasticité et cette tension dans la physique d'un cilium qui marche, maintenant multipliées par des millions d'entre eux dans une feuille, donnent en fait lieu à un comportement mobile cohérent", a déclaré Prakash.

Et ces modèles d'orientation synchronisés peuvent être complexes : parfois, l'activité du système produit des tourbillons, les cils étant orientés autour d'un seul point. Dans d'autres cas, les cils se réorientent en quelques fractions de seconde, pointant d'abord dans une direction puis dans une autre - se regroupant comme le ferait un groupe d'étourneaux ou un banc de poissons, et donnant lieu à une agilité qui permet à l'animal de changer de direction en un clin d'œil.

"Nous avons été très surpris lorsque nous avons vu pour la première fois ces cils se réorienter en une seconde", a déclaré M. Bull.

Ce flocage agile est particulièrement intriguant. Le flocage se produit généralement dans des systèmes qui se comportent comme des fluides : les oiseaux et les poissons individuels, par exemple, peuvent échanger librement leurs positions avec leurs compagnons. Mais cela ne peut pas se produire chez Trichoplax, car ses cils sont des composants de cellules qui ont des positions fixes. Les cils se déplacent comme "un troupeau solide", explique Ricard Alert, physicien à l'Institut Max Planck pour la physique des systèmes complexes.

Prakash et Bull ont également constaté dans leurs simulations que la transmission d'informations était sélective : Après certains stimuli, l'énergie injectée dans le système par les cils se dissipe tout simplement, au lieu de se propager et de modifier le comportement de l'organisme. Nous utilisons notre cerveau pour faire cela tout le temps, pour observer avec nos yeux et reconnaître une situation et dire : "Je dois soit ignorer ça, soit y répondre", a déclaré M. Sponberg.

Finalement, Prakash et Bull ont découvert qu'ils pouvaient écrire un ensemble de règles mécaniques indiquant quand le Trichoplax peut tourner sur place ou se déplacer en cercles asymétriques, quand il peut suivre une trajectoire rectiligne ou dévier soudainement vers la gauche, et quand il peut même utiliser sa propre mécanique pour se déchirer en deux organismes distincts.

"Les trajectoires des animaux eux-mêmes sont littéralement codées" via ces simples propriétés mécaniques, a déclaré Prakash.

Il suppose que l'animal pourrait tirer parti de ces dynamiques de rotation et de reptation dans le cadre d'une stratégie de "course et culbute" pour trouver de la nourriture ou d'autres ressources dans son environnement. Lorsque les cils s'alignent, l'organisme peut "courir", en continuant dans la direction qui vient de lui apporter quelque chose de bénéfique ; lorsque cette ressource semble s'épuiser, Trichoplax peut utiliser son état de vortex ciliaire pour se retourner et tracer une nouvelle route.

Si d'autres études démontrent que c'est le cas, "ce sera très excitant", a déclaré Jordi Garcia-Ojalvo, professeur de biologie systémique à l'université Pompeu Fabra de Barcelone. Ce mécanisme permettrait de faire le lien entre beaucoups d'échelles, non seulement entre la structure moléculaire, le tissu et l'organisme, mais aussi pour ce qui concerne écologie et environnement.

En fait, pour de nombreux chercheurs, c'est en grande partie ce qui rend ce travail unique et fascinant. Habituellement, les approches des systèmes biologiques basées sur la physique décrivent l'activité à une ou deux échelles de complexité, mais pas au niveau du comportement d'un animal entier. "C'est une réussite...  vraiment rare", a déclaré M. Alert.

Plus gratifiant encore, à chacune de ces échelles, la mécanique exploite des principes qui font écho à la dynamique des neurones. "Ce modèle est purement mécanique. Néanmoins, le système dans son ensemble possède un grand nombre des propriétés que nous associons aux systèmes neuro-mécaniques : il est construit sur une base d'excitabilité, il trouve constamment un équilibre délicat entre sensibilité et stabilité et il est capable de comportements collectifs complexes." a déclaré Sponberg.

"Jusqu'où ces systèmes mécaniques peuvent-ils nous mener ?... Très loin." a-t-il ajouté.

Cela a des implications sur la façon dont les neuroscientifiques pensent au lien entre l'activité neuronale et le comportement de manière plus générale. "Les organismes sont de véritables objets dans l'espace", a déclaré Ricard Solé, biophysicien à l'ICREA, l'institution catalane pour la recherche et les études avancées, en Espagne. Si la mécanique seule peut expliquer entièrement certains comportements simples, les neuroscientifiques voudront peut-être examiner de plus près comment le système nerveux tire parti de la biophysique d'un animal pour obtenir des comportements complexes dans d'autres situations.

"Ce que fait le système nerveux n'est peut-être pas ce que nous pensions qu'il faisait", a déclaré M. Sponberg.

Un pas vers la multicellularité

"L'étude de Trichoplax peut nous donner un aperçu de ce qu'il a fallu faire pour développer des mécanismes de contrôle plus complexes comme les muscles et les systèmes nerveux", a déclaré Wan. "Avant d'arriver à ça, quelle est le meilleur truc à suivre ? Ca pourrait bien être ça".

Alert est d'accord. "C'est une façon si simple d'avoir des comportements organisationnels tels que l'agilité que c'est peut-être ainsi qu'ils ont émergé au début et  au cours de l'évolution, avant que les systèmes neuronaux ne se développent. Peut-être que ce que nous voyons n'est qu'un fossile vivant de ce qui était la norme à l'époque".

Solé considère que Trichoplax occupe une "twilight zone... au centre des grandes transitions vers la multicellularité complexe". L'animal semble commencer à mettre en place "les conditions préalables pour atteindre la vraie complexité, celle où les neurones semblent être nécessaires."

Prakash, Bull et leurs collaborateurs cherchent maintenant à savoir si Trichoplax pourrait être capable d'autres types de comportements ou même d'apprentissage. Que pourrait-il réaliser d'autre dans différents contextes environnementaux ? La prise en compte de sa biochimie en plus de sa mécanique ouvrirait-elle vers un autre niveau de comportement ?

Les étudiants du laboratoire de Prakash ont déjà commencé à construire des exemples fonctionnels de ces machines. Kroo, par exemple, a construit un dispositif de natation robotisé actionné par un matériau viscoélastique appelé mousse active : placée dans des fluides non newtoniens comme des suspensions d'amidon de maïs, elle peut se propulser vers l'avant.

"Jusqu'où voulez-vous aller ? a demandé Peleg. "Pouvez-vous construire un cerveau, juste à partir de ce genre de réseaux mécaniques ?"

Prakash considère que ce n'est que le premier chapitre de ce qui sera probablement une saga de plusieurs décennies. "Essayer de vraiment comprendre cet animal est pour moi un voyage de 30 ou 40 ans", a-t-il dit. "Nous avons terminé notre première décennie... C'est la fin d'une époque et le début d'une autre".

Auteur: Internet

Info: https://www.quantamagazine.org/before-brains-mechanics-may-have-ruled-animal-behavior. Jordana Cepelewicz, 16 mars 2022. Trad Mg

[ cerveau rétroactif ] [ échelles mélangées ] [ action-réaction ] [ plus petit dénominateur commun ] [ grégarisme ] [ essaims ] [ murmurations mathématiques ]

 

Commentaires: 0

Ajouté à la BD par miguel

anthropique solipsisme


John Wheeler a vu la déchirure du réel 

Jusqu’à ses derniers jours, ce géant de la physique du 20e siècle a été obsédé par les fondements de l’espace et du temps, et par la manière dont nous partageons tous la même version de ces concepts.

Quand Johnny Wheeler avait 4 ans, en jouant dans son bain à Youngstown, dans l’Ohio, il a levé les yeux vers sa mère et a demandé : " Qu’arrive-t-il quand on arrive à la fin des choses ? " Cette question l’a hanté toute sa vie. Que se passe-t-il quand on atteint le fond de l’espace ? Que se passe-t-il quand on arrive au bord du temps ? Cela l’a conduit à suggérer que l’espace-temps ne peut pas être le véritable tissu de l’univers. Cela l’a poussé, même dans ses derniers jours, à chercher une réalité plus profonde sous l’espace-temps et à se demander si, d’une manière ou d’une autre, cette réalité boucle sur nous.

John Archibald Wheeler était un physicien pour les physiciens. Il n’a jamais remporté de prix Nobel, ni acquis une renommée publique, mais pour ceux qui le connaissaient, il était une légende. Il a ouvert de nouvelles voies dans de nombreux domaines de la physique : particules, nucléaire, gravitationnel, quantique. Il a étudié sous Niels Bohr, marché et discuté avec Albert Einstein. Il était ambitieux, pour le moins, mais jamais pour un gain personnel. Wheeler voulait résoudre les mystères de l’univers pour pouvoir offrir des réponses à sa communauté. Il avait une devise : " Personne ne peut être quelqu’un sans d’autres autour. " Il partageait largement ses idées, laissant ses étudiants briller. Richard Feynman, Hugh Everett, Jacob Bekenstein, Kip Thorne — ils sont devenus, entre autres, des figures emblématiques grâce à son influence. Quand un donateur de l’Université de Princeton a proposé de dédier un bâtiment de physique en son honneur, Wheeler a refusé, disant que le bâtiment ne devait pas être " centré sur une seule personne. La physique ne se fait pas ainsi. "

Tout au long de sa carrière, qui a couvert une grande partie du 20e siècle, Wheeler a tenu des journaux détaillés — de grands cahiers reliés regorgeant de chaque intuition, impasse et percée. Ces journaux, aujourd’hui conservés à l’American Philosophical Society de Philadelphie, révèlent quelque chose de remarquable : c’est précisément son désir de mettre la communauté en premier qui a façonné sa quête pour comprendre l’origine de l’espace-temps.

L’obsession de Wheeler pour l’espace-temps a commencé dans les années 1950. La relativité générale — la théorie d’Einstein selon laquelle la matière et l’énergie déforment l’espace-temps et que cette déformation est la gravité — était tombée dans l’oubli, éclipsée par les progrès de la mécanique quantique. Mais en 1952, Wheeler a eu une idée : et si ce que nous appelons " matière " n’était en réalité que de l’espace-temps ? Après tout, pensait-il, la gravité est une forme d’énergie, mais la gravité agit sur l’énergie, ce qui signifie qu’elle agit sur elle-même. Il imaginait des ondes de gravité se repliant en sphères compactes qui ressembleraient à des particules élémentaires de l’extérieur, tout en étant faites de vide à l’intérieur, une " masse sans masse ". Il les a nommées " géons ". Elles réduiraient les ingrédients de l’univers à un seul.

Les particules ont aussi une charge. Cela aussi pourrait-il être réduit à la géométrie ? Wheeler imaginait un espace-temps fortement déformé et tordu, " multi-connecté ", avec des trous et des boucles s’enroulant sur eux-mêmes. Les lignes de champ électrique tissées à travers ce paysage noueux pourraient disparaître dans un trou, traverser l’espace-temps, puis réapparaître ailleurs. Là où elles disparaîtraient, on verrait une particule chargée négativement, et là où elles réapparaîtraient, une particule chargée positivement. En réalité, il n’y aurait ni l’un ni l’autre, juste des lignes de champ électrique bouclant à l’infini, créant une " charge sans charge ".

Personne n’avait jamais utilisé la relativité générale de cette manière, pliant et tordant l’espace-temps jusqu’à ce que le reste de la physique en émerge, rendant l’univers plein de torsions et de tunnels si nouveaux qu’ils n’avaient pas de nom. Wheeler leur en a donné un : les trous de ver. C’était là son talent — nommer les choses, oui, mais aussi pousser les théories existantes à leurs limites pour voir où elles se brisent. Que se passe-t-il quand on arrive à la fin des choses ?

Tout dans l’univers fait d’espace-temps : Wheeler était captivé par la simplicité de cette idée. Mais pourquoi l’espace-temps aurait-il un terrain si chaotique, et seulement à l’échelle des particules élémentaires ? Il a supposé que les fluctuations quantiques de l’espace-temps pourraient transformer une géométrie tranquille en un labyrinthe enchevêtré, que Wheeler a appelé " mousse quantique ". Cela semblait être exactement ce qu’il fallait pour que les géons existent.

Wheeler a ensuite réalisé qu’à des échelles encore plus petites — la fameuse longueur de Planck, de l’ordre de 10^-33 centimètres — l’incertitude quantique pourrait détruire l’espace-temps lui-même. Des points localisés comme " ici  et " là " perdraient tout sens. Il voulait construire tout l’univers à partir de l’espace-temps, mais il n’était pas clair si l’espace-temps survivrait.

En 1960, Wheeler a découvert un fait troublant : les trous de ver sont instables. Les tunnels se formeraient et s’effondreraient instantanément sur eux-mêmes, leurs parois s’affaissant jusqu’à disparaître en un point de densité et de courbure infinies, créant une rupture fatale dans la réalité connue sous le nom de singularité. Les physiciens avaient déjà rencontré des singularités, mais seulement comme des erreurs dans leurs équations. Il y avait des indices que les étoiles, lorsqu’elles s’éteignent et s’effondrent gravitationnellement, pourraient abriter des singularités en leur sein, mais personne n’y croyait vraiment, ou du moins pensait que ce serait rare. Wheeler a alors vu que, grâce aux fluctuations quantiques, la réalité en était criblée. Le tissu de l’espace-temps, à ses plus petites échelles, était lâchement tissé, rongé par les mites, trop fragile pour supporter le poids du monde.

Pourtant, l’univers existe. Il doit être fait de quelque chose. Si l’espace-temps disparaît dans l’éclair d’une singularité, alors quelque chose se trouve au-delà ou en dessous.  De plus en plus insistant, un problème réclamait mon attention ", a écrit Wheeler. " Effondrement en quoi ? "

Il a décidé d’examiner de plus près ces étoiles éteintes, effondrées sous leur propre poids avec des singularités dans leur obscurité comme des trous d’épingle dans le monde. Tout le monde les appelait " objets complètement effondrés ", mais en 1967, lors d’une conférence au NASA Institute for Space Studies à New York, Wheeler leur a donné un nom qui est resté : les trous noirs. Une fois baptisés, les trous noirs ont été pris au sérieux, à la fois comme des objets existant dans la réalité et comme des endroits où la réalité prend fin.

Pour la communauté, le travail de Wheeler a déclenché un regain massif d’intérêt pour la relativité générale. Son manuel Gravitation, co-écrit avec ses étudiants Kip Thorne et Charles Misner, reste la bible du domaine. Pour Wheeler, ce travail a soulevé plus de questions qu’il n’en a résolu. " L’espace et le temps eux-mêmes sont transcendés en tant que catégories, et le cadre semble s’effondrer pour tout ce qu’on a jamais appelé une loi, notamment le concept de géométrie lui-même ", a-t-il écrit. Sous l’espace-temps, il devait y avoir autre chose, une " pré-géométrie ". Que se passe-t-il quand on arrive à la fin des choses ? Il était déterminé à le découvrir.

En juin 1973, il a rassemblé tous ses livres et articles sur la relativité générale — des décennies de travail sur la physique de l’espace-temps — et les a rangés. Puis il a ouvert son journal à une page blanche et a écrit avec détermination : " Commencer une nouvelle chasse. "

Par où commencer ? Avec quoi ? Ces trous dans l’espace-temps semblaient tout engloutir. " Pas étonnant que je ne dorme pas bien ", a griffonné Wheeler dans son journal. " L’ancien univers simple s’efface, tout est maintenant en désordre. "

La pré-géométrie pourrait-elle être faite de " grains " d’espace-temps, a-t-il demandé ? Non, cela supposerait trop de structure.

Il a eu une meilleure idée : peut-être était-elle faite d’information — des 1 et des 0, des oui et des non, des choix binaires. " Le caractère sans dimension du bit nous libère enfin du pays tyrannisé par les dimensions… de la physique quotidienne des particules, des champs, de l’espace-temps ", a-t-il écrit. Mais la question qui le tenait éveillé la nuit était : à qui appartient cette information ?

Wheeler a réalisé que lorsque l’espace et le temps disparaissent, emportant avec eux le reste de la physique, il reste quelque chose. " Avec la loi qui s’en va et le chaos qui arrive, un principe demeure ", a écrit Wheeler. " Le principe quantique. " La mécanique quantique, a-t-il écrit, " détruit le concept du monde comme ‘assis là-bas’, avec l’observateur en sécurité, séparé de lui par une vitre de 20 centimètres. Même pour observer un objet aussi minuscule qu’un électron, il doit briser la vitre. Il doit y entrer… L’univers ne sera jamais plus le même. Pour décrire ce qui s’est passé, il faut rayer ce vieux mot ‘observateur’ et le remplacer par le nouveau mot ‘participant’. Dans un sens étrange, l’univers est un univers participatif. "

C’était officiellement l’idée la plus folle qu’il ait eue jusqu’alors. Un univers fait non pas de matière, ni d’espace-temps, ni de substance, mais de nos choix. Ce n’était pas ce qu’il espérait trouver ; la physique l’y avait conduit. Il avait soulevé l’espace-temps, regardé en dessous, et s’était retrouvé à fixer, à sa grande perplexité, un miroir. " On se retrouve à demander désespérément si la structure, plutôt que de se terminer dans un plus petit objet ou dans un champ plus fondamental, ou de continuer indéfiniment, ne revient pas finalement à l’observateur. "

En 1977, Wheeler a donné une conférence soulignant que " aucun phénomène élémentaire n’est un phénomène tant qu’il n’est pas un phénomène observé ". Après cela, le physicien Paul Dirac a demandé : " La formation du système solaire est un phénomène. Est-ce seulement un phénomène lorsqu’il est observé ? " Wheeler a répondu : " Oui. "

Il pensait à l’expérience de la double fente, cette preuve notoirement déroutante que nos attentes de bon sens sur le fonctionnement du monde ne tiennent pas. Des particules comme les photons sont envoyées à travers un écran avec deux fentes avant de frapper une plaque photographique de l’autre côté. Lorsque les deux fentes sont ouvertes, les photons un par un forment un motif d’interférence sur la plaque, comme si chaque photon était passé par les deux fentes, de manière ondulatoire, interférant avec lui-même. Mais si nous mesurons par quelle fente un photon passe, ce motif d’interférence disparaît. Ce que nous choisissons de mesurer compte.

Wheeler voulait montrer quelque chose de plus : que cela compte même lorsque ce que nous mesurons s’est déjà produit. Et si nous retardions le choix de mesurer " quelle fente " jusqu’après que le photon ait traversé l’écran ? a-t-il demandé. Notre mesure pourrait-elle déterminer après coup si le photon est passé par une fente ou deux ?

" Je me suis aventuré en eaux profondes, en voulant donner un sens à ‘un choix présent influençant une action passée’ ", a écrit Wheeler dans son journal.

En 1979, il a décrit une version réalisable de l’expérience à choix retardé lors d’une conférence à l’Université du Maryland, et un expérimentateur présent a décidé de la réaliser. Il a fallu cinq ans pour mettre l’expérience sur pied, mais cela a fonctionné. En choisissant ce qu’il faut mesurer dans le présent, nous participons à la création du passé.

Dans la version de laboratoire, le choix est retardé d’une simple fraction de seconde, mais en principe, il n’y a pas de limite à son échelle. Le photon pourrait avoir été produit par un quasar lointain, et le rôle de l’écran à double fente pourrait être joué par une galaxie dont le champ gravitationnel dévierait le photon vers la gauche ou la droite avec une probabilité égale. Le photon voyage-t-il les deux chemins à la fois, créant un motif d’interférence sur la plaque photographique qui l’attend ici sur Terre ? Ou ne voyage-t-il qu’un seul chemin ? Cela dépend si un astronome basé sur Terre — ici, maintenant — décide de mesurer si le photon a pris un chemin ou deux, bien que le voyage ait eu lieu il y a des milliards d’années.

Mais le voyage n’a pas eu lieu — c’était le point de Wheeler. Le choix retardé n’impliquait aucune causalité inversée. Ce n’est pas comme si le passé avançait déjà sous sa propre impulsion jusqu’à ce qu’un observateur arrive, remonte le temps et le change. Non, a dit Wheeler : il n’y a pas d’impulsion, pas de changement. " Ce n’est pas un paradoxe que nous choisissions ce qui doit s’être passé après que ‘cela s’est déjà produit’ ", a-t-il écrit, car " cela ne s’est pas vraiment produit. Ce n’est pas un phénomène tant que ce n’est pas un phénomène observé. "

Le passé n’est pas vraiment le passé. Le temps n’est pas vraiment le temps. Wheeler avait trouvé sa pré-géométrie. Nous tissons le tissu de l’univers, a-t-il dit, à partir de " milliards et milliards d’actes de participation d’observateurs ".

La quête de Wheeler pour la pré-géométrie a engendré de nombreuses recherches fructueuses. De l’expérience à choix retardé est venue une série de nouvelles expériences. De son idée que les propriétés physiques émergent comme des réponses aux questions oui-non des participants — qu’il a résumée dans les années 1980 par le slogan " It from Bit " — est né le domaine de la science de l’information quantique et des technologies comme l’informatique quantique et la téléportation quantique. De son travail sur les trous noirs et son insistance sur le fait que l’espace-temps émerge également des bits sont venues des idées sur l’entropie des trous noirs et le principe holographique en gravité quantique.

Mais seul, Wheeler était laissé à agoniser sur la manière de dériver l’espace-temps de la participation des observateurs.

Il était allé si loin, découvrant que l’espace-temps émerge de quelque chose de plus profond. Mesure par mesure, les observateurs participent à la création de leur espace-temps partagé. Ou du moins, c’était l’idée. Le problème était que rien en mécanique quantique ne garantit un accord entre les observateurs. Si je mesure un photon à une certaine position, créant un point dans le tissu de l’espace-temps, cela ne garantit pas que le photon soit à la même position pour vous. (Insister sur le fait que le résultat de ma mesure prédétermine le résultat de la vôtre ferait de la position du photon une " variable cachée ", ce que les expériences ont déjà exclu.) Un point pour l’un n’est pas garanti d’être un point pour tous.

" Des observateurs qui participent indépendamment… comme 10 000 ferblantiers qui s’adonnent indépendamment à 10 000 tâches différentes ", écrit-il dans son journal. Pourquoi ne créent-ils pas 10 000 espaces-temps distincts ? " Ce qui me trouble le plus, c’est la façon dont différents observateurs combinent leurs impressions pour construire ce que nous appelons la réalité. "

Au début, Wheeler pensait que la participation de l'observateur impliquait la conscience. Après tout, ce ne sont pas les tables et les chaises qui décident de ce qu'il faut mesurer, mais les observateurs conscients. Mais cela ne l'aidait pas. Il ne voyait aucun moyen de relier les expériences privées des esprits individuels en une seule réalité partagée.

" Sur peu de questions dans ma vie, j’ai été aussi perdu de vue qu’à présent sur le poids relatif de l’individu et de la collectivité dans la manière de donner un " sens " à l’existence ", écrivait-il. Il n’en était toujours pas sûr quelques années plus tard : " La " conscience " semble appartenir à l’individu. À mon avis, le concept pertinent devrait être une propriété communautaire. " Mais quoi ? Dans un univers participatif, un observateur peut poser une question et obtenir une réponse en retour, et un autre observateur peut venir — demain, la semaine prochaine, dans un milliard d’années — et poser une question différente, incompatible, et obtenir une réponse différente, incompatible. L’univers peut être façonné et remodelé de 10 000 façons par 10 000 ferblantiers, et rien dans le formalisme quantique ne garantit qu’ils seront un jour d’accord.

Wheeler était désemparé. Pendant des années, pendant des pages, il a été obsédé. " Je ne suis pas fier. Je confesserai toutes mes erreurs. Je ferai tout ce qui est en mon pouvoir pour percer le mystère. " Après tout, écrivait-il, " je dois à la communauté de donner le meilleur de moi-même. " Toute réalité dans laquelle une pensée, une perception ou un résultat de mesure était la propriété privée de quelqu’un n’était pas une réalité dans laquelle il pouvait vivre. En même temps, il ne pouvait pas revenir à un univers participatif. Il ne pouvait pas revenir à la prégéométrie. " Y a-t-il un point à mi-chemin entre tout et rien sur cette question ? " se demandait-il. " Chacun de nous est un univers privé ? Absurde ! Chacun de nous voit le même univers ? Absurde aussi ! "

Il était donc coincé et il manquait de temps.

" Si nous sommes ceux qui " construisent " l’espace-temps, comment se fait-il que nous n’ayons pas autant d’espaces-temps que les gens ? ", écrivait-il le 8 novembre 2005. " Comment se fait-il qu’il n’y en ait qu’un seul ? Poursuivons plus loin. " Il avait 94 ans.

Les entrées du journal se sont raréfiées.

Que se passe-t-il lorsqu'on arrive à la fin des choses ?

La dernière entrée de Wheeler date de 2006, à l’âge de 95 ans, alors qu’il était sur le point de mourir, et sa vie était désormais jalonnée de questions. Elle consistait en une seule phrase, laissée à la communauté : " L’espoir produit l’espace et le temps ? " 



 


Auteur: Internet

Info: https://www.quantamagazine.org/,  Amanda Gefter,  September 25, 2024

[ solipsismes individuels ] [ émergence grégaire ] [ égrégore déconnectée ] [ déterminisme vs émergence ] [ pré-géométrie ] [ cosmos partagé ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste