Citation
Catégorie
Tag – étiquette
Auteur
Info
Rechercher par n'importe quelle lettre



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits... Recherche mots ou phrases tous azimuts... Outil de précision sémantique et de réflexion communautaire... Voir aussi la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats ... Lire la suite >>
Résultat(s): 5411
Temps de recherche: 0.041s

coalescences

Ce "monde perdu" révèle un nouveau chapitre de l'évolution de la vie

L'origine des organismes complexes appelés eucaryotes, comprenant tous les animaux, les plantes et les champignons, est l'un des plus grands mystères de la biologie. Une découverte récente lève le voile sur leurs racines évolutives.

L’origine des eucaryotes, ces organismes composés de cellules complexes, est l’un des chapitres les plus déterminants de l’histoire de l’évolution de la vie. Tous les animaux, les plantes et les champignons sont des eucaryotes, donc si les cellules complexes ne s’étaient pas développées sur Terre, il n’y aurait ni poissons, ni fleurs, ni champignons, ni êtres humains.

Si les plus anciens fossiles d’eucaryotes découverts à ce jour ont environ un milliard d’années, une étude menée sur des substances chimiques conservées dans de très vieilles roches indique que ces organismes auraient eu une préhistoire, longtemps restée secrète. En effet, d’après ces vestiges chimiques, il existait des cellules complexes il y a au moins 1,6 milliard d’années. 

Les substances chimiques preuves de l’existence de ces cellules sont les produits de la dégradation des molécules lipidiques présentes dans les membranes cellulaires. Ces molécules étaient jusqu’à présent passées inaperçues, car elles diffèrent de celles que l’on trouve dans les cellules modernes. " Elles sont extrêmement primitives ", explique Benjamin Nettersheim, géochimiste à l’université de Brême, en Allemagne, et auteur de ladite étude.

L’équipe de Nettersheim a décelé des traces de ces molécules lipidiques dans une série de roches anciennes, notamment dans la formation de Barney Creek en Australie. D’après leurs résultats, les eucaryotes primitifs étaient largement répandus entre il y a 1,6 milliard et 800 millions d’années, une période que les scientifiques ont qualifiée de " monde perdu " : celui de la vie complexe primitive.

" C’est une découverte majeure qui change radicalement notre façon de considérer les preuves apportées par les biomarqueurs et attestant de l’évolution des eucaryotes ", déclare Emily Mitchell, chercheuse à l’université de Cambridge au Royaume-Uni, qui étudie les origines de l’évolution des animaux et qui n’a pas participé à l’étude.

L’ÉVOLUTION DES CELLULES

Les plus anciens organismes cellulaires sont les bactéries et les archées. Leurs cellules sont petites et n’ont que quelques structures internes contrairement aux cellules eucaryotes, beaucoup plus grandes et présentant diverses structures comme le noyau, qui abrite l’ADN, et les mitochondries, des organites en forme de haricot qui produisent de l’énergie. Les bactéries et les archées sont apparues il y a au moins 3,5 milliards d’années, bien avant que n’évoluent les eucaryotes. 

Bien qu’il s’agisse d’un élément clef de l’histoire de la vie, l’origine des eucaryotes reste l’un des plus grands mystères de la biologie. Ces cellules complexes semblent être apparues il y a entre un et deux milliards d’années, une période que les scientifiques ont eu du mal à délimiter avec précision. 

Le dernier ancêtre commun eucaryote (LECA), la plus ancienne espèce dont descendent tous les eucaryotes modernes, est utile pour se repérer puisque, selon les recherches génétiques, LECA aurait vécu il y a au moins 1,2 milliard d’années. Pourtant, cet organisme n’était pas le premier eucaryote.

Des eucaryotes fossiles postérieurs à LUCA auraient vécu il y a environ un milliard d’années. Les plus étudiés d’entre eux sont une algue rouge multicellulaire appelée Bangiomorpha, découverte sur l’île Somerset dans le Nunavut, au Canada, et une algue verte appelée Proterocladus, originaire du nord de la Chine. Reste que ces eucaryotes primitifs ne semblaient pas être très répandus. Selon les paléontologues, ces organismes auraient commencé à se diversifier il y a 900 millions d’années seulement, et les gros animaux ne seraient apparus qu’il y a environ 570 millions d’années.

Cependant, d’autres fossiles ressemblant à des eucaryotes âgés de 1,6 ou même 1,8 milliard d’années ont été découverts. C’est le cas de Shuiyousphaeridium macroreticulatum, un organisme en forme de blob doté de courtes vrilles, retrouvé dans des formations rocheuses du nord de la Chine. Ces premiers eucaryotes semblent plus primitifs et pourraient avoir vécu avant LECA.

Déterminer comment sont apparus les eucaryotes et leur évolution à partir de fossiles aussi anciens s’est avéré une tâche ardue. C’est pourquoi Nettersheim et ses collègues sont partis à la recherche d’autres éléments de preuve pouvant les renseigner sur l’histoire des eucaryotes.

DES TRACES DE " GRAISSES " DANS LA ROCHE

Les chercheurs se sont intéressés à des substances chimiques appelées lipides, correspondant à toutes les graisses et les huiles. Ils ont plus précisément ciblé les stérols, un groupe de lipides présents dans les membranes externes des cellules eucaryotes. " Presque tous les eucaryotes produisent des stérols ", explique Nettersheim. Le stérol le plus connu est probablement le cholestérol, qui joue un rôle majeur dans la biologie humaine.

Avec le temps, les stérols se décomposent en substances chimiques appelées stéranes, c’est pourquoi la présence de stéranes dans d’anciennes roches est la preuve que des eucaryotes ont habité les lieux.

On trouve de nombreux stéranes dans les roches ayant au maximum 800 millions d’années, mais aucun d’entre eux n’a été détecté dans des roches plus anciennes. À première vue, tout porte à croire que peu d’eucaryotes vivaient il y a plus de 800 millions d’années, bien que cela aille à l’encontre des preuves fossiles et génétiques.

Nettersheim et ses collègues ont décidé de voir les choses autrement. Ils sont partis de l’hypothèse que les premiers eucaryotes ne produisaient peut-être pas le même type de stérols que les eucaryotes modernes. L’équipe s’est donc intéressée aux stérols qui, aujourd’hui, ne servent que d’intermédiaires lors des mécanismes réactionnels des cellules. Selon les chercheurs, ces molécules étaient autrefois les principaux stérols utilisés par les premiers eucaryotes jusqu’à ce que des organismes plus récents soient parvenus à les convertir en molécules différentes, peut-être dotées de propriétés plus spécifiques.

" [Ces organismes] ne produisaient pas encore les mêmes lipides que les eucaryotes modernes, mais des lipides qui sont aujourd’hui des intermédiaires ", explique Nettersheim.

Selon Paul Strother, paléobotaniste au Boston College, dans le Massachusetts, et qui n’a pas participé à l’étude, cette approche permet aux chercheurs d’étudier " le développement évolutif ou les précurseurs " des stérols. " Pour moi, c’est un grand pas en avant. "

L’équipe a déterminé en quelles molécules devaient se décomposer ces stérols primitifs puis a recherché ces produits de décomposition dans d’anciennes roches.

Contrairement aux stérols modernes, des vestiges de ces stérols primitifs ont été rapidement découverts dans des roches de plus de 800 millions d’années, dont notamment dans des roches vieilles de 1,1 milliard d’années issues du bassin de Taoudeni en Mauritanie et du rift de Keweenawan dans le Michigan. L’équipe en a même découvert dans la formation australienne de Barney Creek, vieille de 1,6 milliard d’années.

Selon Nettersheim, cette découverte est la solution à une énigme majeure. En effet, les données chimiques suggéraient auparavant que les eucaryotes étaient apparus tardivement, contrairement à ce qu’indiquaient les microfossiles et les données génétiques. Aujourd’hui, les données chimiques disponibles remontent plus loin dans le temps et les trois types de données s'alignent en grande partie.

" Lorsque des éléments très indépendants commencent à concorder, on dispose généralement d’un résultat très fiable ", souligne Mitchell.

L'APPARITION DES ORGANISMES COMPLEXES

L’histoire réécrite est la suivante. Les eucaryotes ont commencé à évoluer il y a au moins 1,6 milliard d’années, voire peut-être deux milliards d’années. Ils utilisaient des stérols primitifs dans leurs membranes externes, mais lors d’une étape déterminante certains eucaryotes ont évolué pour utiliser les stérols actuels, et ont finalement pris le dessus il y a 800 millions d’années.

Reste que le fait de repousser l’origine des eucaryotes à au moins 1,6 milliard d’années soulève une nouvelle question : pourquoi a-t-il fallu tant de temps aux animaux, aux plantes et aux champignons complexes pour apparaître ?

Il se pourrait par exemple que les organismes multicellulaires complexes aient évolué plus tôt que ce que l’on croit. Une étude de 2019 affirme par exemple avoir trouvé des éponges fossiles, l’un des premiers groupes d’animaux, dans des roches datant d’il y a 890 millions d’années, ce qui repousserait l’origine des animaux de 350 millions d’années. Cependant, Nettersheim estime que l’on ne peut pas vraiment s’appuyer sur ces fossiles, car certains eucaryotes unicellulaires sont capables de produire des structures à l’apparence similaire.

L’équipe de Nettersheim avance plutôt l’hypothèse que les premiers eucaryotes ont dominé les écosystèmes préhistoriques et que les eucaryotes modernes n’ont pu prospérer et se diversifier qu’à partir de l’extinction de cette population antérieure. Les stérols actuels aident les eucaryotes à s’adapter à certains types de stress comme la déshydratation ou une exposition soudaine au froid, donc il se pourrait que les cellules les plus développées aient été les plus à même de survivre en cas période de stress environnemental.

Les épisodes dits " Terre boule de neige ", périodes au cours desquelles le climat de la Terre s’est considérablement refroidi et a entrainé une expansion conséquente des nappes glaciaires, semblent apporter une réponse. " La Terre était potentiellement entièrement gelée ou du moins très froide ", explique Nettersheim. Les épisodes de Terre boule de neige se sont produits pendant la période cryogénienne, il y a environ 720 à 635 millions d’années.

Les stérols modernes auraient ainsi pu avoir aidé certains eucaryotes à survivre pendant que les autres mouraient, et une fois la glaciation atténuée, les eucaryotes survivants pourraient s'être diversifiés en plantes et en animaux. " Nous pensons qu'il s'agit de l’une des préadaptations qui ont aidé les eucaryotes modernes à acquérir une importance écologique ", explique Nettersheim.

" C’est une suggestion sensée ", souligne Mitchell. " Mais je ne peux cependant ni l’affirmer ni l’infirmer. "

Strother est tout aussi prudent et souligne que nous disposons de si peu d’eucaryotes primitifs que toute nouvelle découverte pourrait bouleverser l’histoire. Selon lui, " ces paradigmes sont quelque peu fragiles "

Ce qui semble évident, c’est que les débuts de l’histoire des eucaryotes ont été riches et complexes. Si l’évolution des stérols modernes, il y a environ 800 millions d’années, constitue un événement majeur, de nombreuses étapes importantes de l’évolution ont eu lieu auparavant. L’année dernière, Emmanuelle Javaux, de l’université de Liège en Belgique, a décrit des microfossiles d’eucaryotes âgés d’un milliard d’années en République démocratique du Congo et qui contenaient des restes de chlorophylle, preuve de la présence d’algues photosynthétiques à cette époque.

De même, en 2021, Strother et ses collègues ont décrit un autre eucaryote vieux d’un milliard d’années, appelé Bicellum brasieri, découvert dans les Highlands écossais. Ce dernier était multicellulaire et possédait qui plus est deux types de cellules : des signes précurseurs des tissus et organes des animaux et des plantes ultérieurs.

" S’il existait ce type de complexité morphologique il y a un milliard d’années, beaucoup d’autres choses ont pu se passer il y a plus de 800 millions d’années ", souligne le chercheur.







 

Auteur: Internet

Info: https://www.nationalgeographic.fr/, Michael Marshall, 1 mai 2025

[ endosymbiose  ] [ transfert vertical ] [ coadaptation ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

interprétation

Cinq adaptations "exemplaires" (littérature et cinéma)
Dès ses origines, le cinéma a tissé avec la littérature des liens contradictoires et complexes. Alors que le septième art a toujours tenté de s'affirmer comme art " autonome ", il a d'une manière constante puisé dans les classiques de la littérature pour se nourrir et s'enrichir. L'opinion commune veut qu'une adaptation cinématographique d'un texte littéraire soit vouée à être moins intéressante que l'oeuvre d'origine. Or un examen un peu attentif prouve que l'histoire du cinéma est truffée de chefs-d'oeuvre tirés de romans ou de pièces de théâtre. La question, dès lors, est de savoir comment le cinéma peut parvenir à traduire sur grand écran des oeuvres littéraires sans les trahir et en conservant sa propre singularité d'art " visuel ".
Entre littérature et cinéma, c'est une histoire immédiate. Lorsque Georges Meliès réalise, en 1902, Le voyage dans la lune, il s'inspire déjà du roman de Jules Verne De la terre à la lune. Et même lorsqu'il est encore muet, le cinéma trouve dans les oeuvres de Victor Hugo (L'homme qui rit de Paul Leni en 1928) ou d'Alexandre Dumas une inépuisable source d'inspiration.
Parce que le cinéma est parvenu à développer, au temps du muet, une grammaire et des articulations très fines, une esthétique qui n'appartient qu'à lui ; certains voient dans le passage au parlant une régression et un retour à la théâtralité, à la littérature.
Pourtant, les noces entre les deux arts s'avèrent fructueuses : les romans donnent naissance à de grands classiques de l'histoire du cinéma (citons, de manière exemplaire, Autant en emporte le vent de Victor Fleming) et les écrivains s'intéressent au septième art et passent parfois de l'autre côté de la barrière de manière ponctuelle (André Malraux réalisant Espoir en1938-39) ou plus régulière (Pagnol, Guitry, Duras et Robbe-Grillet érigeant de véritables oeuvres cinématographiques).
Au début des années 50 François Truffaut, alors jeune critique, s'en prend violemment au cinéma français " de qualité ", reprochant en particulier aux cinéastes de se contenter d'illustrer pour le grand écran des classiques du patrimoine littéraire de manière totalement académique (Le rouge et le noir d'Autant-Lara, Notre-Dame de Paris et La princesse de Clèves de Jean Delannoy, etc.). Il oppose à ce cinéma poussiéreux un cinéma à la première personne où le réalisateur serait, tel un écrivain,l'auteur d'une oeuvre personnelle et intime.
Pourtant, Truffaut comme les autres cinéastes de la Nouvelle Vague, adapteront à leur tour des oeuvres littéraires. A quel moment, peut-on dire qu'un film se contente d'illustrer platement un roman ou bien qu'il transcende son matériau d'origine pour offrir au spectateur une oeuvre cinématographique à part entière ?
La question est tellement vaste qu'un simple article ne suffirait pas à en épuiser toutes les dimensions. Alors de manière subjective, tentons de nous appuyer sur cinq films pour analyser les éléments qui entrent en compte dans le succès d'une d'une adaptation d'une oeuvre littéraire.
1- Des mots aux images : Mouchette (1967) de Robert Bresson (d'après Bernanos)
La première difficulté à laquelle se heurte un cinéaste, c'est de traduire de manière " visuelle " des mots qui sont, eux-mêmes, porteurs d'images. A vouloir se contenter uniquement des mots, on prend le risque de laisser de côté les questions de mise en scène cinématographique de ces mots et de retomber dans le piège de l'illustration académique (Cf. Germinal de Claude Berri). Du coup, les mots doivent devenir le corps même de l'oeuvre et certains vont s'y employer en procédant par accumulation (la parole qui s'emballe chez Guitry et Pagnol) ou par soustraction. Robert Bresson appartient à la deuxième catégorie. Lorsqu'il adapte Mouchette sur grand écran, il n'en est pas à sa première tentative de transposition d'une oeuvre littéraire. Il a déjà filmé Diderot (Les dames du bois de Boulogne) et Bernanos (Le journal d'un curé de campagne). Pour lui, pas question de trouver un système d'équivalences mais d'adapter les oeuvres de manière littérale (avec, par exemple, un recours à la voix-off ou des cartons). Dans Mouchette, la parole se raréfie et c'est la stylisation d'une mise en scène épurée jusqu'à l'extrême qui permet de traduire la noirceur du roman d'origine. Lorsque la petite Mouchette se suicide en roulant obstinément jusqu'à un cours d'eau, Bresson parvient à traduire l'âpreté du roman de Bernanos et nous bouleverse de manière indélébile.
2- L'anecdote : Le mépris (1963) de Jean-Luc Godard (d'après Moravia)
Une des difficultés de l'adaptation cinématographique est la question de l'anecdote. Beaucoup de cinéastes se sont contentés de prendre les romans comme de beaux scénarios. L'anecdote l'emporte sur l'invention cinématographique. C'est peut-être pour cette raison que les meilleures adaptations sont sans doute celles qui se sont appuyées sur des oeuvres littéraires mineures, permettant aux cinéastes de dépasser l'anecdote et d'injecter dans leurs films des thèmes personnels. Belle de jour de Kessel n'est pas un roman très intéressant. En revanche, Buñuel en a fait un chef-d'oeuvre du cinéma, une oeuvre totalement énigmatique et opaque où l'onirisme et l'ironie sont de mises. De la même manière, il est couramment admis que les films d'Hitchcock comme Rebecca et Les oiseaux sont supérieurs aux romans de Daphné du Maurier qui les ont inspirés.
A l'origine du Mépris, il y a un roman de Moravia que les connaisseurs s'accordent à trouver médiocre (j'avoue ne pas l'avoir lu) mais le plus important n'est pas dans l'anecdote mais dans la manière dont Jean-Luc Godard parvient à la transplanter sur son propre territoire : le cinéma, le mythe et les questions que le taraudent toujours : l'amour, la trahison, le malentendu...
3- La réappropriation : Shining (1980) de Stanley Kubrick (d'après Stephen King)
Toujours dans le même ordre d'idée, les romans regroupés parfois sous l'étiquette " mauvais genre " (la série noire, le fantastique, la science-fiction, l'érotisme...) furent de formidables réservoirs à récits pour les cinéastes. Certains écrivains de polars, comme Raymond Chandler, furent également scénaristes pour Hollywood. Parmi les auteurs contemporains oeuvrant dans le fantastique, Stephen King fut sans doute l'écrivain le plus adapté au cinéma, pour le meilleur (Dead Zone de Cronenberg, Carrie de De Palma, Stand by me et Misery de Rob Reiner...) ou pour le pire (Firestarter de Lester, Peur bleue...).
Avec Shining, nous nous trouvons face à un cas intéressant car il est évident que Stanley Kubrick trahit l'oeuvre originale (King ne s'est pas entendu avec le cinéaste et détestait cette adaptation) mais il se la réapproprie de manière totalement personnelle et livre un des plus beaux films d'épouvante jamais tourné. Avec ce film, le cinéaste tente de réaliser LE film d'horreur définitif (comme il cherchera à réaliser LE film de guerre absolu avec Full Metal Jacket) et nous offre une oeuvre mentale où l'espace de l'hôtel et du jardin qui l'entoure devient la projection d'un cerveau atteint par la folie.
4- Le style : Le temps retrouvé (1999) de Raoul Ruiz (d'après Marcel Proust)
Un des problèmes majeurs auxquels se heurtent les cinéastes projetant d'adapter une oeuvre littéraire, c'est celui du style. Si, au cinéma, l'anecdote importe moins que la mise en scène et le style du réalisateur ; il est évident que l'intérêt d'un livre tient avant tout à son style et non pas à son " histoire ".
C'est sans doute pour cette raison que certains grands stylistes n'ont jamais été adaptés au cinéma, que ce soit Céline ou James Joyce qui ne fut adapté que pour son récit le plus " classique " (Gens de Dublin par John Huston en 1987). Même si certaines tentatives maladroites ont été effectuées, certains romans conservent la réputation d'être inadaptables, que ce soit Belle du seigneur de Cohen ou A la recherche du temps perdu de Proust. Contrairement à ce que l'on entend parfois, Proust a fait l'objet de quelques adaptations cinématographiques. Parfois catastrophiques (le très académique Un amour de Swann de Schlöndorff avec Alain Delon en 1984), parfois intéressantes (La captive de Chantal Akerman), ces transpositions restèrent néanmoins assez éloignées de l'univers de l'écrivain. Dans Le temps retrouvé, c'est le caractère extrêmement mouvant de la mise en scène qui frappe. Ruiz a recours aux effets qu'il affectionne depuis toujours : juxtaposition du zoom et du travelling dans des directions opposées, décors mobiles, amples mouvements de caméra donnant la sensation d'un univers extrêmement fluctuant et éphémère. Grâce à ses partis pris de mise en scène, le cinéaste parvient à nous loger au coeur même de la tête de l'écrivain qui revient, à la veille de sa mort, sur son existence et son oeuvre, comme si tout était désormais écrit. Le film est donc à la fois une oeuvre cinématographique et une traduction assez juste de l'univers évanescent de Proust. Pour transposer à l'écran un écrivain au style unique, il fallait un styliste de la caméra !
5- Les limites : Salo ou les 120 journées de Sodome (1975) de Pier Paolo Pasolini (d'après Sade)
Dernier écueil auquel se heurte le cinéma : les limites de la représentation. Lorsque Apollinaire évoque un " soleil cou coupé " ou que Breton nous entraîne à sa suite dans un Paris mystérieux et poétique dans Nadja, on a du mal à concevoir quelles images photographiques pourraient traduire la poésie de ces mots et les gouffres imaginaires qu'ils entrouvrent.
Réaliste par essence, l'image cinématographique se heurte à certaines limites que ne connaissent pas les mots. Lorsqu'il s'agit de violence ou de sexe, il paraît littéralement impossible de montrer ce que les mots peuvent parfois dire. Une adaptation fidèle d'American psycho de Brett Easton Ellis serait tout bonnement insoutenable.
De la même manière, on imagine mal un film qui suivrait scrupuleusement les descriptions du marquis de Sade. Pourtant, le grand écrivain fut maintes fois adaptés au cinéma, de manière classique et édulcoré comme dans le Justine de Claude Pierson ou de manière plus originale (mais " soft ") dans Marquis de Sade : Justine de Jess Franco.
Lorsqu'il entreprend de filmer Les 120 journées de Sodome, Pasolini sort de sa " trilogie de la vie " où il exaltait les sens et une sexualité débridée en s'appuyant sur des oeuvres littéraires du passé (Les mille et une nuits, Le Décaméron de Boccace et Les contes de Canterbury de Chaucer). Mais ce qu'il voit autour de lui le rend pessimiste et il cherche désormais à dénoncer les excès du consumérisme dans lesquels s'inscrit la prétendue " libéralisation des moeurs ". Il choisit d'adapter Sade qu'il transpose à l'époque fasciste. Là encore, la réappropriation qu'il se permet de l'oeuvre du divin Marquis est une sorte de " trahison " mais elle lui permet de transgresser les limites de la représentation. On a vu des films beaucoup plus " pornographiques " ou même plus violents mais le style glacial de Pasolini confère à cette oeuvre un caractère éprouvant et en fait un des films les plus effrayants jamais tourné.
Il y aurait sans doute beaucoup d'autres choses à dire sur ces liens paradoxaux entre le cinéma et la littérature mais ces quelques idées jetées de manière maladroite ici ont déjà pris beaucoup de place. Il ne vous reste plus qu'à vous laisser réagir et à vous inciter à citer des adaptations que vous trouvez réussies...

Auteur: Internet

Info: Dr Orlof, http://drorlof.over-blog.com/

[ texte ] [ image ]

 

Commentaires: 0

intellection

Combien d’énergie faut-il pour réfléchir ?

Des études sur le métabolisme neuronal révèlent les efforts de notre cerveau pour nous maintenir en vie et les contraintes évolutives qui ont sculpté notre organe le plus complexe.

Vous venez de rentrer d'une journée épuisante. Vous n'avez qu'une envie : vous détendre et vous déconnecter en regardant la télévision. Même si cette inactivité peut ressembler à un repos bien mérité, votre cerveau ne se contente pas de se détendre. En réalité, selon une étude récente, il consomme presque autant d'énergie que pendant votre activité stressante.

Sharna Jamadar, neuroscientifique à l'Université Monash en Australie, et ses collègues ont examiné les résultats de recherches de leur laboratoire et d'autres dans le monde pour estimer le coût métabolique de la cognition— c'est-à-dire la quantité d'énergie nécessaire au fonctionnement du cerveau humain. Étonnamment, ils en concluent que les tâches exigeant un effort et visant un objectif ne consomment que 5 % d'énergie de plus que l'activité cérébrale au repos. Autrement dit, nous sollicitons notre cerveau un tout petit peu plus lors d'une activité cognitive ciblée que lorsque le moteur tourne au ralenti.

On a souvent l'impression que notre énergie mentale est dépensée par une attention et une concentration intenses. Mais ces nouvelles recherches s'appuient sur une compréhension croissante selon laquelle la majeure partie des fonctions cérébrales est consacrée à leur entretien. Si de nombreux neuroscientifiques se sont traditionnellement concentrés sur la cognition active et externe, comme l'attention, la résolution de problèmes, la mémoire de travail et la prise de décision, il apparaît de plus en plus évident que, sous la surface, notre traitement de l'information en arrière-plan est une véritable fourmilière. Notre cerveau régule les principaux systèmes physiologiques du corps, allouant les ressources là où elles sont nécessaires, tandis que nous réagissons consciemment et inconsciemment aux exigences de notre environnement en constante évolution.

" Il y a ce sentiment que le cerveau est fait pour penser ", a déclaré Jordan Theriault, neuroscientifique à l'Université Northeastern, qui n'a pas participé à la nouvelle analyse. " Sur le plan métabolique, [le cerveau] se consacre principalement à la gestion du corps, à la régulation et à la coordination entre les organes, à la gestion du coûteux système auquel il est rattaché et à la navigation dans un environnement externe complexe. "

Le cerveau n'est pas une simple machine cognitive, mais un objet façonné par l'évolution – et donc contraint par le budget énergétique serré d'un système biologique. Penser peut donc vous fatiguer, non pas parce qu'on manque d'énergie, mais parce que nous avons évolué pour préserver vos ressources. Cette étude du métabolisme neuronal, associée aux recherches sur la dynamique des décharges électriques cérébrales, met en évidence les forces évolutives concurrentes qui expliquent les limites, la portée et l'efficacité de nos capacités cognitives.

Le coût d'un moteur prédictif

Le fonctionnement du cerveau humain est extrêmement coûteux. Avec environ 2 % du poids corporel, cet organe consomme 20 % des ressources énergétiques de notre corps. " C'est un métabolisme extrêmement exigeant ", explique Jamadar. Chez les nourrissons, ce chiffre est plus proche de 50 %.

L'énergie du cerveau provient de la molécule d'adénosine triphosphate (ATP), que les cellules fabriquent à partir de glucose et d'oxygène. Une immense étendue de capillaires fins – environ 640 kilomètres de câblage vasculaire – traverse le tissu cérébral pour transporter le sang riche en glucose et en oxygène vers les neurones et autres cellules cérébrales. Une fois synthétisée au sein des cellules, l'ATP assure la communication entre les neurones, qui activent les fonctions cérébrales. Les neurones transmettent des signaux électriques à leurs synapses, qui permettent aux cellules d'échanger des messages moléculaires ; l'intensité d'un signal détermine si elles libèrent des molécules (ou " déclenchent "). Si elles le font, ce signal moléculaire détermine si le neurone suivant transmettra le message, et ainsi de suite. Le maintien de ce que l'on appelle les potentiels membranaires – des tensions stables à travers la membrane d'un neurone qui garantissent que la cellule est prête à s'activer lorsqu'elle est sollicitée – est connu pour représenter au moins la moitié du budget énergétique total du cerveau.

La mesure directe de l'ATP dans le cerveau humain est hautement invasive. C'est pourquoi, pour son article, le laboratoire de Jamadar a examiné des études., y compris leurs propres conclusions, qui ont utilisé d'autres estimations de la consommation énergétique – la consommation de glucose, mesurée par tomographie par émission de positons (TEP), et le débit sanguin, mesuré par imagerie par résonance magnétique fonctionnelle (IRMf) – pour suivre les différences dans la façon dont le cerveau utilise l'énergie pendant les tâches actives et au repos. Réalisées simultanément, la TEP et l'IRMf peuvent fournir des informations complémentaires sur la consommation cérébrale de glucose, a déclaré Jamadar. Il ne s'agit pas d'une mesure complète de la consommation énergétique cérébrale, car les tissus nerveux peuvent également convertir certains acides aminés.en ATP, mais la grande majorité de l'ATP du cerveau est produite par le métabolisme du glucose.

L'analyse de Jamadar a montré qu'un cerveau effectuant des tâches actives ne consomme que 5 % d'énergie de plus qu'un cerveau au repos. Lorsque nous sommes engagés dans une tâche exigeante et orientée vers un objectif, comme étudier les horaires de bus dans une nouvelle ville, la fréquence de décharge neuronale augmente dans les régions ou réseaux cérébraux concernés, en l'occurrence les zones de traitement visuel et linguistique. Cela explique ces 5 % supplémentaires ; les 95 % restants sont consacrés à la charge métabolique de base du cerveau.

(Photo : Le neuroscientifique Jordan Theriault de l’Université Northeastern croit que le cerveau est un moteur de prédiction qui planifie toujours ce qui va suivre.) 

Les chercheurs ne savent pas précisément comment cette charge est répartie, mais au cours des dernières décennies, ils ont clarifié ce que le cerveau fait en arrière-plan. " Vers le milieu des années 90, nous avons commencé à réaliser, en tant que discipline, qu'il se passe en réalité tout un tas de choses lorsqu'une personne est allongée au repos et qu'elle n'est pas explicitement engagée dans une tâche ", a-t-elle déclaré. " Nous avions l'habitude de considérer l'activité continue au repos, sans lien avec la tâche en cours, comme du bruit, mais nous savons maintenant que ce bruit est porteur de nombreux signaux. "

Une grande partie de ce signal provient du réseau du mode par défaut , qui fonctionne lorsque nous sommes au repos ou que nous ne sommes pas engagés dans une activité apparente. Ce réseau est impliqué dans l'expérience mentale de la dérive entre des scénarios passés, présents et futurs : ce que vous pourriez préparer pour le dîner, un souvenir de la semaine dernière, une douleur à la hanche. De plus, sous l'iceberg de la conscience, notre cerveau suit la mosaïque de variables physiques – température corporelle, glycémie, rythme cardiaque, respiration, etc. – qui doivent rester stables, dans un état appelé homéostasie, pour nous maintenir en vie. Si l'une d'entre elles s'écarte trop, la situation peut rapidement se dégrader.

Thériault suppose que la majeure partie de la charge métabolique de base du cerveau est consacrée à la prédiction. Pour atteindre ses objectifs homéostatiques, le cerveau doit constamment anticiper l'avenir, en construisant un modèle sophistiqué de l'environnement et de la façon dont les changements pourraient affecter les systèmes biologiques de l'organisme. Thériault explique que la prédiction, plutôt que la réaction, permet au cerveau de distribuer efficacement les ressources à l'organisme.

Les contraintes évolutives du cerveau

Une augmentation de 5 % de la demande énergétique pendant une pensée active peut paraître insignifiante, mais à l'échelle du corps et du cerveau, pourtant gourmand en énergie, cela peut s'accumuler. Et quand on considère les contraintes énergétiques strictes auxquelles nos ancêtres étaient soumis, la fatigue à la fin d'une journée éprouvante prend soudain tout son sens.

" La raison pour laquelle vous êtes fatigué, tout comme vous êtes fatigué après une activité physique, n'est pas parce que vous n'avez pas les calories pour la payer ", a déclaré Zahid Padamsey, neuroscientifique à Weill Cornell Medicine-Qatar, qui n'a pas participé à la nouvelle recherche. " C'est parce que nous avons évolué pour devenir des systèmes très économes… Nous avons évolué dans des environnements pauvres en énergie, nous détestons donc dépenser de l'énergie. "

Le monde moderne, où les calories sont relativement abondantes pour beaucoup, contraste fortement avec les conditions de pénurie dans lesquelles l'Homo sapiens a évolué. Cette augmentation de 5 % du taux de combustion, sur 20 jours de concentration active et persistante, peut représenter l'équivalent d'une journée entière d'énergie cognitive. Si la nourriture est rare, cela peut faire la différence entre la vie et la mort.

" Cela peut devenir considérable au fil du temps si l'on ne limite pas le taux de combustion. Je pense donc qu'il s'agit en grande partie d'un vestige de notre héritage évolutif ", a déclaré Padamsey. En fait, le cerveau possède des systèmes intégrés pour prévenir le surmenage. " On va activer des mécanismes de fatigue qui empêchent de nouvelles combustions ", a-t-il ajouté.

Pour mieux comprendre ces contraintes énergétiques, Padamsey a résumé en 2023 les recherches sur certaines particularités de la signalisation électrique. Cela indique une tendance évolutive vers l'efficacité énergétique. On pourrait croire que plus vite on transmet l'information, mieux c'est. Mais le débit optimal de transmission du cerveau est bien inférieur à ce que l'on pourrait croire.

Théoriquement, la vitesse maximale à laquelle un neurone peut s'activer et envoyer des informations à son voisin est de 500 hertz. Cependant, si les neurones s'activaient réellement à 500 hertz, le système serait complètement saturé. Le débit d'information optimal— la vitesse la plus rapide à laquelle les neurones peuvent encore distinguer les messages de leurs voisins — est la moitié de celle-ci, soit 250 hertz.

 Nos neurones, cependant, ont une fréquence de décharge moyenne de 4 hertz, soit 50 à 60 fois inférieure à la fréquence optimale pour la transmission d'informations. De plus, de nombreuses transmissions synaptiques échouent : même lorsqu'un signal électrique est envoyé à la synapse, l'amorçant à libérer des molécules vers le neurone suivant, elle ne le fait que dans 20 % des cas.

C'est parce que nous n'avons pas évolué pour maximiser la quantité totale d'informations envoyées. " Nous avons évolué pour maximiser la transmission d'informations par ATP dépensé ", explique Padamsey. " C'est une équation très différente. "En envoyant le maximum d'informations avec le moins d'énergie possible (bits par ATP), la fréquence de décharge neuronale optimale est inférieure à 10 hertz.

Au cours de l'évolution, le cerveau humain, vaste et sophistiqué, a offert un niveau de complexité comportementale sans précédent, au prix d'un coût énergétique considérable. Cette négociation, entre la flexibilité et l'innovation d'un cerveau volumineux et les contraintes énergétiques d'un système biologique, définit la dynamique de transmission de l'information par notre cerveau, la fatigue mentale ressentie après des périodes de concentration et le travail constant qu'il accomplit pour nous maintenir en vie. Qu'il accomplisse autant de choses malgré ses limites est assez étonnant.


Auteur: Internet

Info: https://www.quantamagazine.org/, Conor Feehly, 4 juin 2025

[ inconscient ] [ subconscient ] [ prévisionnel ] [ phosphorer ]

 

Commentaires: 0

Ajouté à la BD par miguel

métadonnées à valeur ajoutée MVA

"Ils profitent de notre pauvreté" : derrière le boom des intelligences artificielles génératives, le travail caché des petites mains de l'IA 

(Photo : 
Une masse d'hommes et de femmes invisibles, partout dans le monde, analysent des quantités colossales de données pour améliorer, caratériser et contextualiser les intelligences artificielles. )

La création d'algorithmes tels que ChatGPT ou Midjourney nécessite des quantités colossales de données, analysées par des humains. Des "annotateurs" indispensables mais souvent précaires, faiblement rémunérés et maintenus dans l'ombre.

"Des descriptions graphiques de viol, d'inceste, de nécrophilie... C'était ça tous les jours."  En 2021, Mophat Okinyi doit relire chaque jour plusieurs centaines de textes fournis à l'entreprise de traitement de données Sama par un client inconnu, pour entraîner un modèle d'intelligence artificielle (IA). L'objectif : préciser au logiciel ce qui pose problème dans ces textes, pour qu'il ne le reproduise pas.

Un travail rémunéré 21 000 shillings kenyans par mois (environ 150 euros) pour les employés du bas de l'échelle dont Mophat contrôlait l'activité. Cela a laissé chez lui des traces à vie. "Encore aujourd'hui, ça affecte mes relations avec ma famille, mes proches", explique l'analyste qualité kenyan. La mission qu'il décrit rappelle l'horreur à laquelle sont souvent confrontés les modérateurs des réseaux sociaux et répondait en fait, comme il le découvrira plus tard, à une commande de la start-up à la pointe de l'IA à l'origine de ChatGPT : OpenAI.

Le cas de Mophat Okinyi, extrême sous certains aspects, n'est pas non plus un exemple isolé, car derrière les grands discours de révolution technique se cache une masse de travailleurs invisibles dont les rangs se comptent en centaines de millions, selon des estimations. "On n'est pas du tout en train de créer des programmes qui se passent de l'humain, résume Antonio Casilli, professeur à l'Institut polytechnique de Paris. L'IA demande une quantité de travail humain énorme et absolument indispensable, dans toute la chaîne de production".

La majorité de cette masse humaine est très loin des grands patrons ou des ingénieurs renommés. Elle est constituée d'une armada de travailleurs anonymes éclatée à travers le monde, du Venezuela à Madagascar en passant par des camps de réfugiés au Liban et des prisons finlandaises. Des petites mains qui construisent le futur clic après clic, souvent dans un secret et une précarité bien gardés.

Cliquer encore et encore

Le prix de cette modernité ? Aux Philippines, entre 1,50 et 3 dollars par "tâche". C'est ce que la plateforme de travailleurs indépendants Remotasks verse en moyenne à Eduardo* pour placer, clic par clic, pixel par pixel, les contours qui délimitent sur une image un panneau de signalisation. Puis un véhicule. Puis un buisson. Une "tâche" qui lui prend en général une heure ou moins et qu'il répète inlassablement, huit heures par jour, six jours par semaine. Ces images serviront ensuite à entraîner des algorithmes d'analyse vidéo, par exemple pour les voitures autonomes ou la surveillance algorithmique. "C'est un travail intéressant", assure à franceinfo le jeune Philippin, qui travaille sur la plateforme depuis un peu plus de trois ans. Tout le monde ne sera pas du même avis, mais sans lui, l'appareil photo de votre smartphone aurait beaucoup de mal à identifier un visage, et la conduite semi-autonome de Tesla serait encore un rêve de science-fiction. Et vous-même y avez déjà contribué.

Que ce soit en laissant un "j'aime" sur Facebook ou en identifiant les images contenant une voiture dans un test captcha, vos retours participent à entraîner des algorithmes gratuitement depuis des années. Mais pour créer les IA qui ont bluffé le monde ces derniers mois, comme ChatGPT ou Midjourney, il faut des milliards d'exemples. Des données qui doivent souvent être "annotées", autrement dit accompagnées de commentaires, pour que la machine reproduise les catégories d'analyse de l'humain : faire comprendre que "ce tas de pixels est un enfant", que "cette phrase est fausse" ou que "cet élément évoque des comportements illégaux et ne doit pas être reproduit".

Et l'entraînement ne s'arrête jamais. "C'est un peu comme des athlètes, compare Antonio Casilli. Il faut constamment les entraîner, les adapter, les vérifier". Il s'agit d'évaluer les réponses, en soumettant aux IA des exemples toujours plus précis ou adaptés au nouveau contexte culturel. Autant de tâches qu'il est actuellement impossible d'automatiser.

"Ce n'est pas suffisant, mais c'est déjà quelque chose"

Astro* est l'un de ces nouveaux "entraîneurs d'IA". L'entrepreneur originaire de Tanzanie, qui a récemment terminé ses études de linguistique en France, réalise des tâches en indépendant à temps partiel via la plateforme Appen. "Il faut parfois isoler un visage dans une photo, dire si une image devrait apparaître dans la rubrique Souvenirs de Google Photos, si un texte est factuel ou non, créer des questions/réponses de culture générale...", explique-t-il à franceinfo. Il doit pour cela suivre des règles souvent très détaillées ("Cinquante pages à apprendre par cœur !"), au point d'en devenir parfois obscures. A la clé : 16 dollars de l'heure sur ses projets actuels. "Plus tu travailles, plus tu gagnes", explique l'indépendant. Mais encore faut-il être sélectionné pour participer au projet.

A l'autre bout du spectre, des entreprises embauchent des annotateurs en interne, notamment pour des tâches qui nécessitent une expertise précise. Mais pour nombre d'entre elles, la solution la plus rentable est souvent la sous-traitance : à des entreprises dans d'autres pays qui embauchent des annotateurs localement, comme Sama, ou encore à des plateformes comme Remotasks, Appen ou Toloka, qui transfèrent les missions à des travailleurs indépendants payés à la "micro-tâche".

"Ces travailleurs sont souvent recrutés dans des pays à faibles revenus, et géopolitiquement instables." Antonio Casilli, professeur à l'Institut polytechnique de Paris

A ces critères, Antonio Casilli ajoute des taux d'éducation et d'équipement informatique importants, l'existence d'une industrie de centres d'appels ou des relations fortes avec une ancienne puissance coloniale. Plusieurs noms de pays reviennent souvent : les Philippines, Madagascar, le Kenya, le Venezuela, le Pakistan…

Dans ces pays, un tel travail représente souvent un filet de sécurité précieux. "Ce n'est pas une source de travail fixe ou suffisante, mais c'est au moins quelque chose, résume Maria*. La crise économique au Venezuela a forcé beaucoup d'entre nous à quitter le marché du travail", raconte à franceinfo l'ingénieure industrielle, qui s'est lancée sur Remotasks à la faveur du confinement, en 2020. Après avoir suivi une formation, elle travaille aujourd'hui trois jours par semaine sur la plateforme, à raison de 10 heures par jour.

Pour quel salaire ? "Les tâches de catégorisation données par Remotasks au Venezuela peuvent prendre seulement quelques minutes et être payées 11 centimes de dollar, détaille Maria. D'autres beaucoup plus complexes peuvent durer huit heures ou plus, comme l'annotation de vidéos ou de données lidar, et être payées 10 dollars." Mais tout dépend du pays et de la difficulté de la tâche. Un "eldorado" relatif qui attire, y compris parfois des mineurs qui mentent sur leur âge pour rejoindre ces plateformes de micro-tâches, raconte le site spécialisé Wired. 

Précarité et dépendance

Mais ces espoirs ne suffisent pas à en faire un emploi de rêve. Même si une tâche peut être payée correctement par rapport au marché local, les travailleurs du clic déplorent souvent la différence de traitements entre les pays. "Les entreprises profitent de notre pauvreté", estime Andry*, annotateur à Madagascar, pour qui "un agent en Inde ou au Maroc sera mieux payé que nous". Le mode de calcul des rémunérations n'est jamais précisément expliqué.

"Il y a clairement une forme de néo-colonialisme."

Antonio Casilli, professeur à l'Institut polytechnique de Paris

Pour gagner des sommes correctes, les indépendants doivent être disponibles à toute heure du jour et de la nuit et s'adapter à des projets aux durées variables. "Sur Appen, les tâches arrivent à l'heure américaine, donc vers 21 heures en France", explique par exemple Astro*. "Sur une autre plateforme, j'ai reçu une tâche vendredi vers 19 heures, j'ai travaillé 45 heures sur le week-end, j'ai gagné 1 200 euros", résume Astro, qui dit apprécier le travail de nuit. 

Ce que certains voient comme une "opportunité professionnelle" peut aussi se transformer en piège. En Chine, des établissements promettent à leurs étudiants une formation en "IA" ou en "Big data", mais les forcent à annoter des images toute la journée pour un salaire inférieur au minimum légal, raconte le média Rest of World. Cette pratique n'est pas spécifique à la Chine, assure Antonio Casilli, qui cite également l'exemple de Madagascar.

"L'IA ne peut pas être éthique si elle est entraînée de façon immorale"

A qui profite ce travail souvent ingrat, parfois à la frontière de l'éthique ? Difficile de le savoir : l'industrie baigne dans un épais voile de secret, et comme dans le cas de Mophat Okinyi, les annotateurs indépendants savent rarement à qui sont destinées les données qu'ils traitent. "Je sais que le client est au Japon, mais c'est tout. On ne nous a rien dit sur eux", note Eduardo* à propos d'une de ses missions d'annotation, fournie par Remotasks aux Philippines.

"Les entreprises d'IA expliquent que si elles étaient pleinement transparentes sur leurs besoins en données, cela pourrait donner des indices sur leurs projets en cours et influencer les réponses des contributeurs", résume Antonio Casilli d'un ton sceptique. "Elles veulent échapper à leurs responsabilités", assène Mophat Okinyi, qui ne savait pas que son travail servirait à OpenAI avant la fin anticipée du contrat, à la demande de Sama, en mars 2022. 

"Si les annotateurs savaient qu'ils travaillent pour une entreprise qui génère des centaines de millions de dollars comme OpenAI, ils n'accepteraient pas des salaires si bas." Mophat Okinyi, ex-analyste qualité chez Sama

Ce travail peut-il être organisé de manière à satisfaire tout le monde, géants de la tech comme travailleurs du clic ? "Il faut plus de transparence, les entreprises basées à San Francisco doivent prendre leurs responsabilités", réclame Mophat Okinyi. Il s'est associé à 150 travailleurs du secteur de l'annotation et de la modération des plateformes pour créer l'Union des modérateurs de contenus du Kenya, qui devrait être autorisée "dans les deux mois", et a cofondé l'ONG Techworker Community Africa pour militer en faveur de meilleurs pratiques. "L'IA ne peut pas être éthique si elle est entraînée de façon immorale, en exploitant des gens en difficulté économique et sur des données volées", assène-t-il.

"Beaucoup de gens ne savent pas qu'il y a de l'humain derrière l'IA. Il faudrait que ce soit plus connu, et mieux payé." Astro, annotateur de données

Pour Antonio Casilli, il faut commencer par oublier l'idée que l'IA est seulement une prouesse d'ingénieurs ou d'entrepreneurs. " Nous sommes tous en quelque sorte les producteurs de ces IA, parce que ce sont nos données qui servent à les entraîner, mais nous ne sommes pas reconnus comme tels. Tant qu'on continuera à penser que l'IA est seulement l'affaire de Sam Altman, on aura un problème."

* Les prénoms suivis d'un astérisque ont été modifiés.

Auteur: Internet

Info: Francetvinfo.fr - Luc Chagnon, 9 avril 2024

[ texte-image ] [ homme-machine ] [ données intelligentes ] [ enrichies ] [ nord-sud ] [ domination économique ] [ data augmenté ] [ bases sémantiques ] [ post-colonialisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

faussaires

Quand les chercheurs trichent : l’exemple des " phrases torturées "

Trouver le terme de " conscience contrefaite " pour parler d’intelligence artificielle dans une publication scientifique semble absurde. Pourtant, c’est le principe des " phrases torturées " : remplacer un mot par un synonyme pour copier un article sans se faire démasquer par un logiciel anti-plagiat. Que nous dit cette fraude du fonctionnement du monde de la recherche ?

La barrière hémato-encéphalique est une barrière physiologique qui protège le cerveau de beaucoup de vertébrés, dont l’homme. C’est une sorte de filtre qui permet au cerveau d’être nourri en nutriments sans être intoxiqué. En anglais, elle est généralement nommée la Blood-Brain Barrier (la barrière sang-cerveau), facilement acronymisé en " BBB ". Quelle surprise, donc, de lire dans des publications scientifiques des expressions déviantes telles que blood mind boundary (limite sang-esprit), blood-cerebrum hindrance (l’entrave sang-encephale) ou encore blood-brain obstruction (l’obstruction sang-cerveau). Vous pouvez vous-mêmes trouver deux de ces expressions dans cet article publié par le Journal of Environmental Chemical Engineering.

(Photo ; Exemple de phrases torturées issu d’un article de review du Journal of Environmental Chemical Engineering.)

La raison suspectée est simple : tout comme les écoliers qui tentent de tricher en rendant leurs devoirs, certains scientifiques essaient d’augmenter le nombre de leurs publications en soumettant des articles dont des portions ont été directement copiées d’autres articles. Ces manuscrits ne peuvent cependant pas être soumis tels quels : les éditeurs scientifiques se sont armés de systèmes anti-plagiat qui analysent les documents qui leur sont soumis. Pour éviter que les paragraphes copiés ne soient immédiatement détectés par ces systèmes, les auteurs utilisent des algorithmes qui changent le texte copié en piochant des synonymes dans un thésaurus. C’est comme cela que la " barrière " hémato-encéphalique devient une " entrave " dans le texte. Malheureusement pour eux, ces programmes peuvent déraper et aller parfois jusqu’à remplacer des expressions bien établies dans le jargon scientifique.

Les chercheurs Cyril Labbé et Guillaume Cabanac ont étudié ce phénomène en profondeur. Ils proposent de nommer les résultats de ces substitutions des " tortured phrases ", des " phrases torturées ". Parmi leurs exemples célèbres, on compte par exemple " counterfeit consciousness " (conscience contrefaite) pour " artificial intelligence " (intelligence artificielle) ou encore " bosom peril " (péril poitrinaire) pour " breast cancer " (cancer du sein).

Pour systématiser la détection des phrases torturées, ainsi que d’autres signes de mauvaise qualité d’une publication, Guillaume Cabanac a construit une plate-forme, le Problematique Paper Screener. Cette base de données alimentée par des volontaires qui font remonter leurs découvertes au fil de leurs lectures compte aujourd’hui plus de 6 000 expressions reconnues comme phrases torturées. Sur plus de 17 000 articles qui ont été détectés comme étant probablement porteurs de phrases torturées, moins de 3 000 ont été rétractés. Ces chiffres sont relativement modestes, quand on sait que plusieurs millions d’articles scientifiques sont publiés chaque année. Mais cela pourrait n’être que la partie émergée de l’iceberg. Si le biomédical et l’informatique forment le gros des articles visés, on trouve certains articles qui sont en périphérie des sciences sociales.

Un jargon scientifique anglophone à double tranchant

La stratégie de substitution qui aboutit aux phrases torturées a aujourd’hui largement touché sa limite. Il est devenu beaucoup plus facile de générer des paragraphes en demandant à un " grand modèle de langage ", tel ChatGPT, de paraphraser un article existant. Pour autant, on continue toujours de découvrir de nouvelles phrases torturées, notamment par la déformation de concepts ou d’objets bien établis dans la littérature. Finalement, c’est par la casse du jargon que l’on détecte les problèmes.

Ce jargon scientifique a toujours été un outil à double tranchant. D’un côté, l’usage de noms précis, bien que parfois abscons, pour qualifier des objets ou des concepts remplit un rôle épistémologique essentiel. En utilisant un lexique spécialisé, on s’affranchit de la nécessité de redéfinir à chaque fois les axiomes sur lesquels se base la recherche qui est présentée. Il participe au " travail de démarcation " en donnant au texte un registre discursif " scientifique ", qui passe souvent par le déploiement d’une technicité du texte au service d’un objectif de description ou d’interprétation du réel. De l’autre, le jargon peut devenir tellement opaque que le lecteur profane peut ne pas se rendre compte à sa lecture qu’elle est parsemée d’expressions qui n’ont aucun sens pour personne, y compris pour les spécialistes de la discipline.

Cette opacité se conjugue aux enjeux de l’appropriation et de l’usage de l’anglais " scientifique " par différentes communautés. Beaucoup des chercheurs qui publient en anglais ont une autre langue maternelle, et peuvent parfois chercher à traduire de façon plus ou moins littérale des tournures et des idiomes de leur propre langue d’origine. D’autres ont pu apprendre une langue anglaise très située, qui a normalisé des usages qui peuvent paraître inintelligibles à des anglophones d’autres origines.

Une question morale insoluble

Que faire lorsque ces situations sont découvertes ? Qui faut-il vouer au Gémonies ? C’est une situation difficile pour tous les acteurs en présence. En pratique, le comité éditorial de la revue scientifique est souverain : c’est lui qui décide quels articles sont publiés dans ses pages, et ce qui doit advenir du passif dont il hérite. Mais il est aussi généralement " coupable " d’avoir laissé son produit être corrompu. Comment se prétendre être le garant de l’intégrité des connaissances scientifiques si on échoue dans son rôle premier de filtrer les propositions d’articles dont les contenus sont fantaisistes dès la première lecture ?

Face à ce conflit d’intérêts, on pourrait être tenté de se muer en Javert de la recherche et de devenir un archange féroce sanctionnant la trahison d’une vérité vraie. Pour se permettre ce type de jugement très tranché, il faudrait en savoir plus sur ce qui motive les auteurs à soumettre ce type de manuscrits. On imagine bien qu’ils ne s’attendent pas à recevoir un prix Nobel pour des articles dont des paragraphes entiers n’ont pas de sens. Plusieurs hypothèses s’offrent à nous : peut-être leur niveau d’anglais est insuffisant pour rédiger la partie de l’article qui leur a été dévolue ? Peut-être le paragraphe en question est-il tellement " standard " dans leur littérature, par exemple la description d’un protocole de manipulation, qu’ils ont trop rapidement cru pouvoir passer un paragraphe à la moulinette du thésaurus pour pouvoir passer à autre chose ? Peut-être sont-ils de jeunes chercheurs de pays instables, et l’obtention rapide de publications scientifiques, même fragiles, serait un moyen pour eux d’obtenir un visa vers un pays qui leur permettrait de poursuivre leurs recherches ? Il faudrait étudier cette population plus en profondeur et reconstruire le paysage des attentes qui ont pu motiver ces choix.

Une fuite en avant qui doit réinterroger sur le statut de l’attribution et du plagiat

Ces techniques de substitution sont manifestement destinées à éviter les logiciels anti-plagiat. Cela devrait nous interroger sur le statut du plagiat dans le monde scientifique, et plus largement dans la société. Le professeur de droit américain Bryan Frye défend une position originale qui mérite d’être prise au sérieux. Selon lui, les scientifiques et les artistes n’ont pas à occuper une position de propriétaire ou de rentier de concepts. En publiant en masse brevets et articles, ils organisent le versement futur de royalties, de façon pécuniaire avec des redevances ou de façon symbolique avec des citations. Le reste du monde devrait " payer " à chaque fois qu’on utilise une de " leurs " idées.

Pour autant, il n’est pas si évident que lesdites idées ou concepts doivent être ainsi protégés. Faut-il continuer à transposer aux discours scientifiques un cadre légal et symbolique inspiré de logiques industrielles, c’est-à-dire de processus produisant des résultats tangibles sortis du laboratoire et entrés dans le monde social ? Doit-on systématiquement rendre hommage à la première personne à avoir l’opportunité de publier dans telle ou telle publication la formulation d’une idée ? Faut-il se résoudre à ne voir dans le chercheur qu’un être vaniteux, avide d’une reconnaissance qui passera par la citation présente et future de ses travaux ? En un sens, on pourrait interpréter l’existence des phrases torturées comme le résultat final et absurde d’un dévoiement d’une recherche scientifique qui, par ses règles et ses modes d’organisation, conduit à privilégier la gloire plutôt que le savoir.

Reconstruire les sciences qui partagent des récits plutôt que des produits

La faillite principale dont les phrases torturées sont le symptôme est peut-être celle de la relecture par les pairs, un système qui juge de la plausibilité des récits qui sont proposés aux revues scientifiques plutôt que de la validité des résultats. Il faut rappeler ici que cette relecture est effectuée à titre gratuit par les chercheurs sur des articles qu’ils n’ont pas écrits et dont les auteurs ont été rendus anonymes. Lorsque la maison d’édition d’une revue scientifique facture un article, il garde l’argent pour lui : ni les auteurs ni les relecteurs ne touchent de revenu.

Les chercheurs ont de moins en moins le temps de relire leurs pairs, et n’ont certainement pas les ressources pour reproduire les expériences qui leur sont présentées. Les données issues des résultats expérimentaux par les auteurs originaux ne sont généralement pas non plus mises à leur disposition. La relecture par les pairs est donc le jugement de la plausibilité ou de la crédibilité d’un récit proposé dans un manuscrit plutôt que de la validité d’une découverte.

Cette problématique soulève des enjeux majeurs de reconstruction par le haut et par le bas de la façon dont les sciences sont aujourd’hui organisées. La reconstruction " par le haut " passe par des initiatives, déjà engagées, qui visent à donner moins de poids aux métriques quantitatives de nombre d’articles publiés ou de citations engrangées. La reconstruction " par le bas " devra passer par un changement de comportement des scientifiques eux-mêmes, c’est-à-dire leur façon de calibrer le partage de ce qu’ils considèrent être leur contribution épistémologique.

Certaines disciplines sont paradoxalement à la fois les plus coupables et les mieux armées. Les phrases torturées sont très présentes en informatique. Pour autant, le partage du produit des recherches par le biais de la publication de code en open-source permet généralement de tester le produit obtenu. In fine, c’est ce produit et sa réutilisation plus que le nombre de citations qui deviennent le véritable étalon de l’importance de la découverte. Cette dynamique est aussi en jeu dans le monde biomédical. Plus que l’histoire racontée dans l’article ou dans le brevet, c’est la capacité à organiser un essai clinique dont les résultats sont convaincants qui marque le réel succès. Il y a cependant un gouffre entre ces deux étapes : passer de l’article à l’industrie peut demander des millions de dollars et parfois plusieurs dizaines d’années.

Certaines initiatives ont été créées pour combler ce vide. C’est le cas de la société AddGene, qui joue le rôle de banque de plasmides, ces morceaux d’ADN circulaires qui permettent aux chercheurs de faire acquérir des traits à des bactéries. Les laboratoires de recherche peuvent accompagner leurs publications d’un envoi à cette banque, laquelle mettra à disposition de tous les autres laboratoires du monde le matériel génétique procédant de leurs résultats.

In fine, chaque communauté de recherche devra trouver la capacité d’initiative leur permettant de sortir de l’ornière. Cela ne signifie pas qu’il faille sonner le glas de l’article comme mode d’échange d’idées entre chercheurs, ou de la revue comme lieu de formalisation de ces échanges. Mais peut-être faut-il réfléchir à leur donner une place moins centrale, et à redéployer la façon dont ils partagent le processus, le produit, et le récit de leurs recherches. 



 

Auteur: Internet

Info: https://theconversation.com/, Guillaume Levrier Chercheur associé, Sciences Po, 5 janvier 2025

[ mots spécialisés ] [ transpositions masques ] [ dissimulation ] [ sémantique conservée ]

 

Commentaires: 0

Ajouté à la BD par miguel

mort imminente

Pourquoi les mourants sont souvent pris d'un accès de lucidité

De nouvelles recherches révèlent des niveaux d'activité surprenants dans les cerveaux des mourants et peuvent contribuer à expliquer la clarté soudaine que ressentent de nombreuses personnes atteintes de démence à l'approche de la mort.

Longtemps au centre des préoccupations des religions, de la philosophie et de la littérature du monde entier, l'expérience consciente de la mort a récemment fait l'objet d'une attention croissante de la part de la science. Cela se produit alors que les progrès de la médecine étendent la capacité de maintenir le corps en vie, ouvrant progressivement une fenêtre sur l'ultime pièce fermée à clé : les derniers instants de vie d'un esprit humain.

"Vers 1959, l'homme a découvert une méthode pour faire redémarrer le cœur de personnes qui seraient mortes, et nous avons appelé cela la réanimation cardio-pulmonaire", explique Sam Parnia, médecin en soins intensifs à la NYU Langone Health. Sam Parnia a étudié les souvenirs des personnes réanimées à la suite d'un arrêt cardiaque, des phénomènes qu'il qualifie d'"expériences rappelées entourant la mort". Avant la mise au point des techniques de réanimation cardio-pulmonaire, l'arrêt cardiaque était pratiquement synonyme de mort. Aujourd'hui, les médecins peuvent réanimer certaines personnes jusqu'à 20 minutes ou plus après que leur cœur a cessé de battre. En outre, selon M. Parnia, de nombreuses cellules cérébrales restent intactes pendant des heures, voire des jours, après la mort, ce qui remet en question notre idée d'une frontière rigide entre la vie et la mort.

Les progrès de la technologie médicale et des neurosciences, ainsi que les changements de perspective des chercheurs, sont en train de révolutionner notre compréhension du processus de mort. Les recherches menées au cours de la dernière décennie ont mis en évidence une augmentation de l'activité cérébrale chez les humains et les animaux victimes d'un arrêt cardiaque. Dans le même temps, de vastes enquêtes documentent les périodes de lucidité apparemment inexplicables dont le personnel des hospices et les familles endeuillées déclarent souvent avoir été témoins chez les personnes atteintes de démence qui sont en train de mourir. Le poète Dylan Thomas a adressé à ses lecteurs le célèbre avertissement suivant : "Ne t'endors pas doucement dans cette bonne nuit. Rage, rage contre l'extinction de la lumière". Mais à mesure que l'on consacre davantage de ressources à l'étude de la mort, il apparaît de plus en plus clairement que la mort n'est pas un simple affaiblissement de la lumière interne de la conscience, mais plutôt un processus incroyablement actif dans le cerveau.

QU'EST-CE QUE LA LUCIDITÉ TERMINALE ?

Depuis des décennies, les chercheurs, les soignants des hospices et les membres des familles stupéfaits observent avec effroi les personnes atteintes de la maladie d'Alzheimer ou d'autres formes de démence qui retrouvent soudainement leurs souvenirs et leur personnalité juste avant de mourir. Pour les membres de leur famille, cela peut ressembler à une seconde vie, mais pour de nombreux professionnels de la santé expérimentés, cela peut être le signe que la fin est proche. Christopher Kerr, directeur général et médecin en chef du Center for Hospice and Palliative Care à Buffalo, dans l'État de New York, a étudié les visions lucides de plusieurs centaines de malades en phase terminale. Il affirme que ces événements "se produisent généralement dans les derniers jours de la vie". Selon Andrew Peterson, de l'université George Mason, chercheur en bioéthique et en conscience, coauteur d'une étude sur ce phénomène commandée par les National Institutes of Health, cette "lucidité terminale" se définit comme le retour inattendu de facultés cognitives telles que la parole et la "connexion" avec d'autres personnes.

Cette connectivité va au-delà du retour de la capacité de communication et de la conscience de la situation perdues. Une chose qui semble être très profonde pour les membres de la famille qui observent la lucidité est l'émergence de ce que nous appelons l'"ancien moi"", explique Peterson. "Il semble évident qu'ils sont conscients non seulement de leur environnement, mais aussi de leurs relations avec les autres, qu'il s'agisse de l'utilisation d'un surnom ou d'une référence à une plaisanterie de longue date.

Aussi surprenants que ces événements puissent paraître, ils sont assez courants. "Notre étude n'était pas une étude de prévalence", précise Jason Karlawish, gérontologue au Penn Memory Center et chercheur principal de l'étude des NIH. Néanmoins, ajoute-t-il, "nous avons constaté que la lucidité était plus fréquente qu'exceptionnelle chez les patients atteints de démence, ce qui suggère que l'idée qu'elle se passe en phase terminale n'est pas tout à fait correcte". Il suggère plutôt de considérer les épisodes de lucidité comme faisant partie de "l'expérience de la maladie" plutôt que comme des événements aberrants. "Nous avons en fait constaté que plusieurs de ces épisodes se sont produits des mois, voire des années, avant le décès de la personne", note M. Karlawish. Malgré cela, de nombreux experts, dont Kerr et Parnia, s'accordent à dire que la plupart de ces épisodes sont associés à l'approche de la mort. "C'est un peu comme s'ils se préparaient à mourir", dit Parnia.

Les implications potentielles de ces résurgences cognitives temporaires et généralisées sont profondes. "Cela suggère qu'il peut y avoir des réseaux neuronaux restants, et/ou des voies et des fonctions neuronales, qui pourraient aider à restaurer les capacités cognitives de personnes que nous pensons être définitivement déficientes", explique Peterson.

Néanmoins, la recherche sur ce phénomène n'en est qu'à ses débuts. "Nous ne savons pas vraiment ce qui se passe dans le cerveau pendant le processus de mort et qui pourrait, d'une manière ou d'une autre, être lié à ces épisodes", explique M. Peterson. Malgré cette incertitude, d'autres recherches sur l'activité cérébrale à l'approche ou au moment de la mort pourraient permettre aux scientifiques et aux cliniciens de mieux comprendre certains des processus qui se déroulent dans le cerveau malade et mourant.

QUE SE PASSE-T-IL DANS LE CERVEAU AU MOMENT DE LA MORT ?

Dans une étude publiée en mai dans Proceedings of the National Academy of Sciences USA, des chercheurs de l'université du Michigan ont observé un regain d'activité cérébrale organisée chez deux personnes comateuses sur quatre qui subissaient un arrêt cardiaque après avoir été débranchées de leur respirateur artificiel. Ces travaux s'appuient sur plus d'une décennie de recherche sur les animaux, notamment une étude PNAS de 2013 qui a révélé une augmentation similaire de l'activité cérébrale synchronisée chez des rats exposés à une toxine cardiaque et une étude de 2015 dans laquelle des rats ont été tués par asphyxie. Dans toutes ces études, les chercheurs ont constaté que l'activité des ondes gamma augmentait dans les premières minutes de l'arrêt cardiaque, puis cessait. Les ondes gamma sont une fréquence d'ondes cérébrales typiquement associée à l'éveil, à la vigilance et à la mémoire.

Jimo Borjigin, neurologue et professeur agrégé de physiologie moléculaire et intégrative à l'université du Michigan, a participé aux trois études. La poussée d'ondes gamma chez les sujets mourants était particulièrement intense dans une région du cerveau que Borjigin appelle la "zone chaude corticale postérieure", située près de l'arrière du crâne. D'autres chercheurs pensent que cette région pourrait également être essentielle à l'expérience consciente. Les parties du cerveau situées dans cette zone sont liées à la perception visuelle, auditive et du mouvement, un phénomène qui, selon Mme Borjigin, est impliqué dans les expériences extracorporelles rapportées par les personnes qui ont frôlé la mort et s'en sont remises. Elle ajoute que les modèles d'activation des ondes gamma, semblables à ceux observés chez les personnes comateuses, sont associés à des activités qui incluent la reconnaissance d'une image familière, telle qu'un visage humain, chez les personnes en bonne santé.

Dans les études humaines et animales, le cerveau des sujets a montré un pic d'activité après la réduction soudaine de l'apport en oxygène, explique Mme Borjigin. "Il commence à activer ce mécanisme homéostatique pour récupérer de l'oxygène, soit en respirant plus fort, soit en accélérant le rythme cardiaque", ajoute-t-elle. Mme Borjigin émet l'hypothèse qu'une grande partie de l'augmentation de l'activité cérébrale plus complexe observée chez les humains et les animaux en arrêt cardiaque résulte également du fait que le cerveau tente de rétablir l'homéostasie, ou l'équilibre biologique, après avoir détecté un manque d'oxygène. Elle suppose en outre que ces mécanismes de survie peuvent être impliqués dans d'autres changements cognitifs entourant la mort. "Je pense que la lucidité terminale des patients atteints de démence peut être due à ce type d'efforts ultimes du cerveau" pour se préserver lorsque les systèmes physiologiques sont défaillants, explique Mme Borjigin.

M. Parnia, de NYU Langone, pense lui aussi que la réaction du cerveau à la perte d'oxygène est au moins partiellement responsable des expériences lucides entourant la mort. Entre 2017 et 2020, Parnia a dirigé une étude appelée AWARE II, dans laquelle les chercheurs ont surveillé l'activité cérébrale de plus de 500 personnes gravement malades aux États-Unis et au Royaume-Uni qui recevaient une réanimation cardio-pulmonaire. Les patients ont été exposés à des stimuli audiovisuels pendant la RCP afin de tester leur mémoire des événements survenus après l'arrêt cardiaque. Ceux qui ont survécu ont ensuite été interrogés sur leur degré de conscience pendant le processus de réanimation. Selon Parnia, un survivant sur cinq a fait état d'expériences lucides survenues après l'arrêt de son cœur. L'équipe AWARE II a également observé un pic inattendu dans l'activité cérébrale pendant la réanimation cardio-pulmonaire. "Dans les 20 secondes qui suivent l'arrêt cardiaque, le cerveau est à plat", explique M. Parnia. Cependant, "généralement dans les cinq minutes qui suivent - mais cela peut être plus long - nous constatons la réapparition d'une période transitoire d'électricité cérébrale". Il ajoute que les fréquences d'activité cérébrale observées sont similaires à celles associées à l'expérience consciente.

Parnia pense que le cerveau mourant perd les mécanismes de suppression habituels qui nous permettent de nous concentrer sur des tâches individuelles au cours de notre vie quotidienne. "Lorsque vous mourez, votre cerveau est privé d'oxygène et de nutriments, et il s'éteint", explique M. Parnia. "Ce processus d'arrêt supprime les freins... et soudain, ce qui semble se produire, c'est qu'il vous donne accès à des parties de votre cerveau auxquelles vous n'avez normalement pas accès.... Toutes vos pensées, tous vos souvenirs ou toutes vos interactions avec les autres sortent. Mais il insiste sur le fait que les expériences des personnes qui subissent un arrêt cardiaque sont lucides et ne sont pas de simples hallucinations. "Ils ne sont pas dans le délire", affirme Parnia à propos des personnes réanimées qu'il a étudiées, et ce qu'ils vivent "n'est pas un rêve ou une hallucination". Bien que ses études précédentes aient porté sur des personnes réanimées gravement malades, Parnia pense que la lucidité terminale chez les personnes comateuses ou atteintes de démence peut être le produit d'un processus similaire. Il participe actuellement à une étude sur ce dernier phénomène.

Les expériences conscientes des mourants n'ont pas encore trouvé d'explication complète. Mais les recherches montrent de plus en plus que la mort est un processus incroyablement actif et complexe - et, ce qui est peut-être plus important, "un processus humanisé", comme le décrit Kerr. Quant aux personnes atteintes de démence, M. Karlawish estime qu'au lieu de supposer que leur conscience a été irrévocablement modifiée, "nous devrions tout de même prêter une attention particulière à leur esprit, car certains aspects sont encore présents, même s'ils peuvent être très endommagés".





 

Auteur: Internet

Info: https://www.scientificamerican.com/article/why-dying-people-often-experience-a-burst-of-lucidity - Jordan Kinard le 12 juin 2023. Jordan Kinard a été stagiaire au sein du service d'opinion de Scientific American. Il est diplômé de l'université de Columbia.

[ homme-animal ] [ dégénérescence présénile ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

nanomonde verrouillé

Comment un tour de passe-passe mathématique a sauvé la physique des particules

La renormalisation est peut-être l'avancée la plus importante de la physique théorique depuis 50 ans. 

Dans les années 1940, certains physiciens avant-gardistes tombèrent sur une nouvelle couche de la réalité. Les particules n'existaient plus et les champs - entités expansives et ondulantes qui remplissent l'espace comme un océan - étaient dedans. Une ondulation dans un champ était un électron, une autre un photon, et leurs interactions semblaient expliquer tous les événements électromagnétiques.

Il n'y avait qu'un seul problème : la théorie était constituée d'espoirs et de prières. Ce n'est qu'en utilisant une technique appelée "renormalisation", qui consiste à occulter soigneusement des quantités infinies, que les chercheurs purent éviter les prédictions erronées. Le processus fonctionnait, mais même ceux qui développaient la théorie soupçonnaient qu'il s'agissait d'un château de cartes reposant sur un tour de passe-passe mathématique tortueux.

"C'est ce que j'appellerais un processus divertissant", écrira plus tard Richard Feynman. "Le fait de devoir recourir à de tels tours de passe-passe nous a empêchés de prouver que la théorie de l'électrodynamique quantique est mathématiquement cohérente.

La justification vint des décennies plus tard, d'une branche de la physique apparemment sans rapport. Les chercheurs qui étudiaient la magnétisation découvrirent que la renormalisation ne concernait aucunement les infinis. Elle évoquait plutôt la séparation de l'univers en domaines de tailles distinctes, point de vue qui guide aujourd'hui de nombreux domaines de la physique.

La renormalisation, écrit David Tong, théoricien à l'université de Cambridge, est "sans doute l'avancée la plus importante de ces 50 dernières années dans le domaine de la physique théorique".

L'histoire de deux charges

Selon certains critères, les théories des champs sont les théories les plus fructueuses de toute la science. La théorie de l'électrodynamique quantique (QED), qui constitue l'un des piliers du modèle standard de la physique des particules, a permis de faire des prédictions théoriques qui correspondent aux résultats expérimentaux avec une précision d'un sur un milliard.

Mais dans les années 1930 et 1940, l'avenir de la théorie était loin d'être assuré. L'approximation du comportement complexe des champs donnait souvent des réponses absurdes et infinies, ce qui amena certains théoriciens à penser que les théories des champs étaient peut-être une impasse.

Feynman et d'autres cherchèrent de toutes nouvelles perspectives - éventuellement même susceptibles de ramener les particules sur le devant de la scène - mais ils finirent par trouver un moyen de contourner l'obstacle. Ils constatèrent que les équations QED  permettaient d'obtenir des prédictions respectables, à condition qu'elles soient corrigées par la procédure impénétrable de renormalisation.

L'exercice est le suivant. Lorsqu'un calcul QED conduit à une somme infinie, il faut l'abréger. Mettez la partie qui tend vers l'infini dans un coefficient - un nombre fixe - placé devant la somme. Remplacez ce coefficient par une mesure finie provenant du laboratoire. Enfin, laissez la somme nouvellement apprivoisée retourner à l'infini.

Pour certains, cette méthode s'apparente à un jeu de dupes. "Ce ne sont tout simplement pas des mathématiques raisonnables", écrivit Paul Dirac, théoricien quantique novateur.

Le cœur du problème - germe de sa solution éventuelle - se trouve dans la manière dont les physiciens ont traité la charge de l'électron.

Dans ce schéma la charge électrique provient du coefficient - la valeur qui engloutit l'infini au cours du brassage mathématique. Pour les théoriciens qui s'interrogeaient sur la signification physique de la renormalisation, la théorie QED laissait entendre que l'électron avait deux charges : une charge théorique, qui était infinie, et la charge mesurée, qui ne l'était pas. Peut-être que le noyau de l'électron contenait une charge infinie. Mais dans la pratique, les effets de champ quantique (qu'on peut visualiser comme un nuage virtuel de particules positives) masquaient l'électron, de sorte que les expérimentateurs ne mesuraient qu'une charge nette modeste.

Deux physiciens, Murray Gell-Mann et Francis Low, concrétisèrent cette idée en 1954. Ils ont relié les deux charges des électrons à une charge "effective" qui varie en fonction de la distance. Plus on se rapproche (et plus on pénètre le manteau positif de l'électron), plus la charge est importante.

Leurs travaux furent les premiers à lier la renormalisation à l'idée d'échelle. Ils laissaient entendre que les physiciens quantiques avaient trouvé la bonne réponse à la mauvaise question. Plutôt que de se préoccuper des infinis, ils auraient dû s'attacher à relier le minuscule à l'énorme.

La renormalisation est "la version mathématique d'un microscope", a déclaré Astrid Eichhorn, physicienne à l'université du Danemark du Sud, qui utilise la renormalisation pour ses recherches en théorie de la gravité quantique. "Et inversement, vous pouvez commencer par le système microscopique et faire un zoom arrière. C'est une combinaison de microscope et de télescope".

La renormalisation capture la tendance de la nature à se subdiviser en mondes essentiellement indépendants.

Les aimants sauvent la mise

Un deuxième indice apparut dans le monde de la matière condensée, ici les physiciens s'interrogeaient sur la manière dont un modèle magnétique grossier parvenait à saisir les détails de certaines transformations. Le modèle d'Ising n'était guère plus qu'une grille de flèches atomiques qui ne pouvaient pointer que vers le haut ou vers le bas, mais il prédisait les comportements d'aimants réels avec une perfection improbable.

À basse température, la plupart des atomes s'alignent, ce qui magnétise le matériau. À haute température, ils deviennent désordonnés et le réseau se démagnétise. Mais à un point de transition critique, des îlots d'atomes alignés de toutes tailles coexistent. Il est essentiel de noter que la manière dont certaines quantités varient autour de ce "point critique" semble identique dans le modèle d'Ising, dans les aimants réels de différents matériaux et même dans des systèmes sans rapport, tels que la transition à haute pression où l'eau devient indiscernable de la vapeur d'eau. La découverte de ce phénomène, que les théoriciens ont appelé universalité, était aussi bizarre que de découvrir que les éléphants et les aigrettes se déplacent exactement à la même vitesse de pointe.

Les physiciens n'ont pas pour habitude de s'occuper d'objets de tailles différentes en même temps. Mais ce comportement universel autour des points critiques les obligea à tenir compte de toutes les échelles de longueur à la fois.

Leo Kadanoff, chercheur dans le domaine de la matière condensée, a compris comment procéder en 1966. Il a mis au point une technique de "spin par blocs", en décomposant une grille d'Ising trop complexe pour être abordée de front, en blocs modestes comportant quelques flèches par côté. Il calcula l'orientation moyenne d'un groupe de flèches et  remplaça tout le bloc par cette valeur. En répétant le processus, il lissa les détails fins du réseau, faisant un zoom arrière pour comprendre le comportement global du système.

Enfin, Ken Wilson -  ancien étudiant de Gell-Mann qui avait les pieds tant dans le monde de la physique des particules et de la matière condensée -  réunit les idées de Gell-Mann et de Low avec celles de Kadanoff. Son "groupe de renormalisation", qu'il décrivit pour la première fois en 1971, justifiait les calculs tortueux de la QED et a fourni une échelle permettant de gravir les échelons des systèmes universels. Ce travail a valu à Wilson un prix Nobel et a changé la physique pour toujours.

Selon Paul Fendley, théoricien de la matière condensée à l'université d'Oxford, la meilleure façon de conceptualiser le groupe de renormalisation de Wilson est de le considérer comme une "théorie des théories" reliant le microscopique au macroscopique.

Considérons la grille magnétique. Au niveau microscopique, il est facile d'écrire une équation reliant deux flèches voisines. Mais extrapoler cette simple formule à des trillions de particules est en fait impossible. Vous raisonnez à la mauvaise échelle.

Le groupe de renormalisation de Wilson décrit la transformation d'une théorie des éléments constitutifs en une théorie des structures. On commence avec une théorie de petits éléments, par exemple les atomes d'une boule de billard. On tourne la manivelle mathématique de Wilson et on obtient une théorie connexe décrivant des groupes de éléments, par exemple les molécules d'une boule de billard. En continuant de tourner la manivelle, on obtient des groupes de plus en plus grands - grappes de molécules de boules de billard, secteurs de boules de billard, et ainsi de suite. Finalement, vous voilà en mesure de calculer quelque chose d'intéressant, comme la trajectoire d'une boule de billard entière.

Telle est la magie du groupe de renormalisation : Il permet d'identifier les quantités à grande échelle qu'il est utile de mesurer et les détails microscopiques alambiqués qui peuvent être ignorés. Un surfeur s'intéresse à la hauteur des vagues, et non à la bousculade des molécules d'eau. De même, en physique subatomique, la renormalisation indique aux physiciens quand ils peuvent s'occuper d'un proton relativement simple plutôt que de son enchevêtrement de quarks intérieurs.

Le groupe de renormalisation de Wilson suggère également que les malheurs de Feynman et de ses contemporains venaient du fait qu'ils essayaient de comprendre l'électron d'infiniment près. "Nous ne nous attendons pas à ce que  ces théories soient valables jusqu'à des échelles [de distance] arbitrairement petites", a déclaré James Fraser, philosophe de la physique à l'université de Durham, au Royaume-Uni. Ajoutant : "La coupure absorbe notre ignorance de ce qui se passe aux niveaux inférieurs".

En d'autres termes, la QED et le modèle standard ne peuvent tout simplement pas dire quelle est la charge nue de l'électron à une distance de zéro nanomètre. Il s'agit de ce que les physiciens appellent des théories "effectives". Elles fonctionnent mieux sur des distances bien définies. L'un des principaux objectifs de la physique des hautes énergies étant de découvrir ce qui se passe exactement lorsque les particules deviennent encore plus proches.

Du grand au petit

Aujourd'hui, le "dippy process" de Feynman est devenu aussi omniprésent en physique que le calcul, et ses mécanismes révèlent les raisons de certains des plus grands succès de la discipline et de ses défis actuels. Avec la renormalisation, les câpres submicroscopiques compliqués ont tendance à disparaître. Ils sont peut-être réels, mais ils n'ont pas d'incidence sur le tableau d'ensemble. "La simplicité est une vertu", a déclaré M. Fendley. "Il y a un dieu là-dedans.

Ce fait mathématique illustre la tendance de la nature à se diviser en mondes essentiellement indépendants. Lorsque les ingénieurs conçoivent un gratte-ciel, ils ignorent les molécules individuelles de l'acier. Les chimistes analysent les liaisons moléculaires mais ignorent superbement les quarks et les gluons. La séparation des phénomènes par longueur, quantifiée par le groupe de renormalisation, a permis aux scientifiques de passer progressivement du grand au petit au cours des siècles, plutôt que briser toutes les échelles en même temps.

En même temps, l'hostilité de la renormalisation à l'égard des détails microscopiques va à l'encontre des efforts des physiciens modernes, avides de signes du domaine immédiatement inférieur. La séparation des échelles suggère qu'ils devront creuser en profondeur pour surmonter le penchant de la nature à dissimuler ses points les plus fins à des géants curieux comme nous.

"La renormalisation nous aide à simplifier le problème", explique Nathan Seiberg, physicien théoricien à l'Institute for Advanced Study de Princeton, dans le New Jersey. Mais "elle cache aussi ce qui se passe à très courte distance. On ne peut pas avoir le beurre et l'argent du beurre".


Auteur: Internet

Info: https://www.quantamagazine.org/. Charlie Wood, september 17, 2020

 

Commentaires: 0

Ajouté à la BD par miguel

ordre sous-jacent

La logique qui doit sous-tendre une nouvelle physique

La philosophe Karen Crowther étudie comment le tissu espace-temps pourrait émerger de quelque chose de non spatio-temporel.

La recherche de la théorie quantique de la gravité " soulève cette question ", explique Karen Crowther :  " Comment passe-t-on de cette théorie plus fondamentale à l’espace-temps ? "

Ce fut déjà un changement radical, au siècle dernier, de passer de l'espace absolu et du temps universel d'Isaac Newton à l'espace-temps à quatre dimensions d'Albert Einstein, dynamique, flexible, sensible au toucher. La théorie de la relativité générale d'Einstein a montré que la masse et l'énergie déforment la géométrie de l'espace-temps, dessinant d'étranges contours pour l'univers,  soudain devenu un lieu qui peut commencer ou finir.

Les physiciens avaient à peine commencé à comprendre ce changement qu’ils se rendirent compte que la relativité générale contenait les germes de sa propre disparition. La déformation pouvait devenir pathologique, l’espace-temps se courbant sur lui-même jusqu’à se déchirer, créant une brèche appelée singularité. Personne ne pouvait dire si les singularités étaient des déchirures dans l’univers ou des déchirures dans la théorie. Quoi qu’il en soit, l’espace-temps tel que décrit par la relativité générale ne pouvait être l’ingrédient ultime de la réalité. Et en effet, la relativité générale est en conflit avec l’autre théorie profondément réussie du XXe siècle, la mécanique quantique. Les physiciens se sont donc mis en quête d’une théorie plus profonde – une théorie de la gravité quantique – qui pourrait potentiellement décrire le monde au-delà de l’espace et du temps.

Ils sont toujours en quête de cette théorie, mais même s'ils parviennent à la trouver ils auront encore besoin d'autre chose : un pont vers l'espace-temps tel que nous le connaissons. Nous avons besoin non seulement d'une théorie de la gravité quantique, mais aussi d'une théorie de la façon dont la relativité générale en émerge. Avec un pied dans l'espace-temps et l'autre à l'extérieur, à quoi pourrait bien ressembler ce pont ?

Karen Crowther est une philosophe australienne de la physique à l'Université d'Oslo en Norvège. Auteure du manuel Effective Spacetime: Understanding Emergence in Effective Field Theory and Quantum Gravity ( 2016 ), elle fait partie d'une communauté de philosophes qui étudient l'espace-temps émergent et toutes les façons dont ce double concept remet en question nos modes de pensée habituels. Comment, demande-t-elle, pouvons-nous concevoir les lois de la physique, la causalité ou même l'univers sans espace-temps ? Et comment construire un pont vers l'espace-temps lorsque le pont lui-même ne peut pas y vivre

Quanta a interviewé Crowther quant à ce que signifie penser en dehors du cadre spatio-temporel. L'interview est ici condensée et éditée pour plus de clarté.

En quoi la recherche d’une théorie de la gravité quantique est-elle différente de la science normale ?

- En général, lorsque nous cherchons une nouvelle théorie, nous sommes motivés par une sorte de préoccupation empirique. Nous avons vu quelque chose dans le monde qui ne correspond pas à ce que prédisent nos théories, ou la théorie prédit quelque chose que nous n’observons pas dans le monde. Dans le cas de la gravité quantique, ce n’est pas le cas. Il s’agit plutôt d’une question de cohérence ou d’unification théorique. Nous avons ces deux visions contradictoires : la théorie quantique et la relativité générale. Elles disent des choses différentes sur le monde. Nous voulons donc une certaine cohérence. Mais les endroits [comme l’intérieur des trous noirs ou le Big Bang] où  mettre les deux théories ensemble sont des lieux que nous ne pouvons pas tester directement ou auxquels nous ne pouvons pas accéder. Peut-être pas maintenant, peut-être jamais.

(photo : Crowther donne une conférence intitulée " Pensez par vous-même ! " dans l'auditorium Arne Næss de l'université d'Oslo.)

Pourquoi les singularités de la relativité générale impliquent-elles que l’espace-temps ne peut pas être la réalité ultime ?

Nous tendons à considérer ces singularités comme un " trou ", un orifice vide,  ou un " point manquant " de l'espace-temps. Mais ce n'est pas vraiment le cas, car où se situerait pareil vide ? Par définition, il ne se trouve nulle part dans l'espace-temps. Alors, où donc la relativité générale s'effondre-t-elle exactement ? Il n'est pas vraiment possible de répondre à cette question, puisque nous parlons de la rupture de l'espace-temps lui-même.

Un certain genre de singularité sera par exemple une  trajectoire dans l'espace-temps qui tout simplement se termine, ce qui signifie que les objets qui suivent pareille trajectoire peuvent entrer et sortir de l'existence de manière aléatoire. Les singularités introduisent l'imprévisibilité et l'indéterminisme. Voilà qui pourrait indiquer que la relativité générale est incomplète et qu'une théorie de la gravité quantique doit la remplacer.

Ensuite, nous avons les singularités de courbure, qui correspondent à peu près à l'idée d'une courbure de l'espace-temps qui " explose ", qui augmente sans limite. Elles sont également assez inquiétantes, car elles signifieraient qu'existent des forces de marée illimitées capables de tout mettre en lambeaux. Le consensus parmi les physiciens est que ces singularités ne sont que des problèmes de théorie.

L'idée est que l'espace-temps émerge d'une théorie plus profonde. D'un point de vue philosophique, comment expliquer que l'espace-temps est émergent ?

- Cela signifie qu'il y a quelque chose de plus fondamental, et que l'espace-temps n'existe à notre niveau que comme un genre  d'approximation.

Il existe une idée selon laquelle toutes les explications pointent vers l'infiniment petit. Les petites choses sont plus fondamentales que les grandes, les atomes et les particules quantiques sont plus fondamentaux que les tables et les chaises.

Mais si nous pensons que la gravité quantique décrit une physique non spatio-temporelle, nous ne pouvons plus parler d'échelles de longueur. L'idée même de mesure s'effondre.  La gravité quantique ne peut donc pas être plus fondamentale simplement parce qu'elle décrit des phénomènes plus petits ; elle doit être plus fondamentale parce qu'elle décrit des phénomènes plus nombreux. (Et élargir le cadre ? note de MG).

On craint, comme le dit le philosophe Tim Maudlin , que toute théorie qui ne prend pas en compte l'espace-temps soit empiriquement incohérente. Lorsque nous testons nos théories, nous faisons des expériences dans l'espace et le temps ; nous observons les valeurs d'un cadran, qui est un point spatio-temporel, la position de l'aiguille à un moment donné. Donc, si nous avons une théorie sans espace-temps - qui ne contient pas de choses détectables localement, comment pouvons-nous la tester ?

Le moyen de résoudre ce problème serait alors de récupérer, ou de dériver, l'espace-temps à partir d'un processus-théorie non spatio-temporel. Ici l'émergence est nécessaire pour faire ce lien.

- Comment cela pourrait-il fonctionner ?

- On peut par exemple considérer l’émergence comme une hiérarchie de niveaux. Si on pense aux vagues, à un niveau, il y a des molécules, puis lorsque on en rassemble un grand nombre et qu'on zoome vers une énergie plus faible ou des distances plus grandes, se dessine alors le phénomène émergent de la vague. Dans un cadre spatio-temporel, l’espace-temps serait l'émersion du comportement collectif de ses éléments constitutifs les plus fondamentaux, de " ses atomes " peut-être. Le problème étant que nous sommes réduits à définir l’idée de niveaux en termes de longueurs spatiales.

Une autre idée est celle de l’émergence de quelque chose d'antérieur – par exemple, un papillon émergeant d’une chenille ou d’une chrysalide. Il subit une transformation complète. Ce serait comme parler du Big Bang avant l’apparition de l’espace-temps.

Le véritable défi en matière d'émergence consiste donc à donner sens à la relation entre ce qui émerge et d'où celà émerge. Sans ce lien, pas d'émergence. Et ce lien lui-même ne peut être spatial ou temporel.

- Nos idées habituelles sur l'émergence intègrent déjà l'espace et le temps, et nous avons maintenant besoin d'une nouvelle façon de les appréhender. À quoi cela pourrait-il ressembler ?

- J'aime comprendre cela sous forme de trois caractéristiques : la dépendance, la nouveauté et l'autonomie. La physique moins fondamentale dépend d'une certaine manière d'une physique plus fondamentale – l'espace-temps résultant de la physique de la gravité quantique. Cela serait démontré si la relativité générale pouvait être déduite de la gravité quantique. Mais l'espace-temps et son comportement sont très différents de la physique de la gravité quantique sous-jacente, il y a donc un élément de nouveauté – par exemple, si la physique sous-jacente n'est pas spatio-temporelle. Et enfin, le comportement de l'espace-temps semble également quelque peu autonome, ou indépendant, de la physique gravitationnelle quantique particulière dont il émerge.

- La physique de la gravité quantique suggère-t-elle que l’espace et le temps ne sont peut-être que des concepts que nous utilisons et non la matière même du monde ?

- Il y a cette idée [ du philosophe du XVIIIe siècle Emmanuel Kant ] selon laquelle nous devons imposer des concepts spatiotemporels au monde, car nous pensons nécessairement en termes d'espace et de temps, et il nous est très, très difficile de travailler sans ces concepts. Toute la physique connue les utilise. Alors comment conceptualisons-nous ce que nous faisons avec la gravité quantique ? Nous dessinons ces diagrammes dans [ nos théories de la gravité quantique ]. Mais en dessinant ces choses, nous les représentons spatio-temporellement, car nous ne savons pas faire autrement... alors qu'on ne peut pas les considérer comme étant réellement quelque part.  Alors se pose la question : qu'en est-il de la physique ? Que faisons-nous ? Avons-nous repoussé les limites de ce que nous sommes capables de faire ?

Kant pensait que l'espace était si fondamental que nous ne pouvions pas nous en passer. Il considérait la géométrie comme euclidienne ; il ne pouvait rien imaginer d'autre. [ Note de l'éditeur : l'espace euclidien est plat, ce qui signifie que la somme des angles intérieurs d'un triangle est égale à 180 degrés ].  Et cela s'est avéré faux : la théorie d'Einstein a révélé que nous pouvons avoir différentes géométries déformées. Ce qui indique que même si nous pensons qu'il existe des concepts que nous devons nécessairement utiliser, il pourrait en exister d'autres.

(photo : Karen Crowther attend le bus en route vers l'université.) 

- Y a-t-il une approche que vous trouvez la plus prometteuse ou la plus intéressante sur le plan philosophique ?

- La théorie des cordes est très intéressante en raison de l'idée de dualité. Différentes formes de théorie des cordes décrivent des structures d'espace-temps très différentes, avec des dimensions variables, et pourtant elles s'équivalentes les unes aux autres. On ne peut pas dire laquelle est la plus émergente. Il me semble donc qu'il faut pointer vers quelque chose de plus profond.

- Sans preuve empirique, voire même sans possibilité de preuve, les chercheurs en gravitation quantique semblent accorder plus de poids que d’habitude aux principes, aux expériences de pensée, voire à des qualités comme la simplicité et l’élégance. Comment ces critères se situent-ils par rapport à l’histoire des sciences ? S’agit-il encore de science ?

- Je m’intéresse aux principes de base que les gens appliquent et aussi ce qu'on peut attendre d'une théorie de la gravité quantique. Tous ces principes ou contraintes ne s'accordent pas bien entre eux. Il se peut donc que nous devions en abandonner ou en modifier certains. Je me suis récemment demandée quelle serait la contrainte la plus fondamentale de la gravité quantique. Je pense que c'est quelque chose qui touche à la cohérence. Nous essayons d'unifier la relativité générale avec la mécanique quantique pour obtenir une image cohérente de l'univers. Nous voulons que les mathématiques soient également cohérentes.  Lorsque nous sommes à la recherche de nouvelles théories, la physique devient toujours philosophique.*

Auteur: Internet

Info: https://www.quantamagazine.org/. Amanda Gefter, 25 septembre 2024. Traduction Mg et quques AIs. *et pourquoi pas spirituel ? ajout de Mg

[ langage limitant ] [ atemporalité ] [ niveau vibratoire ? ] [ dépassement conceptuel ]

 

Commentaires: 0

Ajouté à la BD par miguel

legos protéiques

De nouveaux outils d’IA prédisent comment les blocs de construction de la vie s’assemblent

AlphaFold3 de Google DeepMind et d'autres algorithmes d'apprentissage profond peuvent désormais prédire la forme des complexes en interaction de protéines, d'ADN, d'ARN et d'autres molécules, capturant ainsi mieux les paysages biologiques des cellules.

Les protéines sont les machines moléculaires qui soutiennent chaque cellule et chaque organisme, et savoir à quoi elles ressemblent sera essentiel pour comprendre comment elles fonctionnent normalement et fonctionnent mal en cas de maladie. Aujourd’hui, les chercheurs ont fait un grand pas en avant vers cet objectif grâce au développement de nouveaux algorithmes d’apprentissage automatique capables de prédire les formes rdéployées et repliées non seulement des protéines mais aussi d’autres biomolécules avec une précision sans précédent.

Dans un article publié aujourd'hui dans Nature , Google DeepMind et sa société dérivée Isomorphic Labs ont annoncé la dernière itération de leur programme AlphaFold, AlphaFold3, capable de prédire les structures des protéines, de l'ADN, de l'ARN, des ligands et d'autres biomolécules, seuls ou liés ensemble dans différentes configurations. Les résultats font suite à une mise à jour similaire d'un autre algorithme de prédiction de structure d'apprentissage profond, appelé RoseTTAFold All-Atom, publié en mars dans Science .

Même si les versions précédentes de ces algorithmes pouvaient prédire la structure des protéines – une réussite remarquable en soi – elles ne sont pas allées assez loin pour dissiper les mystères des processus biologiques, car les protéines agissent rarement seules. "Chaque fois que je donnais une conférence AlphaFold2, je pouvais presque deviner quelles seraient les questions", a déclaré John Jumper, qui dirige l'équipe AlphaFold chez Google DeepMind. "Quelqu'un allait lever la main et dire : 'Oui, mais ma protéine interagit avec l'ADN.' Pouvez-vous me dire comment ?' " Jumper devrait bien admettre qu'AlphaFold2 ne connaissait pas la réponse.

Mais AlphaFold3 pourrait le faire. Avec d’autres algorithmes d’apprentissage profond émergents, il va au-delà des protéines et s’étend sur un paysage biologique plus complexe et plus pertinent qui comprend une bien plus grande diversité de molécules interagissant dans les cellules.

" On découvre désormais toutes les interactions complexes qui comptent en biologie ", a déclaré Brenda Rubenstein , professeure agrégée de chimie et de physique à l'Université Brown, qui n'a participé à aucune des deux études. " On commence à avoir une vision plus large."

Comprendre ces interactions est " fondamental pour la fonction biologique ", a déclaré Paul Adams , biophysicien moléculaire au Lawrence Berkeley National Laboratory qui n’a également participé à aucune des deux études. " Les deux groupes ont fait des progrès significatifs pour résoudre ce problème. "

Les deux algorithmes ont leurs limites, mais ils ont le potentiel d’évoluer vers des outils de prédiction encore plus puissants. Dans les mois à venir, les scientifiques commenceront à les tester et, ce faisant, ils révéleront à quel point ces algorithmes pourraient être utiles.

Progrès de l’IA en biologie

L’apprentissage profond est une variante de l’apprentissage automatique vaguement inspirée du cerveau humain. Ces algorithmes informatiques sont construits à l’aide de réseaux complexes de nœuds d’information (appelés neurones) qui forment des connexions en couches les unes avec les autres. Les chercheurs fournissent au réseau d’apprentissage profond des données d’entraînement, que l’algorithme utilise pour ajuster les forces relatives des connexions entre les neurones afin de produire des résultats toujours plus proches des exemples d’entraînement. Dans le cas des systèmes d'intelligence artificielle protéique, ce processus amène le réseau à produire de meilleures prédictions des formes des protéines sur la base de leurs données de séquence d'acides aminés.

AlphaFold2, sorti en 2021, a constitué une avancée majeure dans l’apprentissage profond en biologie. Il a ouvert la voie à un monde immense de structures protéiques jusque-là inconnues et est déjà devenu un outil utile pour les chercheurs qui cherchent à tout comprendre, depuis les structures cellulaires jusqu'à la tuberculose. Cela a également inspiré le développement d’outils supplémentaires d’apprentissage biologique profond. Plus particulièrement, le biochimiste David Baker et son équipe de l’Université de Washington ont développé en 2021 un algorithme concurrent appelé RoseTTAFold , qui, comme AlphaFold2, prédit les structures protéiques à partir de séquences de données.

Depuis, les deux algorithmes ont été mis à jour avec de nouvelles fonctionnalités. RoseTTAFold Diffusion pourrait être utilisé pour concevoir de nouvelles protéines qui n’existent pas dans la nature. AlphaFold Multimer pourrait étudier l’interaction de plusieurs protéines. " Mais ce que nous avons laissé sans réponse ", a déclaré Jumper, " était : comment les protéines communiquent-elles avec le reste de la cellule ? "

Le succès des premières itérations d'algorithmes d'apprentissage profond de prédiction des protéines reposait sur la disponibilité de bonnes données d'entraînement : environ 140 000 structures protéiques validées qui avaient été déposées pendant 50 ans dans la banque de données sur les protéines. De plus en plus, les biologistes ont également déposé les structures de petites molécules, d'ADN, d'ARN et leurs combinaisons. Dans cette expansion de l'algorithme d'AlphaFold pour inclure davantage de biomolécules, " la plus grande inconnue ", a déclaré Jumper, "est de savoir s'il y aurait suffisamment de données pour permettre à l'algorithme de prédire avec précision les complexes de protéines avec ces autres molécules."

Apparemment oui. Fin 2023, Baker puis Jumper ont publié les versions préliminaires de leurs nouveaux outils d’IA, et depuis, ils soumettent leurs algorithmes à un examen par les pairs.

Les deux systèmes d'IA répondent à la même question, mais les architectures sous-jacentes de leurs méthodes d'apprentissage profond diffèrent, a déclaré Mohammed AlQuraishi , biologiste des systèmes à l'Université de Columbia qui n'est impliqué dans aucun des deux systèmes. L'équipe de Jumper a utilisé un processus appelé diffusion – technologie qui alimente la plupart des systèmes d'IA génératifs non basés sur du texte, tels que Midjourney et DALL·E, qui génèrent des œuvres d'art basées sur des invites textuelles, a expliqué AlQuraishi. Au lieu de prédire directement la structure moléculaire puis de l’améliorer, ce type de modèle produit d’abord une image floue et l’affine de manière itérative.

D'un point de vue technique, il n'y a pas de grand saut entre RoseTTAFold et RoseTTAFold All-Atom, a déclaré AlQuraishi. Baker n'a pas modifié massivement l'architecture sous-jacente de RoseTTAFold, mais l'a mise à jour pour inclure les règles connues des interactions biochimiques. L'algorithme n'utilise pas la diffusion pour prédire les structures biomoléculaires. Cependant, l'IA de Baker pour la conception de protéines le fait. La dernière itération de ce programme, connue sous le nom de RoseTTAFold Diffusion All-Atom, permet de concevoir de nouvelles biomolécules en plus des protéines.

" Le type de dividendes qui pourraient découler de la possibilité d'appliquer les technologies d'IA générative aux biomolécules n'est que partiellement réalisé grâce à la conception de protéines", a déclaré AlQuraishi. "Si nous pouvions faire aussi bien avec de petites molécules, ce serait incroyable." 

Évaluer la concurrence

Côte à côte, AlphaFold3 semble être plus précis que RoseTTAFold All-Atom. Par exemple, dans leur analyse dans Nature , l'équipe de Google a constaté que leur outil est précis à environ 76 % pour prédire les structures des protéines interagissant avec de petites molécules appelées ligands, contre une précision d'environ 42 % pour RoseTTAFold All-Atom et 52 % pour le meilleur. outils alternatifs disponibles.

Les performances de prédiction de structure d'AlphaFold3 sont " très impressionnantes ", a déclaré Baker, " et meilleures que celles de RoseTTAFold All-Atom ".

Toutefois, ces chiffres sont basés sur un ensemble de données limité qui n'est pas très performant, a expliqué AlQuraishi. Il ne s’attend pas à ce que toutes les prédictions concernant les complexes protéiques obtiennent un score aussi élevé. Et il est certain que les nouveaux outils d’IA ne sont pas encore assez puissants pour soutenir à eux seuls un programme robuste de découverte de médicaments, car cela nécessite que les chercheurs comprennent des interactions biomoléculaires complexes. Pourtant, " c'est vraiment prometteur ", a-t-il déclaré, et nettement meilleur que ce qui existait auparavant.

Adams est d'accord. "Si quelqu'un prétend pouvoir utiliser cela demain pour développer des médicaments avec précision, je n'y crois pas", a-t-il déclaré. " Les deux méthodes sont encore limitées dans leur précision, [mais] les deux constituent des améliorations spectaculaires par rapport à ce qui était possible. "

(Image gif, tournante, en 3D : AlphaFold3 peut prédire la forme de complexes biomoléculaires, comme cette protéine de pointe provenant d'un virus du rhume. Les structures prédites de deux protéines sont visualisées en bleu et vert, tandis que les petites molécules (ligands) liées aux protéines sont représentées en jaune. La structure expérimentale connue de la protéine est encadrée en gris.)

Ils seront particulièrement utiles pour créer des prédictions approximatives qui pourront ensuite être testées informatiquement ou expérimentalement. Le biochimiste Frank Uhlmann a eu l'occasion de pré-tester AlphaFold3 après avoir croisé un employé de Google dans un couloir du Francis Crick Institute de Londres, où il travaille. Il a décidé de rechercher une interaction protéine-ADN qui était " vraiment déroutante pour nous ", a-t-il déclaré. AlphaFold3 a craché une prédiction qu'ils testent actuellement expérimentalement en laboratoire. "Nous avons déjà de nouvelles idées qui pourraient vraiment fonctionner", a déclaré Uhlmann. " C'est un formidable outil de découverte. "

Il reste néanmoins beaucoup à améliorer. Lorsque RoseTTAFold All-Atom prédit les structures de complexes de protéines et de petites molécules, il place parfois les molécules dans la bonne poche d'une protéine mais pas dans la bonne orientation. AlphaFold3 prédit parfois de manière incorrecte la chiralité d'une molécule – l'orientation géométrique distincte " gauche " ou " droite " de sa structure. Parfois, il hallucine ou crée des structures inexactes.

Et les deux algorithmes produisent toujours des images statiques des protéines et de leurs complexes. Dans une cellule, les protéines sont dynamiques et peuvent changer en fonction de leur environnement : elles se déplacent, tournent et passent par différentes conformations. Il sera difficile de résoudre ce problème, a déclaré Adams, principalement en raison du manque de données de formation. " Ce serait formidable de déployer des efforts concertés pour collecter des données expérimentales conçues pour éclairer ces défis ", a-t-il déclaré.

Un changement majeur dans le nouveau produit de Google est qu'il ne sera pas open source. Lorsque l’équipe a publié AlphaFold2, elle a publié le code sous-jacent, qui a permis aux biologistes de reproduire et de jouer avec l’algorithme dans leurs propres laboratoires. Mais le code d'AlphaFold3 ne sera pas accessible au public.

 " Ils semblent décrire la méthode en détail. Mais pour le moment, au moins, personne ne peut l’exécuter et l’utiliser comme il l’a fait avec [AlphaFold2] ", a déclaré AlQuraishi. C’est " un grand pas en arrière. Nous essaierons bien sûr de le reproduire."

Google a cependant annoncé qu'il prenait des mesures pour rendre le produit accessible en proposant un nouveau serveur AlphaFold aux biologistes exécutant AlphaFold3. Prédire les structures biomoléculaires nécessite une tonne de puissance de calcul : même dans un laboratoire comme Francis Crick, qui héberge des clusters informatiques hautes performances, il faut environ une semaine pour produire un résultat, a déclaré Uhlmann. En comparaison, les serveurs plus puissants de Google peuvent faire une prédiction en 10 minutes, a-t-il déclaré, et les scientifiques du monde entier pourront les utiliser. "Cela va démocratiser complètement la recherche sur la prédiction des protéines", a déclaré Uhlmann.

Le véritable impact de ces outils ne sera pas connu avant des mois ou des années, alors que les biologistes commenceront à les tester et à les utiliser dans la recherche. Et ils continueront à évoluer. La prochaine étape de l'apprentissage profond en biologie moléculaire consiste à " gravir l'échelle de la complexité biologique ", a déclaré Baker, au-delà même des complexes biomoléculaires prédits par AlphaFold3 et RoseTTAFold All-Atom. Mais si l’histoire de l’IA en matière de structure protéique peut prédire l’avenir, alors ces modèles d’apprentissage profond de nouvelle génération continueront d’aider les scientifiques à révéler les interactions complexes qui font que la vie se réalise.

" Il y a tellement plus à comprendre ", a déclaré Jumper. "C'est juste le début."

Auteur: Internet

Info: https://www.quantamagazine.org/new-ai-tools-predict-how-lifes-building-blocks-assemble-20240508/ - Yasemin Saplakoglu, 8 mai 2024

[ briques du vivant ] [ texte-image ] [ modélisation mobiles ] [ nano mécanismes du vivant ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-animal

La signification des meuglements des vaches, et autres histoires animales surprenantes
Vous pensez bien connaître les animaux? Pourtant les scientifiques qui les étudient leur découvrent régulièrement de nouvelles habiletés, intelligences et savoir-être étonnants.

C'est ce que raconte la journaliste spécialiste des sciences Aline Richard Zivohlava dans son ouvrage "Dans la peau des bêtes", paru en mai aux éditions Plon. Elle se glisse dans la peau de différents animaux pour un récit à la première personne. Nous en publions ci-dessous des extraits. Le titre et les intertitres sont de la rédaction de Slate.

Les corbeaux clairvoyants
L’histoire des Corneilles noires de la ville de Sendai, au Japon, a fait le tour du monde. À des branches de noyer plantés le long des routes pendaient de savoureuses noix, mais elles étaient, dans leurs coques vertes, inaccessibles à nos becs. C’est alors que mes congénères ont appris le code de la route. Au feu rouge, l’oiseau dépose sa noix devant la voiture, qui l’écrase au feu vert, et dont les fragments sont récupérés au feu rouge suivant. Malin, non? Et même carrément intelligent.

Les recherches scientifiques de ces dernières années ont révélé des capacités insoupçonnées chez les corvidés, en particulier dans le domaine de la cognition. Certains de nos savoir-faire avaient pourtant été remarqués dans le passé, mais vous n’aviez pas su les analyser… Vous rappelez-vous d’Ésope, le fabuliste qui a commis "Le Corbeau et le Renard", que nous critiquions tout à l’heure? Nous lui avons volontiers pardonné son écart puisqu’il a rendu hommage à l’ingéniosité de la corneille dans la comptine suivante: "La Corneille ayant soif, trouva par hasard une cruche où il y avait un peu d’eau; mais comme la cruche était trop profonde, elle n’y pouvait atteindre pour se désaltérer. Elle essaya d’abord de rompre la cruche avec son bec; mais n’en pouvant venir à bout, elle s’avisa d’y jeter plusieurs petits cailloux, qui firent monter l’eau jusqu’au bord de la cruche. Alors elle but tout à son aise."

Deux douzaines de siècles plus tard, en 2014, cette fable a été reproduite dans un laboratoire de l’université d’Auckland, en Nouvelle-Zélande. Des chercheurs ont voulu savoir si différents corvidés –Corbeaux calédoniens, Corbeaux freux et Geais des chênes– se montraient aussi clairvoyants que l’oiseau du fabuliste. Expérience réussie: soit deux tubes de verre, un large et un étroit, reliés entre eux par un mécanisme de vases communicants et à moitié remplis d’eau. Dans le premier, un morceau de liège flotte, agrémenté d’un morceau de viande. Tube trop étroit pour y plonger le bec. Les oiseaux ont dû trouver un moyen d’atteindre la nourriture: ils ont jeté des petits cailloux dans le tube large ne contenant pas le morceau de viande, pour faire monter l’eau dans le second tube étroit, et récupérer la récompense. C’est ce que l’on appelle effectuer une relation de cause à effet. Incroyable, quand on sait que, soumis au même test, les petits humains ne le réussissent que vers l’âge de 7 ans.

Les corbeaux sont capables de se priver dans l’immédiat pour une meilleure récompense dans le futur, une opération cognitive complexe.

La conclusion semble couler de source: des corbeaux aussi intelligents que vous, à l’âge de raison des petits humains! Mais au risque de décevoir mes congénères, je n’irai pas jusque-là. Rien ne prouve en effet que les mécanismes mentaux mis en jeu soient les mêmes pour nos deux espèces. Et la faculté spontanée de raisonner dans l’abstrait par le biais d’un processus d’association n’est pas forcément équivalente à ce que vous, humains, entendez généralement par "intelligence".

Il fallait en savoir plus. Les scientifiques qui nous étudient ont d’abord observé nos capacités cognitives liées à la vie en société. Tout comme vous, les corvidés activent leurs neurones pour améliorer leur cadre de vie, interagir avec leurs semblables, obtenir le meilleur pour eux-mêmes et leurs proches… La gestion de la nourriture est un enjeu majeur pour tout être vivant, et, pour nous autres corbeaux, l’occasion d’exercer notre mémoire et même de se projeter dans l’avenir. Des chercheurs britanniques ont par exemple montré que des geais, qui ont l’habitude de cacher leur nourriture, étaient capables de "classer" leurs aliments en fonction du temps écoulé avant la consommation: ils déterraient d’abord les caches de vers de terre, très appréciés mais périssables, avant celles des cacahuètes, moins goûteuses mais plus durables.

Les corbeaux sont aussi capables de se priver dans l’immédiat pour une meilleure récompense dans le futur, une opération cognitive complexe que vous pensiez réservée aux humains et aux grands singes. Une expérience menée en 2017 à l’université de Lund, en Suède, sur des corbeaux dressés consistait à leur faire choisir une friandise à dévorer tout de suite, ou bien un outil permettant d’ouvrir une boîte contenant une friandise plus grosse, au prix de quinze minutes d’efforts. La plupart des corbeaux ont choisi l’outil. Cela suggère la capacité de contrôle de soi et celle d’anticipation.

S’alimenter, c’est aussi coopérer mais parfois se fâcher quand un comportement est jugé incorrect. Dans une expérimentation menée dans un laboratoire à Vienne, des grands corbeaux ont su s’allier en tirant de concert deux bouts de ficelle pour récupérer deux parts de fromage: si l’un des oiseaux n’avait pas joué le jeu, aucun des deux n’aurait pu en profiter. Mais, dans une autre série d’expériences, il est arrivé qu’un des oiseaux ruse pour s’approprier tout le fromage. L’autre a alors refusé de coopérer plus avant avec le tricheur.

Les poulpes farceurs
Ces dernières années, nombre de nos capacités cognitives ont été découvertes par les scientifiques qui nous observent. Par exemple, notre dextérité au maniement des outils, faculté que l’on pensait réservée aux animaux "supérieurs". En 2009, quatre pieuvres de l’espèce Amphioctopus marginatus, habitantes des eaux chaudes de l’ouest du Pacifique, ont été filmées en train de manipuler des coquilles de noix de coco pour s’en faire une armure de protection contre les prédateurs, puis se balader, ainsi équipées, sur le plancher marin. La vidéo a intéressé les chercheurs…

Et enchanté le grand public: sans être encore aussi populaires que ceux consacrés aux chatons mignons, les films de poulpes malins font les beaux jours de votre Internet. Sur YouTube, 3 millions de vidéos sont disponibles! C’est ainsi que les humains ont pu découvrir les talents d’Inky, notre maître-poulpe de l’évasion. Cantonné dans son aquarium de Nouvelle-Zélande, Inky a profité de l’inattention d’un gardien qui n’avait pas bien fermé son réceptacle pour déverrouiller le dispositif, glisser au sol, et emprunter un tuyau d’un diamètre de 15 centimètres (!) se déversant dans l’océan Pacifique.

Stratégie, adaptation, innovation… Autant de qualités qui marquent, pour le moins, une belle intelligence des situations.Nous sommes aussi capables d’apprendre par observation et de manipuler des règles logiques: facultés d’autant plus étonnantes que nous n’avons pas eu de parents pour nous les enseigner. Des chercheurs ont installé des pieuvres devant un labyrinthe, elles ont su s’orienter en observant des congénères, puis en fonction d’indices visuels mis à leur disposition. Dans une autre expérience, on nous a placées devant cinq portes fermées, chacune marquée d’un symbole. Il fallait trouver celle donnant accès à un crabe, friandise que nous apprécions parmi toutes. Nous avons réussi à repérer la bonne porte, et appris à reconnaître son symbole même quand les scientifiques le changeaient de place. Et nous sommes capables de retenir plusieurs jours ces informations apprises, signe d’une bonne mémoire.

De même, nous jouons: un comportement évolué, peu commun chez les invertébrés. Sarah Zylinski, biologiste à l’université de Leeds, au Royaume-Uni, a observé un poulpe de l’espèce Octopus bimaculoides se livrer au jeu du chat et de la souris avec un crabe. En pleine mer, plusieurs plongeurs qui nous observaient ont eu la surprise de voir un tentacule taquin tenter de leur retirer leur masque à oxygène… En captivité, nous jonglons dans l’aquarium avec les petits cubes en plastique que vous nous envoyez. Et ne croyez pas que nous ne savons pas qui vous êtes.

En 2010, à l’aquarium de Seattle, aux États-Unis, deux membres de l’équipe soignante se sont livrés au jeu bien connu du "bad cop-good cop": l’un nous nourrissait avec douceur, l’autre nous touchait avec un bâton piquant. Après deux semaines, racontent les scientifiques qui ont organisé cette expérience, les huit pieuvres de l’aquarium se comportaient différemment avec l’un et l’autre, habillé pourtant du même uniforme.

En captivité, nous savons parfaitement vous faire passer des messages. La chercheuse de Leeds rapporte que des seiches, impatientes d’être nourries, aspergeaient d’eau leur gardien s’il tardait. Et, dans un parc zoologique en Allemagne, un poulpe est monté sur le bord de son aquarium pour inonder un spot dont la lumière devait le gêner.

La science n’a pas fini de dévoiler tout ce qu’il y a d’extraordinaire en nous. En avril 2017, un article scientifique, fort technique puisqu’il a été publié dans la revue Cell (dédiée à la biologie moléculaire et cellulaire), a suggéré que nous évoluions différemment de presque tous les êtres vivants de la planète: certains d’entre nous sont en effet capables de modifier à plusieurs reprises leur séquence d’ARN (acide ribonucléique, l’autre "molécule du vivant" avec l’ADN) et de l’éditer, pour mieux s’adapter à notre environnement. S’ensuivent, par exemple, des modifications de notre cerveau pour pouvoir prospérer dans des eaux aux températures différentes. Bien pratique en cette période de changements climatiques! Ludovic vous l’avait bien dit: nous sommes de véritables extraterrestres du fond des mers.

Les vaches communiquantes
La vache a ses sens en éveil. À l’inverse de ce que certains stupides imaginent, un regard bovin est un regard expert: une vision à 330 degrés, sans bouger la tête, qu’en dites-vous? Il est vrai que nous sommes plutôt myopes, et distinguons bien mieux les tendres pousses dans le pré qu’un véhicule arrivant au loin. Mais notre ouïe très fine y pallie. Les vaches distinguent les ultrasons (jusqu’à 35.000 hertz), tout comme les basses fréquences et les très faibles volumes sonores. Et puis, il y a notre odorat. C’est notre sens premier, il nous distingue et organise notre vie sociale. Les odeurs disent notre âge, nos besoins sexuels, notre place dans la hiérarchie du troupeau, notre niveau de stress. On se renifle et on se lèche entre vaches, et on approche nos mufles des humains à l’approche: il s’agit de flairer l’éleveur, le vétérinaire que l’on connaît, et de s’inquiéter de la présence d’un intrus à l’odeur inconnue.

En 2015, en Suisse, des chercheurs de l’École polytechnique de Zurich se sont livrés à une analyse acoustique de troupeaux pour tenter de comprendre ce que les vaches se disent. Lors des naissances de nos veaux et cela durant trois à quatre semaines, nous parlons à nos petits le mufle à moitié fermé pour produire un son grave. Et à l’inverse, quand on nous les retire, nous produisons un meuglement dans les fréquences hautes. De même, les veaux nous appellent plutôt dans les aigus.

De l’avis des scientifiques et des professionnels, fermiers et éleveurs qui nous côtoient, notre cri d’espèce, émis jusqu’à une cinquantaine de fois dans la journée, exprime une grande variété de situations et d’états: faim, soif, chaud, froid, souffrance, désir, appels…

Quant à vous, on dirait que nos "meuh" vous fascinent. Vous tentez parfois de nous imiter, bizarre! des humains qui singent les vaches! Mais vous n’êtes même pas fichus de vous entendre sur le son à produire… "Meuh" en France ; "moo" chez les Anglo-Saxons; "muh" pour les Allemands et les Danois; et "mō" du côté du Japon. Un plaisantin est même allé jusqu’à fabriquer ce qu’il a appelé une "boîte à meuh" pour faire rire ses semblables, on se demande vraiment pourquoi. Laquelle boîte a au moins eu une utilité: le docteur Lucien Moatti l’a calibrée pour le dépistage néonatal de la surdité des bébés humains. Si l’enfant tourne la tête au son de la vache, c’est qu’il entend bien…

Auteur: Internet

Info: Slate, Aline Richard, 30 mai 2019

[ anecdotes ]

 

Commentaires: 0

Ajouté à la BD par miguel