Citation
Catégorie
Tag – étiquette
Auteur
Info
Rechercher par n'importe quelle lettre



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits... Recherche mots ou phrases tous azimuts... Outil de précision sémantique et de réflexion communautaire... Voir aussi la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats ... Lire la suite >>
Résultat(s): 5395
Temps de recherche: 0.0336s

chronos

Deux flèches du temps issues du monde quantique : une découverte qui bouleverse notre compréhension du temps

Le temps s'écoule-t-il toujours dans une seule direction, du passé vers le futur ? Cette question, qui intrigue les scientifiques et les philosophes depuis des siècles, vient d'être remise en question par une étude récente menée par des chercheurs de l'Université de Surrey. Selon leurs conclusions, le temps pourrait ne pas être une réalité strictement linéaire et irréversible, mais plutôt un phénomène plus complexe, pouvant s'écouler dans les deux directions sous certaines conditions quantiques. Cette avancée scientifique bouleverse non seulement notre perception du temps, mais elle ouvre aussi de nouvelles perspectives dans les domaines de la mécanique quantique, de la cosmologie et de la compréhension des lois fondamentales de l'Univers.

EN BREF

- Arthur Eddington a introduit le concept de la flèche du temps en 1927, entraînant l'irréversibilité du temps dans notre quotidien.

- L'étude du Dr Andrea Rocco sur les systèmes quantiques ouverts révèle que le temps peut s'écouler dans les deux directions à l'échelle quantique.

- Cette découverte pourrait révolutionner notre compréhension du temps et influencer des domaines comme la cosmologie et l'informatique quantique.

La flèche du temps : un concept ancré dans notre réalité quotidienne

Dans notre vie de tous les jours, le temps semble irréversible. Un verre qui se brise ne se reconstitue jamais spontanément, la fumée d'un feu ne revient pas dans les braises, et nous vieillissons sans possibilité de rajeunir. Cette observation intuitive repose sur ce que les médecins appellent la flèche du temps, un concept introduit par Arthur Eddington en 1927. Il désigne le fait que le temps semble toujours avancer dans une seule direction, du passé vers le futur.

La principale explication de cette asymétrie temporelle repose sur le deuxième principe de la thermodynamique, qui stipule que l'entropie – c'est-à-dire le degré de désordre d'un système – ne peut qu'augmenter avec le temps. C'est cette tendance à l'augmentation du désordre qui explique pourquoi un verre peut se casser, mais jamais se réparer spontanément.

Cependant, si l'on se tourne vers les lois fondamentales de la physique, notamment celles qui régissent la mécanique quantique, un constat surprenant émerge : ces équations sont symétriques dans le temps. Cela signifie que, mathématiquement, elles fonctionnent aussi bien dans un sens que dans l'autre. Rien, dans ces équations, ne semble imposer une direction privilégiée au temps. Alors pourquoi, à l'échelle macroscopique, avons-nous l'impression que le temps ne peut s'écouler que vers l'avant ?

Une étude qui bouscule notre compréhension du temps

C'est pour tenter de répondre à cette question que le Dr Andrea Rocco et son équipe de chercheurs à l'Université de Surrey ont mené une étude approfondie sur les  systèmes quantiques ouverts . Ces systèmes étudient la manière dont un système quantique interagit avec son environnement, une approche essentielle pour comprendre les phénomènes à l'échelle subatomique.

Leur objectif était de déterminer si la perception d'une flèche du temps irréversible découle directement des lois fondamentales de la mécanique quantique ou si elle résulte plutôt de l'influence de l'environnement à une plus grande échelle.

Pour cela, les chercheurs ont utilisé une modélisation dans laquelle l'environnement était traité comme un système vaste et dissipatif, permettant à l'énergie et à l'information de se dissiper sans retour vers le système initial. Grâce à cette approche, ils ont cherché à comprendre si la direction du temps émerge de l'interaction entre le système et son environnement ou si elle est induite aux lois quantiques.

Des résultats surprenants : le temps peut s'écouler dans les deux directions

. Les résultats obtenus ont été inattendus. Même en prenant en compte un environnement dissipatif, les équations décrivant ces systèmes quantiques restent symétriques par rapport au temps. Autrement dit, ces systèmes peuvent évoluer aussi bien vers le futur que vers le passé, selon les conditions du système lui-même.

Cela signifie que, d'un point de vue quantique, la flèche du temps n'est pas une caractéristique absolue de l'Univers, mais plutôt une  propriété émergente , qui dépend du niveau d'interaction avec l'environnement. À l'échelle subatomique, le temps peut être réversible, mais lorsque l'on agrège ces interactions à un niveau macroscopique, nous percevons une direction unique du temps en raison des lois thermodynamiques et de l'augmentation de l'entropie.

Le rôle du noyau de mémoire : un élément clé de la symétrie temporelle

L'un des aspects les plus fascinants de cette étude concerne la découverte d'un phénomène appelé le  noyau de mémoire . Ce dernier joue un rôle crucial dans le maintien de la symétrie temporelle des équations du système quantique.

Les chercheurs ont mis en évidence que ce noyau conserve les informations sur l'état du système, ce qui lui permet, en théorie, de restaurer des configurations passées, rendant possible un écoulement du temps dans les deux sens. Cette découverte pourrait expliquer pourquoi certaines expériences en mécanique quantique semblent défier l'intuition et suggèrent une absence de direction fixe du temps.

(Image : Schéma montrant le concept à l'origine de la transformation par inversion du temps. Le système et l'environnement se déplacent vers l'arrière dans le temps.)

Quelles implications pour la physique et la cosmologie ?

Les implications de cette découverte sont profondes et pourraient bouleverser plusieurs domaines majeurs de la physique moderne.

En mécanique quantique, cette étude renforce l'idée que l'univers microscopique ne suit pas les mêmes règles que notre réalité quotidienne. Si les systèmes quantiques peuvent théoriquement évoluer dans les deux directions temporelles, cela remet en question notre compréhension de la causalité à l'échelle subatomique. Ces résultats pourraient avoir des répercussions sur des technologies émergentes comme l'informatique quantique et la cryptographie, où la manipulation de l'information quantique est essentielle. La possibilité d'exploiter des états réversibles du temps pourrait, par exemple, améliorer la transmission sécurisée de données ou optimiser les algorithmes de calcul quantique.

En cosmologie, ces résultats ouvrent la porte à de nouvelles théories sur l'origine et l'évolution de l'Univers. Si le temps peut s'écouler dans les deux sens à l'échelle quantique, il est envisageable que l'Univers ne soit pas apparu lors d'un événement unique comme le Big Bang, mais qu'il soit le fruit d'un processus cyclique ou d'une fluctuation quantique plus vaste. Cela pourrait même relancer l'idée d'un univers oscillant, où des cycles d'expansion et de contraction se succèdent, remettant en question notre vision linéaire de l'histoire cosmique.

Enfin, pour les trous noirs et la gravité quantique, cette découverte pourrait être cruciale. Les trous noirs, où l'espace-temps est déformé de manière extrême, sont des laboratoires naturels pour étudier la frontière entre la relativité générale et la mécanique quantique. Si le temps peut devenir réversible dans des conditions extrêmes, cela pourrait aider les médecins à mieux comprendre ce qui se passe au-delà de l'horizon des événements ou même à déchiffrer les mystères de la singularité centrale des trous noirs.

En somme, cette étude pourrait être la clé pour repenser notre compréhension du temps, depuis l'infiniment petit jusqu'à l'échelle de l'Univers entier.

Une nouvelle vision du temps : entre physique et philosophie

Au-delà des implications scientifiques, cette étude remet en question l'une des notions les plus fondamentales de notre existence : notre perception du temps. Si le temps peut, en théorie, s'écouler dans les deux directions, notre vision du passé, du présent et du futur est-elle une simple illusion issue des interactions macroscopiques ?

Ces résultats rappellent certaines idées avancées par des penseurs comme Albert Einstein, qui affirmaient que « la distinction entre passé, présent et futur n'est qu'une illusion, aussi tenace soit-elle » ." Cette étude offre un nouvel éclairage sur cette conception et suggère que notre compréhension du temps pourrait être bien plus complexe qu'il n'y paraît.






 





 

Auteur: Internet

Info: https://www.science-et-vie.com/, 23 Fév 2025, Brice Louvet

[ renversable ] [ atemporalité ] [ inframonde ]

 

Commentaires: 0

Ajouté à la BD par miguel

intelligence artificielle

Les capacités imprévisibles des grands modèles d'IA

Les grands modèles de langage tels que ChatGPT sont aujourd'hui suffisamment importants pour commencer à afficher des comportements surprenants et imprévisibles. (...)

Au-delà de l'imitation

En 2020, Dyer et d’autres de Google Research ont prédit que les LLM auraient des effets transformateurs – mais la nature de ces effets restait une question ouverte. Ils ont donc demandé à la communauté des chercheurs de fournir des exemples de tâches difficiles et diverses afin de tracer les limites extérieures de ce qu'un LLM pouvait faire. Cet effort a été appelé projet Beyond the Imitation Game Benchmark (BIG-bench), inspiré du nom du " jeu d'imitation " d'Alan Turing, un test permettant de déterminer si un ordinateur peut répondre aux questions d'une manière humaine et convaincante. (Ceci deviendra plus tard connu sous le nom de test de Turing.) Le groupe s'est particulièrement intéressé aux exemples dans lesquels les LLM ont soudainement atteint de nouvelles capacités qui étaient complètement absentes auparavant.

"La façon dont nous comprenons ces transitions brusques est une grande question de recherche", a déclaré Dyer.

Comme on pouvait s'y attendre, sur certaines tâches, les performances d'un modèle se sont améliorées de manière fluide et prévisible à mesure que la complexité augmentait. Et sur d’autres tâches, l’augmentation du nombre de paramètres n’a apporté aucune amélioration. Mais pour environ 5 % des tâches, les chercheurs ont découvert ce qu’ils ont appelé des " percées " : des progrès rapides et spectaculaires dans les performances à une certaine échelle seuil. Ce seuil variait en fonction de la tâche et du modèle.

Par exemple, les modèles avec relativement peu de paramètres (quelques millions seulement) ne pouvaient pas résoudre avec succès les problèmes d’addition à trois chiffres ou de multiplication à deux chiffres, mais pour des dizaines de milliards de paramètres, la précision a augmenté dans certains modèles. Des sauts similaires se sont produits pour d'autres tâches, notamment le décodage de l'alphabet phonétique international, le déchiffrement des lettres d'un mot, l'identification du contenu offensant dans les paragraphes de Hinglish (une combinaison d'hindi et d'anglais) et la génération d'un équivalent anglais similaire des proverbes kiswahili.

Mais les chercheurs se sont vite rendu compte que la complexité d’un modèle n’était pas le seul facteur déterminant. Certaines capacités inattendues pourraient être extraites de modèles plus petits avec moins de paramètres – ou entraînées sur des ensembles de données plus petits – si les données étaient de qualité suffisamment élevée. De plus, la façon dont une requête était formulée influençait l’exactitude de la réponse du modèle. Lorsque Dyer et ses collègues l'ont fait avec la tâche des emoji de film via un format à choix multiples, par exemple, l'amélioration de la précision était moins un saut soudain qu'une augmentation progressive avec plus de complexité. Et l'année dernière, dans un article présenté à NeurIPS , la réunion phare du domaine, des chercheurs de Google Brain ont montré comment un modèle invité à s'expliquer (une capacité appelée raisonnement en chaîne de pensée) pouvait résoudre correctement un problème de mots mathématiques, alors que le même le modèle sans cette invite ne pourrait pas.

Yi Tay, un scientifique de Google Brain qui a travaillé sur l'enquête systématique sur les percées, souligne des travaux récents suggérant que l'incitation à la chaîne de pensée modifie les courbes d'échelle et donc le point où l'émergence se produit. Dans leur article NeurIPS, les chercheurs de Google ont montré que l'utilisation d'invites de chaîne de pensée pouvait susciter des comportements émergents non identifiés dans l'étude BIG-bench. De telles invites, qui demandent au modèle d’expliquer son raisonnement, pourraient aider les chercheurs à commencer à étudier les raisons pour lesquelles l’émergence se produit.

Des découvertes récentes comme celles-ci suggèrent au moins deux possibilités pour expliquer pourquoi l'émergence se produit, a déclaré Ellie Pavlick, une informaticienne à l'Université Brown qui étudie les modèles informatiques du langage. La première est que, comme le suggèrent les comparaisons avec les systèmes biologiques, les modèles plus grands acquièrent effectivement spontanément de nouvelles capacités. "Il se peut très bien que le mannequin ait appris quelque chose de fondamentalement nouveau et différent qu'il n'aurait pas pu apprendre dans une taille plus petite", a-t-elle déclaré. "C'est ce que nous espérons tous, qu'un changement fondamental se produit lorsque les modèles sont étendus."

L’autre possibilité, moins sensationnelle, dit-elle, est que ce qui semble émerger pourrait plutôt être le point culminant d’un processus interne, axé sur les statistiques, qui fonctionne selon un raisonnement de type chaîne de pensée. Les grands LLM peuvent simplement apprendre des heuristiques hors de portée pour ceux qui disposent de moins de paramètres ou de données de moindre qualité.

Mais, a-t-elle déclaré, déterminer laquelle de ces explications est la plus probable dépend d’une meilleure compréhension du fonctionnement des LLM. "Comme nous ne savons pas comment ils fonctionnent sous le capot, nous ne pouvons pas dire laquelle de ces choses se produit."

Pouvoirs et pièges imprévisibles

Il y a un problème évident à demander à ces modèles de s’expliquer : ce sont des menteurs notoires. " Nous comptons de plus en plus sur ces modèles pour effectuer le travail de base ", a déclaré Ganguli, « mais je ne me contente pas de leur faire confiance. Je vérifie leur travail. Comme exemple parmi de nombreux exemples amusants, Google a présenté en février son chatbot IA, Bard. Le billet de blog annonçant le nouvel outil montre que Bard fait une erreur factuelle .

L’émergence conduit à l’imprévisibilité, et l’imprévisibilité – qui semble augmenter avec l’échelle – rend difficile pour les chercheurs d’anticiper les conséquences d’une utilisation généralisée.

" Il est difficile de savoir à l'avance comment ces modèles seront utilisés ou déployés ", a déclaré Ganguli. "Et pour étudier des phénomènes émergents, vous devez avoir un cas en tête, et vous ne saurez pas avant d'avoir étudié l'influence de l'échelle quelles capacités ou limitations pourraient survenir."

Dans une analyse des LLM publiée en juin dernier, les chercheurs d'Anthropic ont examiné si les modèles montreraient certains types de préjugés raciaux ou sociaux, un peu comme ceux précédemment rapportés dans les algorithmes non basés sur LLM utilisés pour prédire quels anciens criminels sont susceptibles d'en commettre un autre. crime. Cette étude a été inspirée par un paradoxe apparent directement lié à l’émergence : à mesure que les modèles améliorent leurs performances lors de leur mise à l’échelle, ils peuvent également augmenter la probabilité de phénomènes imprévisibles, y compris ceux qui pourraient potentiellement conduire à des biais ou à des dommages.

"Certains comportements nuisibles apparaissent brusquement dans certains modèles", a déclaré Ganguli. Il cite une analyse récente des LLM, connue sous le nom de BBQ benchmark, qui a montré que les préjugés sociaux émergent avec un très grand nombre de paramètres. " Les modèles plus grands deviennent brusquement plus biaisés. " Ne pas prendre en compte ce risque, a-t-il ajouté, pourrait mettre en péril les sujets de ces modèles.

Mais il propose un contrepoint : lorsque les chercheurs ont simplement dit au modèle de ne pas s’appuyer sur des stéréotypes ou des préjugés sociaux – littéralement en tapant ces instructions – le modèle était moins biaisé dans ses prédictions et ses réponses. Cela suggère que certaines propriétés émergentes pourraient également être utilisées pour réduire les biais. Dans un article publié en février, l'équipe d'Anthropic a fait état d'un nouveau mode " d'autocorrection morale ", dans lequel l'utilisateur incite le programme à être utile, honnête et inoffensif.

L’émergence, a déclaré Ganguli, révèle à la fois un potentiel surprenant et des risques imprévisibles. Les applications de ces grands LLM prolifèrent déjà, donc une meilleure compréhension de cette interaction aidera à exploiter la diversité des capacités des modèles linguistiques.

"Nous étudions comment les gens utilisent réellement ces systèmes", a déclaré Ganguli. Mais ces utilisateurs bricolent aussi constamment. "Nous passons beaucoup de temps à discuter avec nos modèles", a-t-il déclaré, "et c'est en fait là que vous commencez à avoir une bonne intuition sur la confiance – ou son absence."

Auteur: Internet

Info: Quanta Magazine, Stephen Ornes, 16 mars 2023 - Les capacités imprévisibles des grands modèles d'IA Les grands modèles de langage tels que ChatGPT sont aujourd'hui suffisamment importants pour commencer à afficher des comportements surprenants et imprévisibles.

[ dépassement ]

 

Commentaires: 0

Ajouté à la BD par miguel

orient-occident

DeepSeek: comment la raclée de la Chine au go explique ce qui se passe aujourd’hui

Effet papillon

Les États-Unis vivent-ils un moment Spoutnik avec le modèle de langage chinois DeepSeek, qui s’est montré redoutable dans l’IA ? Peut-être. En tout cas, la Chine a vécu un évènement semblable il y a dix ans. Un " moment AlphaGo ". Et cela pourrait expliquer en partie l’existence de DeepSeek.

Un moment Spoutnik peut-il en cacher un autre ? Depuis l’arrivée du modèle de langage chinois DeepSeek, un parallèle est souvent fait avec la mise en orbite, en 1957, de la sonde soviétique Spoutnik, en raison des excellentes performances de l’IA par rapport aux systèmes occidentaux, et cela pour un coût de développement annoncé comme moindre.

Or, le moment Spoutnik est un évènement qui a été traumatique pour les États-Unis. On l’a même décrit comme un " Pearl Harbor technologique ", pour refléter l’instant de stupéfaction et le sentiment de vulnérabilité du pays. En 1957, cela avait déclenché la course à l’espace, pendant deux décennies, et qui s’était achevée finalement par la victoire de l’Amérique.

DeepSeek serait donc aux États-Unis de 2025 ce qu’a été Spoutnik pour le pays durant la guerre froide, et cela appellerait donc prendre des mesures immédiates. En face, plus d’Union soviétique cette fois. Le nouveau rival stratégique s’appelle Pékin. Mais là encore, pour l’Amérique, il s’agit de se frotter à un système idéologique très différent.

DeepSeek déclenchera-t-il le même effet outre-Atlantique, avec une course à l’IA ? Sans doute est-il trop tôt pour le dire. En revanche, la Chine a peut-être, elle aussi, vécu son propre moment Spoutnik au milieu des années 2010. En cause ? Le logiciel d’intelligence artificielle AlphaGo, qui serait l’une des clés d’explication de la situation actuelle avec DeepSeek.

L’effet papillon : d’une partie de jeu de go au milieu des années 2010 à DeepSeek-R1 en 2025 ?

Cette piste est nourrie par une réflexion développée dans l’ouvrage The Coming Wave: Technology, Power, and the Twenty-first Century’s Greatest Dilemma (La vague à venir : la technologie, le pouvoir et le plus grand dilemme du XXIe siècle), un essai écrit en 2023 par Mustafa Suleyman, que Bill Gates a lu et a trouvé passionnant.

Contrairement à celui du fondateur de Microsoft, le nom de Mustafa Suleyman vous est sûrement étranger. Il s’agit pourtant du cofondateur de DeepMind, avec Demis Hassabis et Shane Legg, une startup anglaise dédiée à la recherche en IA, devenue ensuite une branche de Google à la suite de son rachat en 2014.

Or, dans un extrait partagé sur les réseaux sociaux, Mustafa Suleyman suit l’idée que l’apparition d’AlphaGo a provoqué " un phénomène similaire " au moment Spoutnik en Chine, lorsque le système d’IA spécialisé dans le jeu de go ne s’est pas montré seulement redoutable. Il est apparu très vite qu’il serait imbattable.

AlphaGo a rapidement été qualifié de Spoutnik chinois pour l’IA ", lit-on dans le livre. Et, toujours selon l’auteur, qui a travaillé pour Google par la suite avant de monter en 2022 sa propre société, Inflection AI, cela a été très mal vécu dans l’Empire du Milieu. L’affaire du logiciel d’IA développé par Google et DeepMind a eu un énorme retentissement.

En Chine, le go n’est pas seulement un jeu. Il représentait un ensemble plus vaste d’histoire, d’émotions et de calculs stratégiques ", développe-t-il. Décrit comme un véritable " passe-temps national ", c’est une activité qui se mêle intimement à l’identité et la culture chinoises. Le jeu, d’ailleurs, est né là-bas et de nombreux grands champions sont chinois.

AlphaGo a terrassé les meilleurs joueurs de go

Souvenez-vous. En 2016, une rencontre était organisée entre le Sud-Coréen Lee Sedol contre AlphaGo, dans une compétition en cinq manches. Classé 9e dan, l’un des plus hauts grades de la discipline, l’intéressé s’était montré confiant face à la machine. Il s’est toutefois fait surprendre dès la première partie, conclue par une défaite, puis une suivante.

Dans un sursaut d’orgueil et profitant aussi d’une erreur d’AlphaGo, Lee Sedol a finalement réussi à arracher une victoire lors du quatrième match. Insuffisant, hélas, pour changer la donne. Score final : 4-1 pour AlphaGo. Une prouesse récompensée en 2017, quand le système est devenu le " joueur " le mieux classé au monde au go.

Par la suite, le système avait aussi balayé plusieurs grands champions sous une fausse identité, lors de rencontres en ligne, y compris le numéro un de l’époque, le Chinois Ke Jie. D’autres rencontres en présentiel ont fini par être organisées, puisque les performances d’AlphaGo sonnaient comme un défi à relever.

Ke Jie, notamment, a accepté de relever le défi, avec un AlphaGo qui n’était cette fois plus dissimulé en ligne sous une fausse identité. Plusieurs modes de jeu ont été imaginés pour le spectacle, mais sans que cela ne change la donne. Ke Jie a été battu une première fois, avec un écart d’un seul point, puis une deuxième fois. Il a aussi remporté tous les autres matchs.

(Photo : Ke Jie, à gauche, contre AlphaGo)

L’aventure d’AlphaGo, étalée de 2016 à 2017 (l’IA a ensuite pris sa " retraite " sportive), a provoqué une onde de choc, similaire aux duels entre Deep Blue et Garry Kasparov aux échecs. Souvenez-vous : le champion humain avait perdu deux parties sur les six rencontres face à la machine conçue par IBM. Même si, à la fin, l’humain avait gagné.

Après cette séquence, le Sud-Coréen Lee Sedol en est venu à la conclusion que l’IA ne peut pas être vaincue, en se retirant du circuit. AlphaGo a aussi reçu à titre honorifique le grade de neuvième dan professionnel (le niveau maximal atteignable). Et la Chine a fini par censurer les duels de Go entre son champion et l’IA de Google.

La Chine a un objectif : devenir leader de l’IA en 2030

Ce " moment AlphaGo " a eu lieu il y a un peu moins de dix ans. Aux yeux de Mustafa Suleyman, il explique pour beaucoup la montée en puissance de la Chine dans l’IA ces dernières années. Ce n’est pas l’unique raison, sans doute, mais la gifle qu’a été AlphaGo à l’orgueil chinois, venant en outre d’une entreprise occidentale, a joué.

La Chine s’était déjà engagée à investir massivement dans la science et la technologie, mais AlphaGo a contribué à focaliser encore davantage l’attention du gouvernement sur l’IA ", écrit-il d’ailleurs. Il fallait réagir, d’ailleurs, car " les Américains et l’Occident […] menaçaient de s’approprier une technologie qui allait faire date. "

Or, poursuit l’auteur, la Chine " [a pris] douloureusement conscience du retard qu’elle a pris, perdant la course technologique face aux Européens et aux Américains sur différents fronts ", alors que le pays " avec ses milliers d’années d’histoire, avait été autrefois le creuset de l’innovation technologique mondiale. "

Signe de l’électrochoc qui a traversé le pays ? " Le plan de développement de l’IA de nouvelle génération, annoncé deux mois seulement après que Ke Jie a été battu par AlphaGo, avait pour but d’associer le gouvernement, l’armée, les organismes de recherche et l’industrie dans une mission collective ", relève encore l’auteur.

L’affaire était devenue très politique, puisque le Parti communiste chinois a, à diverses occasions, souligné l’importance de la science et des technologies " pour répondre aux besoins stratégiques " du pays. Et pour cela, il faut faire faire émerger des talents et être un moteur de l’innovation. Cela, pour ne plus subir un nouveau siècle d’humiliation.

En conséquence, un plan a été mis en place " pour devenir le leader mondial de l’IA d’ici à 2030 ". À cette date, " les théories, les technologies et les applications chinoises en matière d’IA atteindront des niveaux de premier plan au niveau mondial ", et la Chine deviendra alors " le principal centre d’innovation en matière d’IA dans le monde. "

L’histoire ne dit pas encore si la Chine parviendra à son objectif dans cinq ans, puisque la réponse des États-Unis, notamment, reste à découvrir — de façon un peu ironique, un moment Spoutnik va peut-être un déclencher un autre. Et l’Europe dans tout ça ? Il reste à voir quel rôle elle pourra jouer autre que celui de compter les points.



 

Auteur: Internet

Info: https://www.numerama.com/, 31 janvier 2025

[ chine - usa ]

 

Commentaires: 0

Ajouté à la BD par miguel

univers inversé

Les possibilités métagénomiques

Une infime fraction - la plupart des scientifiques estiment <1% - des espèces microbiennes sur Terre peut être cultivée et étudiée à l'aide de techniques classiques de microbiologie et de génomique. Mais en utilisant des outils de métagénomique récemment développés, les chercheurs appliquent l'analyse génomique à des communautés microbiennes entières à la fois, sans avoir à isoler et à cultiver des espèces individuelles. Les études de métagénomique commencent par obtenir un échantillon d'un environnement particulier tel que l'eau de mer, le sol ou l'intestin humain, en extrayant le matériel génétique de tous les organismes de l'échantillon, puis en analysant l'ADN de ce mélange pour mieux comprendre comment les membres de la communauté interagir, changer et exécuter des fonctions complexes.

Processus : la métagénomique consiste à obtenir l'ADN de tous les micro-organismes d'une communauté, sans nécessairement identifier toutes les espèces impliquées. Une fois les gènes séquencés et comparés aux séquences identifiées, les fonctions de ces gènes peuvent être déterminées.

Parce qu'elle ne dépend pas de l'établissement de cultures pures, la métagénomique offre l'accès à des millions d'espèces microbiennes qui auparavant ne pouvaient pas être étudiées. Il permet également aux chercheurs d'examiner les micro-organismes dans le contexte des environnements dans lesquels ils existent naturellement, en étudiant des communautés entières en même temps.

Applications de la métagénomique

Pratiquement tous les biologistes, quel que soit leur domaine, découvriront qu'une meilleure compréhension des communautés microbiennes et de la métagénomique peut contribuer à leurs propres recherches. L'étude des communautés microbiennes par la métagénomique peut aider les biologistes à s'attaquer à des questions scientifiques fondamentales et à résoudre les problèmes sociaux, environnementaux et économiques connexes. Voici quelques-unes des applications potentielles de la métagénomique :

Avancées des sciences de la vie.

Décrypter le fonctionnement et l'interaction des espèces au sein des communautés microbiennes peut répondre en partie à des questions fondamentales sur de nombreux aspects de la biologie microbienne, végétale et animale et améliorer considérablement la compréhension de l'écologie et de l'évolution. La métagénomique pourrait aider à répondre à des questions telles que : Qu'est-ce qui constitue un génome ? Qu'est-ce qu'une espèce ? Quelle est la diversité de la vie ?

Sciences de la Terre.

L'exploration de la manière dont les communautés microbiennes du sol et des océans affectent les équilibres atmosphériques et les conditions environnementales peut aider les scientifiques à mieux comprendre, prévoir et potentiellement faire face aux changements mondiaux.

Médicament.

Des centaines de médicaments disponibles aujourd'hui sont dérivés de produits chimiques trouvés pour la première fois dans des microbes ; l'accès aux génomes d'espèces microbiennes supplémentaires est très prometteur pour en découvrir des milliers d'autres. L'étude du "microbiome" humain – les milliers de milliards de bactéries vivant dans et sur le corps humain – peut conduire à de nouvelles façons de diagnostiquer, de traiter et de prévenir les maladies.

Énergie alternative.

De nouvelles sources d'énergie pourraient être développées en exploitant le pouvoir des communautés microbiennes pour produire des sous-produits tels que l'hydrogène, le méthane, le butanol et même le courant électrique.

Assainissement de l'environnement.

Comprendre les microbes qui dégradent les produits chimiques environnementaux peut aider à nettoyer des polluants tels que les fuites d'essence, les déversements de pétrole, les eaux usées, les rejets industriels et les déchets nucléaires.

Biotechnologie.

L'identification et l'exploitation des capacités biosynthétiques polyvalentes et diverses des communautés microbiennes peuvent conduire au développement de nouveaux produits industriels, alimentaires et de santé bénéfiques.

Agriculture.

Mieux comprendre les microbes bénéfiques vivant dans, sur, sous et autour des plantes et des animaux domestiques peut contribuer à améliorer les méthodes de détection des agents pathogènes dans les cultures, le bétail et les produits alimentaires et peut faciliter le développement de pratiques agricoles qui tirent parti des les alliances naturelles entre les microbes, les plantes et les animaux.

Biodéfense et médecine légale microbienne.

L'étude de l'ADN et des empreintes biochimiques des communautés microbiennes aide les spécialistes à surveiller les agents pathogènes connus et potentiels, à créer des vaccins et des traitements plus efficaces contre les agents bioterroristes potentiels et à reconstruire les événements dans lesquels les microbes ont joué un rôle.

Valeur de la métagénomique pour l'enseignement de la biologie

La citation de Muir a également une pertinence importante pour l'enseignement des sciences. Qu'est-ce qui sépare la chimie, la génétique, la biologie moléculaire, l'évolution, l'écologie et d'autres disciplines ? Où se croisent-elles et comment se construisent-elles les unes sur les autres ?

La métagénomique aide à combler le fossé entre la génétique et l'écologie, démontrant que les gènes d'un seul organisme sont connectés aux gènes des autres et à l'ensemble de la communauté. En fait, les processus de la métagénomique démontrent qu'il est important d'étudier les gènes et les organismes en contexte et d'apprécier toute la diversité de la vie, même dans un seul cadre. Ces messages ont une pertinence importante dans l'ensemble de la biologie et seraient des ajouts précieux à n'importe quel cours de biologie, peut-être en particulier ceux du niveau d'introduction.

Parce que la métagénomique s'inspire d'un large éventail de domaines et les affecte, c'est un outil précieux pour enseigner des thèmes et des concepts qui sont tissés tout au long de l'enseignement de la biologie. En effet, l'enseignement et l'apprentissage de la métagénomique pourraient clairement intégrer les types de changements dans l'enseignement des sciences de la maternelle à la 12e année et du premier cycle que de nombreux rapports ont demandé au cours de la dernière décennie.

Certains professeurs estiment qu'ils doivent utiliser des cours d'introduction pour fournir aux étudiants pratiquement toutes les connaissances qu'ils utiliseront pour comprendre les concepts de base d'une discipline. Certains considèrent également les cours d'introduction comme un moyen d'aider les étudiants à apprendre à interpréter les nouvelles et autres informations sur la science afin qu'ils puissent prendre des décisions plus éclairées à la maison, chez le médecin et dans l'isoloir. Trop souvent, cependant, de tels cours ne parviennent pas à transmettre la beauté complexe du monde vivant et les innombrables façons dont la biologie a un impact sur la "vraie vie". L'apprentissage de la métagénomique au niveau introductif - en mettant l'accent sur ses applications potentielles dans le monde réel - pourrait servir à éclairer les principes de base d'une grande variété de domaines, les liens entre eux et la pertinence plus large des avancées scientifiques pour les problèmes du monde réel. Si les étudiants peuvent voir qu'il y a vraiment des questions non résolues intéressantes auxquelles ils peuvent jouer un rôle pour répondre, le recrutement de jeunes talentueux pour les carrières scientifiques peut être facilité. De cette façon, les élèves rencontreront une science dynamique plutôt que statique.

LES BÉNÉFICES DE L'INTÉGRATION DE L'ÉDUCATION ET DE LA RECHERCHE

Les avantages de l'intégration précoce de la métagénomique et d'autres sciences nouvelles dans l'enseignement de la biologie profiteraient non seulement aux étudiants en biologie, mais aussi aux scientifiques et à leurs projets de recherche. L'expérience montre que lorsque les chercheurs enseignent, leur propre compréhension s'approfondit, menant à de nouvelles questions et pistes de recherche souvent inattendues qui sont posées par les étudiants, ainsi qu'à contribuer au développement d'approches créatives des problèmes. Si la communauté de la biologie peut intégrer l'enseignement de la métagénomique aux progrès de la recherche dès le départ, les étudiants pourraient devenir des participants actifs au développement du domaine.

Enseigner un domaine nouveau ou émergent est un moyen idéal d'engager profondément les étudiants dans l'exploration de questions fondamentales qui sont au cœur de la poursuite scientifique et de les encourager à poser leurs propres questions. En effet, dans le cas du domaine émergent de la métagénomique, les questions les plus fondamentales peuvent être les plus profondes. Répondre à ces questions inspire à son tour les jeunes esprits et les chercheurs actifs, et la science est bénéfique. 

D'autres ont vu l'intérêt d'intégrer la science émergente à l'éducation. Un certain nombre d'efforts sont actuellement en cours pour intégrer la recherche et l'enseignement en génomique.

Auteur: Internet

Info: https://www.ncbi.nlm.nih.gov/ Metagenomics: A Call for Bringing a New Science into the Classroom (While It's Still New) Anne Jurkowski,* Ann H. Reid,† and Jay B. Labovcorresponding author

[ sciences ] [ nano-monde ] [ ouverture ] [ matrice gaïa ]

 

Commentaires: 0

Ajouté à la BD par miguel

dépravation

La Fistinière
Cette chambre d'hôtes gays accueille des amateurs de fist, qui consiste à pénétrer le vagin ou l'anus avec la main. Rencontre.
(Du Cher) Ce n'est pas une maison bleue accrochée à une colline. C'est une maison d'hôtes pour passionnés du "fist", cette pratique qui consiste à introduire une main, voire un bras dans un vagin ou un anus. C'est aussi un mythe, une maison qui étonne ou fait rire par son concept. Nous avons voulu rencontrer François, Juan Carlos et Nelly, les penseurs de ce lieu original.
Au téléphone, François prévient tout de suite :
"Bon, il y a déjà des journalistes qui sont venus, mais c'était des hommes. Vous, vous êtes des femmes... Ça va donc être compliqué d'assister à une soirée, nous n'avons pas envie de mettre nos clients mal à l'aise."
Avec Audrey, la photographe de Rue89, nous nous sommes donc rendues dans cette maison d'hôtes gays du Cher en pleine journée. Il faisait très beau. Les champs de colza coloraient d'un jaune magnifique le pays. Et puis il y avait des vaches et des moutons.
On arrive à Assigny, village de 174 habitants, où est située la Fistinière. Ici, pas de problème. La maison d'hôtes est très bien acceptée. François nous accueille. Il est imposant, souriant, porte un pantalon en cuir noir et vous regarde de ses yeux bleus aussi limpides que ceux d'un chat. Il explique : " Le site internet est connu par beaucoup de gens aux alentours, il y a pleins de gens que ça amuse, mais tout le monde se rend compte qu'on est pas des vieux monstres pervers, qu'on est des gens comme tout le monde. "
La maison, qui date du XVIIe siècle, est tout à fait charmante.
"Je vous présente Juan Carlos, mon mari", nous dit François avant de nous inviter à nous installer dans le grand salon de la maison. Nelly, sa soeur, s'installe également à leurs côtés. Ils ont ouvert la Fistinière en 2007, et la tiennent depuis tous les trois. On boit du thé, avec quelques meringues à la noix de coco. Commence alors le récit de leur aventure.
Leurs parcours sont improbables. De ceux qui troubleraient une conseillère en orientation. Avant de créer la Fistinière, François tenait une boutique de robes de mariées, Juan Carlos faisait des prothèses orthopédiques et Nelly avait une brasserie.
D'origine colombienne, Juan Carlos arrive à Paris en 1984. Il y découvre la pratique du fist : "J'aime bien faire la comparaison avec l'éducation grecque où il y avait l'expérimenté, pour ne pas dire le vieux, qui apprenait au jeune. Dans le fist, c'est souvent ça. On apprend avec quelqu'un qui le pratique déjà."
A la fin des années 90, il rencontre François. Les deux hommes tombent amoureux et très vite cette pratique occupe une place de choix dans leur vie sexuelle. Une vie sexuelle complètement affranchie de la gêne et des tabous qui y sont liés. François et Juan Carlos racontent tous les deux avoir un autre mari et ne jamais être jaloux.
A l'époque, ils rêvent d'un endroit convivial et hygiénique, dédié à leur activité manuelle favorite avec à disposition tout le matériel nécessaire. Des préservatifs aux gants en latex. Cette idée ne va bientôt plus les lâcher. Enthousiaste, Nelly rejoint vite son fère et Juan Carlos dans le projet. "Sa vie n'était alors pas très rose" raconte François. "Elle avait un mari avec qui ça n'allait pas très bien." L'alliance familiale ne pose problème à aucun d'eux trois. Juan Carlos explique : "Dans leur famille, la sexualité n'est pas du tout taboue, je pense que ça leur a permis d'être ouvert à beaucoup de choses.
L'organisation du gite est bien rodée. Les garçons s'occupent de l'accueil des clients et de s'assurer que les soirées se passent bien. :
Si quelqu'un a un peu trop bu, on le surveille car ça peut vite devenir dangereux.
A Nelly revient la grande responsabilité de la faire la cuisine :
Avant de faire un fist, on fait un lavement, donc il faut des aliments faciles à évacuer. Avec les tomates, il faut enlever la peau et les pépins. Il faut toujours des féculents.
Pendant les soirées du samedi soir, à l'origine, Nelly n'était pas censée pénétrer la "chapelle fistine", située à l'étage, dans le grenier de la maison. Mais un jour, un client le lui a demandé. Après s'être assurés que cela ne posait pas de problème aux autres clients, François et Juan Carlos ont accepté que Nelly vienne assister à leur "jeux" : "J'aime beaucoup fister des garçons. La première fois que je suis montée, François et Juan Carlos étaient un peu gênés, moi pas du tout. " Juan Carlos réagit : "Je l'ai toujours dit : Nelly c'est un pédé dans un corps de femme. Sexuellement, nos pratiques ne lui ont jamais posé de problèmes. Elle a cette mentalité très ouverte et accepte que la sexualité soit un jeu."
François, pour sa part, explique que beaucoup de leurs clients sont bisexuels : "Le fait de prendre du plaisir par le cul avec une femme, ça les excite."
"Autour de cet anus, il y a un individu tout de même"
Le plaisir. Dans l'imaginaire collectif, mettre une main dans un anus, c'est plutôt une pratique violente. François et Juan Carlos pensent tout le contraire. Il faut être très doux, justement pour éviter un accident : "Les intestins c'est très fragile. A l'entrée de l'anus, si on force, il peut y avoir une déchirure, donc une infection. Pour éviter ça, il faut dilater."
Il raconte le rituel du fist : "Il faut que les ongles soient bien coupés, limés, même si on porte des gants. Il faut utiliser un bon lubrifiant, attendre que les anneaux et le sphincter s'ouvrent successivement. Et puis autour de cet anus, il y a un individu tout de même, il faut être à l'écoute, savoir si ce qu'on lui fait lui plaît et surtout ne jamais forcer."
François enchérit : On peut y aller doigt par doigt ou assurer la dilatation par massage. Il faut toucher, caresser, voir comment ça s'ouvre et ne jamais brusquer...
Certains candidats au fist préfèrent une fois sur place ne s'en tenir qu'à un doigt, tandis que d'autres acceptent qu'on les pénètre jusqu'à l'épaule.
"Qu'il s'agisse d'une pénétration de la main ou d'un bras, pour se faire fister, il faut vraiment le désirer fort, sinon ce n'est tout simplement pas possible."
François et Juan Carlos ne sont pas lassés de cette pratique. Ils parlent d'une jouissance folle. "C'est LA jouissance" dit Juan Carlos en insistant sur le LA : - En tant qu'hommes, on peut avoir un plaisir fou par son cul en faisant appel à certaines glandes. C'est comme si on jouissait de la bite mais multiplié par mille.'
Au-delà de ce plaisir charnel, ils parlent d'une philosophie de vie, d'un art de vivre :
Ce qui m'a plu dans cette pratique du fist, c'est le respect absolu qu'il y a entre les deux personnes. Le fait d'introduire la main dans les intestins de quelqu'un, c'est une pratique très intime. Plus intime ça n'existe pas. Tout est dans la confiance et le respect...
Surprise. A la fin de l'entretien Juan Carlos confesse qu'avant de faire des prothèses orthopédiques et de tenir la Fistinière, il a failli devenir prêtre. Il a été séminariste et se dit encore croyant. :
Il y a une grande recherche spirituelle dans cette sexualité. Je trouve de toutes manières que la spiritualité est partout, dans tout ce qu'on fait, on a pas besoin d'être entre les quatre murs d'un séminaire ou d'un couvent pour la vivre. Le message christique c'est l'amour. Aujourd'hui, j'ai l'impression de vivre ma vocation ici.'
Même si Nelly, François et Juan Carlos racontent avoir accueilli des gens du monde entier, la Fistinière ne fait pour l'instant pas de bénéfices. En hiver, ils ont une vingtaine de clients par mois, en été le chiffre s'élève à une centaine de personnes. Les garçons disent tout juste réussir à payer les factures. Ils n'en ont pas l'air moins heureux. Epanouis.

Auteur: Internet

Info: Rue 89

[ homo ] [ sexe ] [ perversion ] [ pornographie ]

 

Commentaires: 0

interactions

L'épigénétique, l'hérédité au-delà de l'ADN Des mécanismes ne modifiant pas notre patrimoine génétique jouent un rôle fondamental dans le développement de l'embryon. Ils pourraient expliquer comment l'environnement induit des changements stables de caractères, voire des maladies, éventuellement héritables sur plusieurs générations. L'épigénétique, c'est d'abord cette idée que tout n'est pas inscrit dans la séquence d'ADN du génome. "C'est un concept qui dément en partie la "fatalité" des gènes", relève Michel Morange, professeur de biologie à l'ENS. Plus précisément, "l'épigénétique est l'étude des changements d'activité des gènes - donc des changements de caractères - qui sont transmis au fil des divisions cellulaires ou des générations sans faire appel à des mutations de l'ADN", explique Vincent Colot, spécialiste de l'épigénétique des végétaux à l'Institut de biologie de l'Ecole normale supérieure (ENS-CNRS-Inserm, Paris). Est-ce la fin de l'ère du "tout-ADN", qui a connu son apogée vers l'an 2000 avec les grandes manoeuvres du séquençage du génome humain ? "L'organisme reste construit à partir de ses gènes, même si l'activité de ceux-ci peut être modulée", tempère Michel Morange. Mais le séquençage des génomes l'a révélé avec éclat : la connaissance seule de la séquence de l'ADN ne suffit pas à expliquer comment les gènes fonctionnent. C'était pourtant prévisible : si cette connaissance suffisait, comment expliquer que malgré leur génome identique, les différents types de cellules d'un individu développent des caractères aussi différents que ceux d'un neurone, d'une cellule du foie, des muscles ou de la peau ? L'épigénétique répond en partie à cette interrogation - mais elle en soulève de nombreuses autres. "Le cadre classique de l'épigénétique, c'est le développement de l'embryon et la différenciation des cellules de l'organisme", indique Vincent Colot. Mais ses enjeux concernent également la médecine et la santé publique... et les théories sur l'évolution. Elle jette le soupçon sur l'environnement, qui pourrait moduler l'activité de certains de nos gènes pour modifier nos caractères, voire induire certaines maladies qui pourraient être transmis(es) à la descendance. La première question, cependant, est celle de la définition de ce fascinant concept. Un certain flou persiste, même chez les scientifiques. "Ces ambiguïtés tiennent au fait que le terme a été introduit à plusieurs reprises dans l'histoire de la biologie, avec à chaque fois un sens différent", raconte Michel Morange, qui est aussi historien des sciences. Précurseur absolu, Aristote invente le terme "épigenèse" - de épi-, "au-dessus de", et genèse, "génération" - vers 350 avant notre ère. "Observant des embryons de poulet, Aristote découvre que les formes ne préexistent pas dans le germe, mais sont, au contraire, progressivement façonnées au cours du développement embryonnaire", rapporte Edith Heard, qui dirige une équipe (Institut Curie-Inserm-CNRS) sur l'épigénétique du développement des mammifères. Une vision admirablement prémonitoire, qui ne se verra confirmée qu'avec l'invention du microscope à la fin du XVIIe siècle. Quant au mot "épigénétique", il apparaît en 1942 : on le doit au généticien anglais Conrad Waddington, qui s'attache à comprendre le rôle des gènes dans le développement. Comment s'opère le passage du génotype (l'ensemble des gènes) au phénotype (l'ensemble des caractères d'un individu) ? A l'époque, on ignorait que l'ADN est le support de l'hérédité. Mais les liens entre génotype et phénotype se précisent peu à peu, à mesure qu'on découvre la structure des gènes et leur mode de régulation. Une étape décisive est franchie avec les travaux de François Jacob, Jacques Monod et André Lwoff, Prix Nobel en 1965 : ils montrent l'importance d'un facteur de l'environnement (la présence d'un sucre, le lactose) dans le contrôle de l'expression d'un gène et la détermination d'un caractère (la capacité de la bactérie E. coli à utiliser le lactose comme source d'énergie). Le concept d'épigénétique tombe ensuite en relative déshérence, pour renaître dans les années 1980 avec son sens moderne. "Un chercheur australien, Robin Holliday, observe dans des cellules en culture des changements de caractères qui sont transmis au fil des divisions cellulaires, relate Vincent Colot. Mais ces changements semblaient trop fréquents pour pouvoir être causés par des mutations de l'ADN." Holliday découvre le rôle, dans cette transmission, de certaines modifications de l'ADN qui n'affectent pas la séquence des "nucléotides", ces lettres qui écrivent le message des gènes. Plus largement, on sait aujourd'hui que les gènes peuvent être "allumés" ou "éteints" par plusieurs types de modifications chimiques qui ne changent pas la séquence de l'ADN : des méthylations de l'ADN, mais aussi des changements des histones, ces protéines sur lesquelles s'enroule l'ADN pour former la chromatine. Toutes ces modifications constituent autant de "marques épigénétiques". Elles jalonnent le génome en des sites précis, modulant l'activité des gènes localisés sur ces sites. Quelle est la stabilité de ces marques épigénétiques ? La question est centrale. Certaines sont très transitoires, comme les marques qui régulent les gènes liés aux rythmes du jour et de la nuit. "Au moins 15 % de nos gènes sont régulés d'une façon circadienne : leur activité oscille sur un rythme de 24 heures. Il s'agit de gènes qui gouvernent notre métabolisme, assurant par exemple l'utilisation des sucres ou des acides gras", indique Paolo Sassone-Corsi, qui travaille au sein d'une unité Inserm délocalisée, dirigée par Emiliana Borrelli à l'université de Californie (Irvine). "Pour réguler tant de gènes d'une façon harmonieuse, il faut une logique commune. Elle se fonde sur des processus épigénétiques qui impliquent des modifications des histones." D'autres marques ont une remarquable pérennité. "Chez un individu multicellulaire, elles peuvent être acquises très tôt lors du développement, sous l'effet d'un signal inducteur, rapporte Vincent Colot. Elles sont ensuite transmises au fil des divisions cellulaires jusque chez l'adulte - bien longtemps après la disparition du signal inducteur." Les marques les plus stables sont ainsi les garantes de "l'identité" des cellules, la vie durant. Comme si, sur la partition d'orchestre de l'ADN du génome - commune à toutes les cellules de l'organisme -, chaque instrument - chaque type de cellule - ne jouait que la partie lui correspondant, n'activant que les gènes "tagués" par ces marques. Un des plus beaux exemples de contrôle épigénétique chez les mammifères est "l'inactivation du chromosome X". "Ce processus a lieu chez toutes les femelles de mammifères, qui portent deux exemplaires du chromosome X, explique Edith Heard. L'inactivation d'un des deux exemplaires du X, au cours du développement précoce, permet de compenser le déséquilibre existant avec les mâles, porteurs d'un seul exemplaire du X." Si l'inactivation du X est déficiente, l'embryon femelle meurt très précocement. Cette inactivation est déclenchée très tôt dans le développement de l'embryon, "dès le stade "4 cellules" chez la souris et un plus tard pour l'espèce humaine, puis elle est stabilisée par des processus épigénétiques tout au long de la vie", poursuit Edith Heard. Par ailleurs, son équipe vient de publier un article dans Nature mis en ligne le 11 avril, montrant que les chromosomes s'organisent en "domaines", à l'intérieur desquels les gènes peuvent être régulés de façon concertée, et sur lesquels s'ajoutent des marques épigénétiques. Les enjeux sont aussi médicaux. Certaines "épimutations", ou variations de l'état épigénétique normal, seraient en cause dans diverses maladies humaines et dans le vieillissement. Ces épimutations se produisent par accident, mais aussi sous l'effet de facteurs environnementaux. Le rôle de ces facteurs est très activement étudié dans le développement de maladies chroniques comme le diabète de type 2, l'obésité ou les cancers, dont la prévalence explose à travers le monde. Les perspectives sont également thérapeutiques, avec de premières applications qui voient le jour. "Les variations épigénétiques sont finalement assez plastiques. Elles peuvent être effacées par des traitements chimiques, ce qui ouvre d'immenses perspectives thérapeutiques. Cet espoir s'est déjà concrétisé par le développement de premières "épidrogues" pour traiter certains cancers", annonce Edith Heard. Le dernier défi de l'épigénétique, et non des moindres, renvoie aux théories de l'évolution. "Alors que le génome est très figé, l'épigénome est bien plus dynamique", estime Jonathan Weitzman, directeur du Centre épigénétique et destin cellulaire (université Paris-Diderot-CNRS). "L'épigénome pourrait permettre aux individus d'explorer rapidement une adaptation à une modification de l'environnement, sans pour autant graver ce changement adaptatif dans le génome", postule le chercheur. L'environnement jouerait-il un rôle dans la genèse de ces variations adaptatives, comme le croyait Lamarck ? Reste à le démontrer. Epigénétique ou non, le destin est espiègle : le laboratoire qu'anime Jonathan Weitzman n'a-t-il pas été aléatoirement implanté... dans le bâtiment Lamarck ?

Auteur: Internet

Info: Rosier Florence, https://www.lemonde.fr/sciences/ 13 avril 2012

[ interférences ] [ mutation acquise ]

 

Commentaires: 0

Ajouté à la BD par miguel

mnémonique

La meilleure stratégie d'apprentissage peut-elle dépendre de ce dont on essaye de se souvenir ?

Différentes approches peuvent prendre en charge diverses formes de mémoire

La répétition est un élément clé de l’apprentissage. Si vous voulez vous souvenir de quelque chose, revenez-y encore et encore. Mais le moment et la manière dont vous revisitez les informations sont importants. Des décennies de recherche ont montré que les gens se souviennent mieux des informations à long terme lorsqu'ils y reviennent au fil du temps, plutôt que d'essayer de tout mémoriser rapidement et consécutivement. Il s’agit de " l’effet d’espacement ", l’une des découvertes les plus solides et les plus renouvelée des recherches sur la mémoire.

La plupart des études antérieures sur l’effet d’espacement se sont concentrées sur l’apprentissage qui implique la répétition exacte du même contenu encore et encore. Pourtant, à l'exception de la préparation d'un examen, les environnements et les situations dans lesquels nous apprenons de nouvelles choses sont généralement beaucoup moins contrôlés. Imaginez  une rencontre avec un nouveau collègue. La prochaine fois que vous vous rencontrerez, ce sera peut-être dans un autre endroit ou avec un groupe de personnes, ou le nouveau collègue aura peut-être une coupe de cheveux différente. Comment cette variabilité influe-t-elle quant aux avantages  mémoriels associés à pareil effet d'espacement ?

Dans deux expériences récemment publiées dans les Actes de la National Academy of Sciences USA , nous avons examiné comment l'effet d'espacement profite à la mémoire lorsque le matériel répété contient un mélange réel de caractéristiques stables et variables. Nous avons constaté que ce type de variation peut faire une différence dans ce qu'on apprend et dans la qualité de notre apprentissage. Et même si l’espacement reste une excellente stratégie pour certains types de connaissances, d’autres tactiques peuvent également améliorer cette capacité à mémoriser des informations.

Dans les deux expériences, nous avons évalué dans quelle mesure les gens pouvaient se souvenir de paires d'images visuelles : un élément, tel qu'un personnage de dessin animé, un animal ou un outil, et une scène, telle qu'un lieu célèbre ou une photographie d'une pièce. Par exemple, les participants pourraient voir un homme vert moustachu côte à côte avec une photographie de la Tour Eiffel ou l'image d'un marteau avec une cuisine. Nos participants ont observé plus de 40 de ces appariements au cours de ce que nous appelons des " séances d’apprentissage ".

Nous avons présenté chaque paire d'images quatre fois au cours des sessions. Pour créer un mélange de fonctionnalités stables et variables, les paires ont été soit présentées de manière identique, avec le même élément et la même scène toujours affichés ensemble, soit l'élément est apparu à côté d'une nouvelle scène à chaque fois. (Par exemple, l'homme vert pourrait apparaître à nouveau avec la Tour Eiffel ou à côté d'un autre monument, comme les pyramides de Gizeh ou la Maison Blanche.) Pour examiner comment la variabilité influence l'effet d'espacement, nous avons contrôlé la distance entre les quatre répétitions de les paires ont été visualisées, soit rapprochées, soit espacées dans le temps.

Dans la première expérience, qui a porté sur 157 participants, ces derniers ont participé à quatre séances d’apprentissage par jour pendant une période de 24 jours, en utilisant le navigateur de leur téléphone portable. Tirant parti de la longue période de cette expérience, nous avons espacé l’apparition des paires d’éléments et de scènes répétées de quelques heures à quelques jours. Nous avons demandé aux participants d’étudier les paires en leur envoyant des SMS leur demandant de commencer chaque séance d’apprentissage. Le 25e jour, les participants ont passé un test pour voir dans quelle mesure ils avaient bien assimilé et mémorisé les images.

Dans notre deuxième expérience, 136 personnes ont participé via une plateforme informatique plutôt que via un téléphone portable. Cette fois, nous avons compressé tout l’apprentissage en une seule session sur une seule journée. Nous pouvions toujours répéter les paires cohérentes et variables soit dos à dos, soit avec un espacement, mais ici l'apprentissage n'était distribué que par secondes ou minutes.

Ensemble, les résultats de nos deux expériences suggèrent que l'espacement et la variabilité peuvent tous deux bénéficier à la mémoire, en fonction de l'aspect d'une expérience dont vous essayez de vous souvenir. Nos études nous ont permis d'examiner deux formes de mémoire : la mémoire d'objet, la capacité de rappeler un élément isolé (comme l'homme vert), et la mémoire associative, les composants liés ou les relations entre les éléments (comme l'homme vert avec la tour Eiffel). Ces deux types de mémoire constituent des aspects essentiels mais différents de la façon dont nous nous souvenons des expériences. Et bien qu’ils soient clairement liés, les neuroscientifiques pensent que le cerveau stocke et organise les éléments et les associations de manière distincte.

Conformément aux recherches précédentes, nous avons constaté que l’espacement des séances d’apprentissage permettait une meilleure mémorisation des éléments que des séances consécutives. En d’autres termes, les participants se rappelaient mieux s’ils avaient déjà rencontré l’homme vert, par exemple, lorsque les répétitions de cette image avaient été espacées.

Mais les gens se souvenaient également mieux des éléments lorsqu'ils les avaient vus associés à des scènes différentes à chaque répétition, par rapport aux éléments toujours présentés avec la même scène. Il est intéressant de noter que cette différence était plus prononcée lorsqu’il y avait moins d’espacement entre les répétitions, par exemple lorsque les paires étaient vues dans un temps rapproché.

Cela suggère un raccourci potentiel pour les personnes essayant de se souvenir d'un détail ou d'une fonctionnalité spécifique dans un laps de temps limité. Supposons que vous essayiez de vous rappeler que le nom d'une nouvelle collègue est Sarah. Il pourrait être utile de penser à vous-même : " Sarah a les cheveux bruns ", " J'ai rencontré Sarah au travail ", " Sarah a un chien ", " Sarah est allergique aux cacahuètes ", etc., plutôt que d'essayer simplement de faire en sorte que Sarah ait les cheveux bruns. le nom reste dans votre esprit en le répétant. Vous ne vous souvenez peut-être pas de tous ces détails, mais votre mémorisation du nom de votre collègue s'améliorera.

Dans les deux expériences, nous avons constaté que la mémoire associative bénéficiait de la cohérence. En d’autres termes, les gens associaient plus facilement l’homme vert et la Tour Eiffel à condition que cette association soit réapparue de manière fiable au fil des sessions d’apprentissage. L'espacement a aidé les personnes à former ces souvenirs associatifs uniquement lorsque les paires étaient les mêmes à chaque répétition et que l'espacement entre les répétitions des paires était suffisamment long (comme dans les heures ou les jours de notre première expérience).

En d'autres termes, si vous souhaitez vous rappeler à la fois que le nom de votre collègue est Sarah et qu'elle a un chien, il n'y a pas vraiment de raccourci : vous devrez répéter cette information dans son intégralité au fil du temps pour la rendre mémorable. Il est possible que la distinction entre mémoire d'objet et mémoire associative reflète des différences dans la façon dont notre cerveau renforce et construit des souvenirs. Autrement dit, le cerveau pourrait utiliser le changement pour cimenter les caractéristiques isolées et stables de la mémoire tout en s’appuyant sur la cohérence pour relier plusieurs caractéristiques associées.

Dans l’ensemble, nos travaux suggèrent que les gens peuvent utiliser la variabilité et la répétition pour améliorer la mémoire de divers aspects de leur expérience. Bien que nous n’ayons pas étudié directement les milieux éducatifs, ces travaux ont des implications passionnantes pour lênseignement ainsi que pour notre vie quotidienne. Par exemple, en fonction de ce qu'un enseignant souhaite que son élève apprenne, le matériel pédagogique peut soit être répété de manière identique d'une leçon à l'autre, soit être intégré à chaque fois dans un nouveau plan de cours, offrant ainsi une source de variabilité.

Ces résultats renforcent l’idée selon laquelle ce que nous conservons en mémoire reflète la nature multiforme de nos expériences du monde réel. Nous ne pouvons pas nous souvenir de tout ce que nous vivons, et ces expériences sont rarement aussi contrôlées que dans nos conceptions expérimentales. Tirer parti de cette complexité peut ouvrir la porte à de nouvelles recherches pour comprendre comment et ce que nous apprenons et mémorisons.

Auteur: Internet

Info: https://www.scientificamerican.com/ - 21 Juin 2024 - EMILY T. COWAN , VISHNU P. MURTY , BENJAMIN M. ROTTMAN ET YIWEN ZHANG

[ combinatoire ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Les progrès récents de l'intelligence artificielle (IA), notamment avec ChatGPT en novembre 2022, ont suscité interrogations, espoirs et craintes, menant à des auditions par le Congrès américain et l'adoption d'une réglementation par l'UE au printemps 2023. 

Dans les parlements comme sur les réseaux sociaux, les rapides progrès de l’IA animent les discussions. À l’avenir, à quels impacts faut-il s’attendre sur notre société ? Pour tenter de répondre à cette question de manière dépassionnée, nous proposons de regarder ce qui s’est passé dans un secteur qui a déjà connu l’arrivée et la victoire de l’IA sur les capacités humaines : les échecs. La machine y a en effet un niveau supérieur à celui des humains depuis maintenant plus d’un quart de siècle.

Pourquoi le jeu d’échecs comme indicateur ?

Depuis les débuts de l’informatique, les échecs ont été utilisés comme un indicateur des progrès logiciels et matériels. C’est un jeu intéressant à de multiples niveaux pour étudier les impacts des IA sur la société :

1 C’est une activité intellectuelle qui demande différentes compétences : visualisation spatiale, mémoire, calcul mental, créativité, capacité d’adaptation, etc., compétences sur lesquelles l’IA vient concurrencer l’esprit humain.

2 Le jeu n’a pas changé depuis des siècles. Les règles sont bien établies et cela donne une base stable pour étudier l’évolution des joueurs.

3  Il est possible de mesurer la force des machines de manière objective et de comparer ce niveau à celui des humains avec le classement Elo.

4 Le champ d’études est restreint : il est clair que les échecs ne sont qu’un tout petit aspect de la vie, mais c’est justement le but. Cette étroitesse du sujet permet de mieux cibler les impacts des IA sur la vie courante.

5  Les IA ont dépassé le niveau des meilleurs joueurs humains depuis plus de 20 ans. Il est donc possible de voir quels ont été les impacts concrets sur le jeu d’échecs et la vie de sa communauté, qui peut être vue comme un microcosme de la société. On peut également étudier ces impacts en regard de la progression des IA au cours du temps.

Explorons quelles ont été les évolutions dans le monde des échecs depuis que Gary Kasparov, alors champion du monde en titre, a perdu une partie contre Deep Blue en 1996, puis le match revanche joué en 1997. Nous allons passer en revue plusieurs thèmes qui reviennent dans la discussion sur les risques liés aux IA et voir ce qu’il en a été de ces spéculations dans le domaine particulier des échecs.

Les performances de l’IA vont-elles continuer à augmenter toujours plus vite ?

Il existe deux grandes écoles pour programmer un logiciel d’échecs : pendant longtemps, seule la force brute fonctionnait. Il s’agissait essentiellement de calculer le plus vite possible pour avoir un arbre de coups plus profonds, c’est-à-dire capable d’anticiper la partie plus loin dans le futur.

(Image : À partir d’une position initiale, l’ordinateur calcule un ensemble de possibilités, à une certaine profondeur, c’est-à-dire un nombre de coups futurs dans la partie.)

Aujourd’hui, la force brute est mise en concurrence avec des techniques d’IA issues des réseaux de neurones. En 2018, la filiale de Google DeepMind a produit AlphaZero, une IA d’apprentissage profond par réseau de neurones artificiels, qui a appris tout seul en jouant contre lui-même aux échecs. Parmi les logiciels les plus puissants de nos jours, il est remarquable que LC0, qui est une IA par réseau de neurones, et Stockfish, qui est essentiellement un logiciel de calcul par force brute, aient tous les deux des résultats similaires. Dans le dernier classement de l’Association suédoise des échecs sur  ordinateur (SSDF), ils ne sont séparés que de 4 points Elo : 3 582 pour LC0 contre 3 586 pour Stockfish. Ces deux manières totalement différentes d’implanter un moteur d’échecs sont virtuellement indistinguables en termes de force.

En termes de points Elo, la progression des machines a été linéaire. Le graphique suivant donne le niveau du meilleur logiciel chaque année selon le classement SSDF qui a commencé depuis le milieu des années 1980. Le meilleur logiciel actuel, LC0, en est à 3586, ce qui prolonge la figure comme on pourrait s’y attendre.

(Image : courbe du classement ELO )

Cette progression linéaire est en fait le reflet d’une progression assez lente des logiciels. En effet, le progrès en puissance de calcul est, lui, exponentiel. C’est la célèbre loi de Moore qui stipule que les puissances de calcul des ordinateurs doublent tous les dix-huit mois.

Cependant, Ken Thompson, informaticien américain ayant travaillé dans les années 80 sur Belle, à l’époque le meilleur programme d’échecs, avait expérimentalement constaté qu’une augmentation exponentielle de puissance de calcul conduisait à une augmentation linéaire de la force des logiciels, telle qu’elle a été observée ces dernières dizaines d’années. En effet, le fait d’ajouter un coup supplémentaire de profondeur de calcul implique de calculer bien plus de nouvelles positions. On voit ainsi que l’arbre des coups possibles est de plus en plus large à chaque étape.

Les progrès des IA en tant que tels semblent donc faibles : même si elles ne progressaient pas, on observerait quand même une progression de la force des logiciels du simple fait de l’amélioration de la puissance de calcul des machines. On ne peut donc pas accorder aux progrès de l’IA tout le crédit de l’amélioration constante des ordinateurs aux échecs.

La réception par la communauté de joueurs d’échecs

Avec l’arrivée de machines puissantes dans le monde de l'échiquier, la communauté a nécessairement évolué. Ce point est moins scientifique mais est peut-être le plus important. Observons quelles ont été ces évolutions.

" Pourquoi les gens continueraient-ils de jouer aux échecs ? " Cette question se posait réellement juste après la défaite de Kasparov, alors que le futur des échecs amateurs et professionnels paraissait sombre. Il se trouve que les humains préfèrent jouer contre d’autres humains et sont toujours intéressés par le spectacle de forts grands maîtres jouant entre eux, et ce même si les machines peuvent déceler leurs erreurs en temps réel. Le prestige des joueurs d’échecs de haut niveau n’a pas été diminué par le fait que les machines soient capables de les battre.

Le style de jeu a quant à lui été impacté à de nombreux niveaux. Essentiellement, les joueurs se sont rendu compte qu’il y avait beaucoup plus d’approches possibles du jeu qu’on le pensait. C’est l’académisme, les règles rigides, qui en ont pris un coup. Encore faut-il réussir à analyser les choix faits par les machines. Les IA sont par ailleurs très fortes pour pointer les erreurs tactiques, c’est-à-dire les erreurs de calcul sur de courtes séquences. En ligne, il est possible d’analyser les parties de manière quasi instantanée. C’est un peu l’équivalent d’avoir un professeur particulier à portée de main. Cela a sûrement contribué à une augmentation du niveau général des joueurs humains et à la démocratisation du jeu ces dernières années. Pour le moment, les IA n’arrivent pas à prodiguer de bons conseils en stratégie, c’est-à-dire des considérations à plus long terme dans la partie. Il est possible que cela change avec les modèles de langage, tel que ChatGPT.

Les IA ont aussi introduit la possibilité de tricher. Il y a eu de nombreux scandales à ce propos, et on se doit de reconnaître qu’il n’a pas à ce jour de " bonne solution " pour gérer ce problème, qui rejoint les interrogations des professeurs, qui ne savent plus qui, de ChatGPT ou des étudiants, leur rendent les devoirs.

Conclusions temporaires

Cette revue rapide semble indiquer qu’à l’heure actuelle, la plupart des peurs exprimées vis-à-vis des IA ne sont pas expérimentalement justifiées. Le jeu d’échecs est un précédent historique intéressant pour étudier les impacts de ces nouvelles technologies quand leurs capacités se mettent à dépasser celles des humains. Bien sûr, cet exemple est très limité, et il n’est pas possible de le généraliser à l’ensemble de la société sans précaution. En particulier, les modèles d’IA qui jouent aux échecs ne sont pas des IA génératives, comme ChatGPT, qui sont celles qui font le plus parler d’elles récemment. Néanmoins, les échecs sont un exemple concret qui peut être utile pour mettre en perspective les risques associés aux IA et à l’influence notable qu’elles promettent d’avoir sur la société.


Auteur: Internet

Info: https://www.science-et-vie.com/ - Article issu de The Conversation, écrit par Frédéric Prost Maître de conférences en informatique, INSA Lyon – Université de Lyon 14 avril 2024

[ ouverture ] [ conformisme limitant ]

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde

Comment l’IA impacte la recherche sur la structure des protéines

Chaque être humain possède plus de 20 000 protéines. Par exemple l’hémoglobine qui s’occupe du transport de l’oxygène depuis les poumons vers les cellules de tout le corps, ou encore l’insuline qui indique à l’organisme la présence de sucre dans le sang.

Chaque protéine est formée d’une suite d’acides aminés, dont la séquence détermine son repliement et sa structure spatiale – un peu comme si un mot se repliait dans l’espace en fonction des enchaînements de lettres dont il est composé. Cette séquence et ce repliement (ou structure) de la protéine déterminent sa fonction biologique : leur étude est le domaine de la « biologie structurale ». Elle s’appuie sur différentes méthodes expérimentales complémentaires, qui ont permis des avancées considérables dans notre compréhension du monde du vivant ces dernières décennies, et permet notamment la conception de nouveaux médicaments.

Depuis les années 1970, on cherche à connaître les structures de protéines à partir de la seule connaissance de la séquence d’acides aminés (on dit « ab initio »). Ce n’est que très récemment, en 2020, que ceci est devenu possible de manière quasi systématique, avec l’essor de l’intelligence artificielle et en particulier d’AlphaFold, un système d’IA développé par une entreprise appartenant à Google.

Face à ces progrès de l’intelligence artificielle, quel est désormais le rôle des chercheurs en biologie structurale ?

Pour le comprendre, il faut savoir qu’un des défis de la biologie de demain est la "biologie intégrative", qui a pour objectif de comprendre les processus biologiques au niveau moléculaire dans leurs contextes à l’échelle de la cellule. Vu la complexité des processus biologiques, une approche pluridisciplinaire est indispensable. Elle s’appuie sur les techniques expérimentales, qui restent incontournables pour l’étude de la structure des protéines, leur dynamique et leurs interactions. De plus, chacune des techniques expérimentales peut bénéficier à sa manière des prédictions théoriques d’AlphaFold.

(Photo) Les structures de trois protéines de la bactérie Escherichia coli, déterminées par les trois méthodes expérimentales expliquées dans l’article, à l’Institut de Biologie Structurale de Grenoble. Beate Bersch, IBS, à partir d’une illustration de David Goodsell, Fourni par l'auteur

La cristallographie aux rayons X

La cristallographie est, à cette date, la technique la plus utilisée en biologie structurale. Elle a permis de recenser plus de 170 000 structures de protéines dans la "Protein Data Bank", avec plus de 10 000 repliements différents.

Pour utiliser la cristallographie à rayons X, il faut faire "cristalliser les protéines". On dit souvent que cette technique est limitée par la qualité de cristaux de protéines, qui est moindre pour les grosses protéines. Mais cette notion ne correspond pas toujours à la réalité : par exemple, la structure du ribosome, l’énorme machine moléculaire qui assemble les protéines, a été résolue à 2,8 angströms de résolution. Venkatraman Ramakrishnan, Thomas Steitz et Ada Yonath ont reçu le prix Nobel de chimie en 2009 pour ce travail.

Avec le développement récent du laser X à électron libre (XFEL), il est devenu possible d’étudier simultanément des milliers de microcristaux de protéines à température ambiante et à l’échelle de la femtoseconde (10-15 secondes, soit un millionième de milliardième de seconde, l’échelle de temps à laquelle ont lieu les réactions chimiques et le repliement des protéines). Cette technique permet d’imager les protéines avant qu’elles ne soient détruites. Elle est en train de révolutionner la "cristallographie cinétique", qui permet de voir les protéines "en action", ainsi que la recherche de médicaments.

Pour l’instant, l’apport d’AlphaFold à l’étude de la structure des protéines par cristallographie s’est concentré dans la génération de modèles de protéines assez précis pour appliquer la technique dite de "remplacement moléculaire" à la résolution des structures.

La spectroscopie par résonance magnétique nucléaire

Une autre méthode expérimentale pour étudier la structure des protéines est la "spectroscopie par résonance magnétique nucléaire". Alors que son alter ego d’imagerie médicale, l’IRM, regarde la distribution spatiale d’un seul signal, caractéristique des éléments chimiques dans les tissus biologiques observés, en spectroscopie par résonance magnétique nucléaire, c’est un ensemble de signaux provenant des atomes constituant la protéine qui est enregistré (ce qu’on appelle le "spectre").

Généralement, la détermination de la structure par résonance magnétique est limitée à des protéines de taille modeste. On calcule des modèles de molécules basés sur des paramètres structuraux (comme des distances interatomiques), provenant de l’analyse des spectres expérimentaux. On peut s’imaginer cela comme dans les débuts de la cartographie, où des distances entre des points de référence permettaient de dessiner des cartes en 2D. Pour faciliter l’interprétation des spectres qui contiennent beaucoup d’information, on peut utiliser des modèles obtenus par prédiction (plutôt qu’expérimentalement), comme avec AlphaFold.

En plus de la détermination structurale, la spectroscopie par résonance magnétique nucléaire apporte deux atouts majeurs. D’une part, en général, l’étude est effectuée avec un échantillon en solution aqueuse et il est possible d’observer les parties particulièrement flexibles des protéines, souvent invisibles avec les autres techniques. On peut même quantifier leur mouvement en termes d’amplitude et de fréquence, ce qui est extrêmement utile car la dynamique interne des protéines est aussi cruciale pour leur fonctionnement que leur structure.

D’autre part, la spectroscopie par résonance magnétique nucléaire permet de détecter aisément les interactions des protéines avec des petites molécules (ligands, inhibiteurs) ou d’autres protéines. Ceci permet d’identifier les sites d’interaction, information essentielle entre autres pour la conception rationnelle de molécules actives comme des médicaments.

Ces propriétés font de la spectroscopie par résonance magnétique nucléaire un outil extraordinaire pour la caractérisation fonctionnelle des protéines en complémentarité avec d’autres techniques expérimentales et l’IA.

La "cryomicroscopie électronique"

La cryomicroscopie électronique consiste à congeler ultrarapidement (environ -180 °C) un échantillon hydraté dans une fine couche de glace, qui sera traversée par les électrons. Les électrons transmis vont générer une image de l’échantillon, qui après analyse, permet d’accéder à des structures qui peuvent atteindre la résolution atomique. En comparaison, un microscope optique n’a un pouvoir résolutif que de quelques centaines de nanomètres, qui correspond à la longueur d’onde de la lumière utilisée ; seul un microscope utilisant une source possédant des longueurs d’onde suffisamment faibles (comme les électrons pour la microscopie électronique) possède un pouvoir résolutif théorique de l’ordre de l’angström. Le prix Nobel de Chimie 2017 a été décerné à Jacques Dubochet, Richard Henderson et Joachim Frank pour leurs contributions au développement de la cryomicroscopie électronique.

Avec de nombreux développements technologiques, dont celui des détecteurs à électrons directs, depuis le milieu des années 2010, cette technique est devenue essentielle en biologie structurale en amorçant une "révolution de la résolution". En effet, la cryomicroscopie électronique permet désormais d’obtenir des structures avec une résolution atomique, comme dans le cas de l’apoferritine – une protéine de l’intestin grêle qui contribue à l’absorption du fer – à 1,25 angström de résolution.

Son principal atout est de permettre de déterminer la structure d’objets de taille moyenne, au-delà de 50 000 Dalton (un Dalton correspond environ à la masse d’un atome d’hydrogène), comme l’hémoglobine de 64 000 Dalton, mais également d’objets de quelques milliards de daltons (comme le mimivirus, virus géant d’environ 0,5 micromètre).

Malgré toutes les avancées technologiques précédemment évoquées, la cryomicroscopie ne permet pas toujours de résoudre à suffisamment haute résolution la structure de "complexes", constitués de plusieurs protéines. C’est ici qu’AlphaFold peut aider et permettre, en complémentarité avec la cryomicroscopie, de décrire les interactions au niveau atomique entre les différents constituants d’un complexe. Cette complémentarité donne une force nouvelle à la cryomicroscopie électronique pour son rôle à jouer demain en biologie structurale.

Les apports d’AlphaFold

AlphaFold permet de prédire la structure de protéines uniquement à partir de leur séquence avec la connaissance acquise par la biologie structurale expérimentale. Cette approche est révolutionnaire car les séquences de beaucoup de protéines sont connues à travers les efforts des séquençages des génomes, mais déterminer leurs structures expérimentalement nécessiterait des moyens humains et techniques colossaux.

À l’heure actuelle, ce type de programme représente donc un acteur supplémentaire de complémentarité, mais ne se substitue pas aux techniques expérimentales qui, comme nous l’avons vu, apportent aussi des informations complémentaires (dynamiques, interfaces), à des échelles différentes (des sites métalliques aux complexes multiprotéiques) et plus fiables, car expérimentalement vérifiées. Au-delà de la pure détermination structurale d’une protéine isolée, la complexité des systèmes biologiques nécessite souvent une approche pluridisciplinaire afin d’élucider mécanismes et fonctions de ces biomolécules fascinantes que sont les protéines.

Auteur: Internet

Info: Published: December 19, 2022 Beate Bersch, Emmanuelle Neumann, Juan Fontecilla, Université Grenoble Alpes (UGA)

[ gnose chimique ]

 

Commentaires: 0

Ajouté à la BD par miguel

chair-esprit

Le libre-arbitre existe-t-il ? Comment le cerveau déforme la réalité temporelle
Nous avons coutume de penser que nous sommes libres de décider et de choisir nos actes. Et pourtant, une série d'expériences de neurosciences jettent un doute sur ce qu'on a l'habitude d'appeler notre libre-arbitre.
Même si elles sont largement débattues, tant du point de vue de leurs résultats scientifiques que de l'interprétation philosophique qui en est donnée, ces expériences sont plutôt troublantes !
Libre-arbitre et activité neurologique
Nous avons tous une notion intuitive de ce qu'est le libre-arbitre. Sur le plan biologique, il peut être associé à la notion d'action volontaire, qui s'oppose à celle de réflexe. Alors que les réflexes empruntent des chemins neuronaux simples (comme un rapide circuit via la moelle épinière), les actions volontaires font intervenir de nombreuses aires cérébrales.
1983 : L'expérience fondatrice de Benjamin Libet*
Dans l'expérience de Libet, on vous place devant une horloge qui défile rapidement, et on vous donne un bouton sur lequel vous pouvez appuyer au moment qui vous plaira. La seule chose qu'on vous demande c'est de retenir le nombre indiqué par l'horloge au moment où vous prenez votre décision d'appuyer. Dans le même temps, des électrodes placées sur votre crâne suivent votre activité cérébrale.
Ce dispositif permet de mesurer 1) le moment où vous prenez la décision d'appuyer, 2) le moment où votre cerveau commence à s'activer, et 3) le moment où vous appuyez physiquement sur le bouton. Et la découverte spectaculaire de Libet, c'est que l'activation cérébrale précède la décision consciente, et ce de plusieurs centaines de millisecondes.
Interprétée de manière brute, l'expérience de Libet semble condamner le libre-arbitre : vous avez l'impression de décider d'appuyer à un certain moment, mais votre cerveau a déjà décidé depuis presque une demi-seconde ! Comment puis-je être libre de décider quelque chose, si au moment où j'ai conscience de choisir, mon cerveau a déjà commencé à agir ? Comme on peut s'en douter, cette expérience possède de nombreux points faibles que les spécialistes n'ont pas été longs à relever.
Il y a tout d'abord les incertitudes de mesure, puisqu'on parle ici d'un écart de seulement quelques centaines de millisecondes. Ensuite le fait que l'estimation du moment de décision par le sujet lui-même n'est certainement pas très fiable : elle est subjective et l'horloge peut constituer une source de distraction et donc d'erreur. Enfin, le signal électrique relevé dans le cerveau pourrait être simplement un signal "préparatoire", qui indique que le cerveau s'active mais qui ne détermine pas spécifiquement la décision que l'on va prendre.
Bref, il y a plein de critiques à faire à l'expérience de Libet, et qui permettent de se rassurer quant à l'existence de notre libre-arbitre. Tout va bien donc, jusqu'à une nouvelle expérience réalisée en 2008, et qui s'affranchit de la plupart de ces critiques.
Dans cette nouvelle expérience, plusieurs choses diffèrent par rapport au protocole de Benjamin Libet. Tout d'abord, le sujet dispose de 2 boutons, un dans sa main gauche et un dans sa main droite. Il peut appuyer quand il le souhaite, soit à gauche soit à droite. Ensuite, le cerveau du sujet est suivi cette fois dans une IRM, ce qui permet d'observer simultanément l'activité de tout un ensemble d'aires cérébrales.
Et le moins que l'on puisse dire, c'est que les résultats de cette expérience sont perturbants. D'une part, l'IRM révèle qu'une activité cérébrale préparatoire existe 7 à 10 secondes AVANT que le sujet ne prenne sa décision d'appuyer. Encore plus troublant, cette activité cérébrale permet dans une bonne mesure de prédire de quel côté le sujet va appuyer.
Oui oui, vous avez bien lu, plusieurs secondes avant que vous soyiez conscient de choisir, votre cerveau a déjà décidé entre droite et gauche, et l'IRM peut révéler le côté qui sera choisi !
Pour modérer un peu ce résultat apparemment catastrophique pour notre libre-arbitre, il faut noter que la prédiction faite par l'IRM est loin d'être infaillible, puisqu'elle fonctionne au mieux dans 60% des cas, ce qui est significativement mieux que le hasard, mais reste tout de même limité.
Quelle conclusion raisonnable tirer de ces expériences ?
Il faut savoir qu'il n'existe chez les scientifiques et les philosophes aucun consensus quant à l'interprétation de ces expériences. Pour certains comme Patrick Haggard, le libre-arbitre n'existe tout simplement pas, il affirme "We feel that we choose, but we don't". Pour d'autres, au contraire, ces expériences n'ont aucune valeur, "Circulez ya rien à voir !".
Une position intermédiaire raisonnable c'est d'admettre que ces expériences montrent au moins que nos intentions ne sont pas systématiquement à l'origine de nos actions. Les processus inconscients jouent peut être un plus grand rôle que nous ne pouvions le penser, et la conscience d'une décision est un phénomène qui se construit au cours du processus de décision, pas à son origine.
Comme cette conclusion prudente semble quand même en mettre un coup à notre vieille notion de libre-arbitre, une manière de se rassurer c'est de considérer que notre cerveau prépare nos décisions assez en avance par rapport à notre conscience, mais qu'il nous laisse jusqu'au dernier moment un droit de veto. Il semblerait qu'une des fonctions de cette aire appelée SMA soit justement de pouvoir inhiber certaines actions décidées et préparées en amont. Donc jusqu'au dernier moment, on aurait le choix de ne pas faire. C'est ce que les anglo-saxons appellent le "free won't", par analogie au libre-arbitre appelé "free will".
Pour d'autres philosophes comme Dan Dennett, ces expériences sont correctes, mais elles ne sont pas incompatibles avec le libre-arbitre. Ces philosophes adhèrent à une position appelée compatibilisme, selon laquelle la réalité est totalement déterministe mais le libre-arbitre existe quand même. J'avoue que je ne comprends pas ce que ça signifie, et que pour moi ça ressemble beaucoup à une posture de façade "pour sauver les meubles". Ce qu'on peut comprendre car si le libre-arbitre était vraiment réfuté, les conséquences pour la société pourraient être terribles.
Les implications morales de l'absence de libre-arbitre
Imaginons que l'on montre scientifiquement que le libre-arbitre n'existe pas, alors on est mal car toutes nos lois et notre droit reposent sur la notion de responsabilité individuelle : nous sommes responsables de nos actes car nous sommes libres de les accomplir ou pas.
D'ailleurs en droit, pour être puni d'un crime, il faut qu'il y ait à la fois l'intention et l'action. La pensée n'est pas un crime, donc si vous avez juste l'intention de commettre un forfait, on ne peut pas vous condamner pour ça (encore que ce ne soit pas totalement vrai, notamment dans le cas de la préparation d'actes terroristes). Réciproquement, si quelqu'un commet un crime mais est jugé irresponsable, il ne sera pas condamné. Donc si le libre-arbitre n'existe pas, nous sommes tous irresponsables de nos actes et toutes nos structures juridiques s'effondrent !
Ceci a amené Dan Dennett à mettre en garde les scientifiques à ne pas trop faire d'annonces intempestives au sujet de leurs expériences sur le libre-arbitre !...
Pour aller plus loin...
Il faut ajouter un commentaire sur ce résultat de 60% de prédiction du côté gauche/droit quand on fait l'IRM. Cela peu paraître peu, bien peu. Mais songez que l'IRM est loin d'être en général un prédicteur parfait de nos actes. Ce qu'ont notamment montré les auteurs, c'est que même en utilisant l'information disponible dans le cortex moteur après la prise de décision et pendant le mouvement, on n'arrivait à correctement prédire le côté que dans 75% des cas. Alors qu'en théorie on devrait être capable de le faire à 100%. Cela montre que l'IRM est une information peut être trop agrégée pour permettre une prédiction très fiable.
Ainsi une récente étude montre qu'en faisant un suivi individuel de neurones avec des électrodes implantées dans le cerveau (plutôt qu'une IRM), on peut prédire le résultat avec une acuité de 80%, et ce 700 millisecondes avant la décision consciente. Tout ça pour dire que rien ne nous met à l'abri de futures expériences avec de meilleurs systèmes de mesure et de prédiction, qui pourraient deviner nos décisions 5 secondes en avance avec 90% de fiabilité.
Pour finir sur un peu de philo, ces expériences semblent au moins réfuter le modèle dualiste du corps et de l'esprit. Dans ce modèle popularisé par Descartes, l'esprit existe indépendamment du corps, et est capable de le contrôler. Si cette vision était correcte, alors le sentiment d'avoir l'intention d'agir (qui viendrait de l'esprit) devrait précéder les manifestations cérébrales et musculaires (du corps). Il paraît que les philosophes dualistes, ça n'existe plus, mais malgré tout la vision dualiste reste probablement la plus reflétée dans le langage commun, quand on dit "JE décide" (esprit), mais "le cerveau s'active" et "le muscle bouge" (corps).

Auteur: Internet

Info: sciencetonnante.wordpress.com,*voir aussi les expériences de Walter Grey

[ sciences ]

 

Commentaires: 0