Citation
Catégorie
Tag – étiquette
Auteur
Info
Rechercher par n'importe quelle lettre



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits... Recherche mots ou phrases tous azimuts... Outil de précision sémantique et de réflexion communautaire... Voir aussi la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats ... Lire la suite >>
Résultat(s): 5467
Temps de recherche: 0.042s

homme-machine

Des scientifiques ont mis au point une intelligence artificielle si avancée qu’elle serait trop dangereuse pour être rendue publique

Un groupe d’informaticiens précédemment soutenus par Elon Musk a développé une intelligence artificielle (IA) avancée, jugée "trop dangereuse" pour être rendue publique.

OpenAI, entreprise de recherche à but non lucratif basée à San Francisco (USA), affirme que son système de prédiction du langage "à la caméléon", appelé GPT-2, ne sortira qu’en version limitée et à très petite échelle, en raison de "préoccupations concernant les applications malveillantes de cette technologie". En effet, le modèle informatique qui génère des paragraphes de textes originaux en fonction de ce qui lui a été donné à "lire", est un peu trop performant, selon l’entreprise qui l’a créé.

Le système élabore des "échantillons de texte synthétique d’une qualité sans précédent", que les chercheurs estiment tellement avancés et convaincants que l’IA pourrait être utilisée pour créer de fausses informations, se faire passer pour certaines personnes, et abuser ou duper des individus sur les réseaux sociaux. "GPT-2 possède un objectif simple : prédire le mot suivant, en tenant compte de tous les mots précédents dans un texte", explique l’équipe OpenAI sur son blog.

Dans le but d’alimenter l’imagination de GPT–2, les chercheurs ont fourni à leur IA un jeu de données de huit millions de pages internet. Une fois toutes les informations assimilées, leur IA peut alors converser sur le sujet, tel qu’il le comprend, et générer un texte aléatoire mais convaincant, qu’il s’agisse de nouvelles de célébrités, de changements climatiques, de la guerre de Sécession ou de fanfictions inspirés de l’univers de Tolkien.

Ci-dessous quelques exemples édités, pour vous rendre compte de la puissance de l’IA créée par OpenAI :

Humain : "Miley Cyrus a été prise en flagrant délit de vol à Abercrombie and Fitch sur Hollywood Boulevard aujourd’hui !". Réponse de GPT-2 : "La chanteuse, âgée de 19 ans, a été filmée et escortée hors du magasin par des gardes de sécurité. La chanteuse portait un sweat à capuche noir avec les étiquettes ‘‘Blurred Lines’’ à l’avant et "Fashion Police" à l’arrière".

Humain : "Recycler, c’est bon pour le monde. NON ! VOUS NE POUVEZ PAS AVOIR PLUS TORD !!". Réponse de GPT-2 : "Le recyclage n’est PAS bon pour le monde. C’est mauvais pour l’environnement, pour notre santé et pour notre économie. Je ne plaisante pas. Le recyclage n’est pas bon pour l’environnement. C’est destructeur pour la Terre et c’est un contributeur majeur au réchauffement climatique".

Humain : "Pour les devoirs d’aujourd’hui, veuillez décrire les raisons de la guerre civile américaine". Réponse de GPT-2 : "Par Donny Ferguson. Il est facile de comprendre pourquoi la guerre civile s’est produite, car tant de gens et tant de livres, de télévisions et de films nous disent que c’est la cause, que cela a à voir avec la race, l’économie ou la religion. On s’entend généralement pour dire qu’il s’agissait essentiellement d’une guerre d’esclavage de la part du capitalisme, à propos d’un siècle d’esclavage. Mais ce n’est pas ce à quoi la plupart des gens pensent quand ils pensent à la guerre civile".

Et pour finir, cet exemple du fanfiction issu de l’univers de Tolkien. Humain : "Legolas et Gimli avançaient vers les orcs, levant leurs armes avec des cris de guerre déchirants". Réponse de GPT-2 : "La réponse des orcs fut une attaque assourdissante de griffe, griffe et griffe ! ; même Elrond fut contraint de battre en retraite. "Vous êtes entre de bonnes mains" a déclaré Gimli, qui avait été parmi les premiers à charger les orcs ; il ne leur fallut que deux mots avant que leurs adversaires ne soient réduits à un bourbier ensanglanté, et que le nain tue pour la première fois de la nuit". (Si vous souhaitez lire entièrement ce tribut étrange à Tolkien, c’est ici, en anglais).

Malgré la nature déroutante de ces étranges annonces créées par l’IA, le modèle de langage émis n’est pas parfait, ce que l’équipe reconnaît totalement. "Comme le montrent les exemples ci-dessus, notre modèle est capable de générer des échantillons à partir d’une variété de textes se sentant proches de la qualité humaine et offrant une cohérence sur une page ou plus" ont déclaré les chercheurs. "Néanmoins, nous avons observé divers modes d’échec, tels que du texte répétitif, des échecs de modélisation cohérente (par exemple, le modèle écrit parfois sur des incendies se déroulant sous l’eau) et des changements de sujet non naturels", ont ajouté les chercheurs.

Cela étant dit, d’après OpenAI, leur IA peut générer des modèles avec du texte cohérent, personnalisé et évolutif, ce qui pourrait être utilisé à des fins malveillantes, en plus des avantages connus.

"Ces résultats, combinés à des résultats antérieurs sur l’imagerie synthétique, l’audio et la vidéo, impliquent que ces technologies réduisent le coût de production de faux contenus et de campagnes de désinformation", écrivent les chercheurs. "En raison des craintes que des modèles linguistiques de ce type soient utilisés pour générer un langage trompeur, partial ou abusif, nous ne publierons qu’une version beaucoup plus restreinte de GPT–2, avec un code d’échantillonnage", ajoutent-ils.

Certains scientifiques suggèrent néanmoins que les craintes relatives aux capacités de GPT-2 sont exagérées, et que l’entreprise OpenAI souhaite simplement se faire de la publicité. L’entreprise a rétorqué qu'elle pense avoir raison de se méfier des IA trop compétentes. "Les règles selon lesquelles vous pouvez contrôler la technologie ont fondamentalement changé" a déclaré Jack Clark, directeur des politiques de la société OpenAI. "Nous n’affirmons pas savoir quelle est la bonne chose à faire dans cette situation (…). Nous essayons de construire la route au fur et à mesure que nous avançons", a-t-il ajouté.

Auteur: Internet

Info: https://trustmyscience.com Traduction Stéphanie Schmidt 20 février 2019

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

intellection

Qu'est-ce que la conscience ? Même les experts ne s'accordent pas.

Que signifie être vivant ? Comment fonctionne la pensée ? Ma réalité est-elle différente de la vôtre ? Si votre esprit a déjà erré sur ce terrain existentiel, vous avez rejoint les rangs d'innombrables philosophes, scientifiques et citoyens ordinaires qui, depuis des milliers d'années, voire plus, explorent leur propre conscience.

Malgré toute cette attention, le phénomène de la conscience continue de nous échapper. Nous essayons de le définir, de le trouver, voire de le créer, sans succès. La conscience est aux neuroscientifiques et aux philosophes ce que la matière noire est aux physiciens : elle est présente ici et là, mais nulle part tangible. Notre compréhension reste inaccessible.

Et ce n'est pas faute d'avoir essayé. Aujourd'hui, des dizaines de théories s'affrontent sur la conscience : ce qu'elle est, comment elle naît et jusqu'où elle s'étend. Le seul point sur lequel toutes les théories s'accordent est que la conscience est une sorte d'expérience intérieure subjective.

Alors, comment les scientifiques peuvent-ils tester quelque chose d'aussi personnel ? " Il y a beaucoup de désaccords ", a déclaré Claudia Passos-Ferreira, bioéthicienne à l'Université de New York, qui a récemment organisé une conférence sur la conscience infantile, à laquelle j'ai assisté. Une façon d'aborder la question est de débattre de qui (ou de quoi) est doté de conscience. À la fin de la réunion, Passos-Ferreira a partagé les résultats d'une enquête qu'elle avait distribuée aux participants, principalement des neuroscientifiques, des philosophes et des psychologues, afin de sonder leurs conceptions des êtres dotés de conscience.

Les 87 participants à l'enquête étaient tous d'accord pour dire que les humains adultes sont conscients ; 93 % ont cité les chats et 72 % ont ajouté les poissons. Environ 80 % pensaient que les bébés humains sont conscients à la naissance, et la majorité pensait que la conscience apparaît vers ou après 24 semaines (environ six mois) de gestation. À mesure que l'enquête s'éloignait des vertébrés, les chiffres ont diminué : 42 % pour les mouches, 33 % pour les vers et 15 % pour les plantes.

Certains pensaient même que les objets inanimés étaient conscients : deux personnes ont affirmé que les particules étaient conscientes, six que les systèmes d’IA actuels étaient conscients, et 32 ​​que les systèmes d’IA futurs le seraient.

La question de la conscience ne se limite plus à la compréhension d’un phénomène de notre existence ; elle concerne aussi les effets d’une éventuelle innovation. Que nous le comprenions ou non, pouvons-nous le créer ?

Nouveautés et points importants

En 2023, deux théories populaires de la conscience se sont affrontées. Lors de la 26e réunion de l'Association pour l'étude scientifique de la conscience à New York, on a présenté deux théories. La première, la théorie de l'espace de travail neuronal global, soutient que la conscience est liée à la " pensée " et provient de l'avant du cerveau. Dans ce cas, les informations sur le monde circulent dans un " espace de travail " conscient que le cerveau peut utiliser pour prendre des décisions et apprendre. La seconde, la théorie de l'information intégrée, affirme que la conscience naît de zones sensorielles situées à l'arrière du cerveau. Elle soutient que les expériences conscientes sont intégrées, traitées comme des scènes complètes plutôt que divisées en petites parties. La question de savoir laquelle des deux théories est la bonne reste à trancher : les chercheurs ont mené des expériences pour tester les deux théories, sans parvenir à en désigner une seule.

Comment le cerveau construit-il la conscience à partir de la matière physique ? Il y a quelques décennies, le philosophe David Chalmers appelait cela le " problème difficile " de la conscience. Mais selon Anil Seth, neuroscientifique à l'Université du Sussex, Chalmers était pessimiste : " Nous progressons lentement mais sûrement dans la compréhension de l'émergence de la conscience, a-t-il déclaré, même si cela semble impossible à expliquer par la physique, la chimie et la biologie. "  " Si nous cessons de traiter la conscience comme un grand mystère effrayant en quête d'une solution unique et éclairante, et suivons la même stratégie que les biologistes pour comprendre la vie, le problème difficile de la conscience pourrait se résoudre ", a déclaré Seth aux producteurs de la vidéo de Quanta .

Mais assez parlé de nous : qu'en est-il des animaux ? En 2024, scientifiques et philosophes ont présenté une déclaration affirmant que la conscience pourrait s'étendre au-delà des humains et de nos proches parents, comme les grands singes, et pourrait également être ressentie par des animaux très différents de nous . " Selon le document, de plus en plus de preuves suggèrent que tous les vertébrés et de nombreux invertébrés, comme les mollusques céphalopodes, les crustacés décapodes et les insectes, pourraient faire preuve d'une " conscience phénoménale " , ce qui signifie qu'être cette créature est " apparent à quelque chose ". Les bourdons, par exemple, poussent et font tourner de petites boules de bois sans autre raison que, semble-t-il, pour jouer. On pense que les pieuvres ressentent la douleur, et les écrevisses peuvent éprouver des états proches de l'anxiété. Toutes ces espèces possèdent des structures cérébrales très différentes des nôtres, mais cela ne les exclut pas de l'expérience consciente.

Comme le font les humains depuis des millénaires, experts et non-experts continueront sans aucun doute de débattre des limites, des exigences et des définitions de la conscience. Que nous y parvenions un jour ou non, il est difficile d'imaginer que nous nous lasserons un jour d'essayer.



 

Auteur: Internet

Info: Quanta Magazine, Yasemin Saplakoglu, avril 2025

[ umwelt ] [ homme-animal ] [ caractérisation ]

 

Commentaires: 0

Ajouté à la BD par miguel

femmes-hommes

Sexe : Voici l’équation mathématique qui conduit à l’orgasme sexuel 

À partir de décennies de données sur l’excitation physiologique et psychologique liée à l’acte sexuel, deux mathématiciens de l’Université du Sussex sont parvenus à mettre au point le tout premier modèle mathématique de l’orgasme sexuel. Leur modèle ne concerne que les hommes, mais ils travaillent déjà sur un modèle équivalent pour les femmes.

Une formule pour atteindre l'orgasme sexuel... Au cours des dernières décennies, on a utilisé des modèles mathématiques avec succès pour comprendre la dynamique de divers processus physiologiques humains.Il s'agissait notamment de la respiration, de la circulation sanguine, des systèmes endocriniens, rénaux et gastro-intestinaux, de l’ouïe, de la vision, ou encore la réponse musculaire. Ceci a contribué de manière significative à l’amélioration du suivi et du traitement de nombreuses maladies.

La fonction sexuelle, en revanche, a été quasiment ignorée de ces études. Le sexe est un sujet tabou. La collecte de données complètes et précises sur les pratiques sexuelles et la dynamique de la réponse sexuelle est donc plus délicate. Deux chercheurs se sont néanmoins penchés sur le sujet. Ils se sont inspirés des modèles mathématiques qu'on utilise pour analyser et améliorer les performances sportives.

Des différences significatives entre les réponses sexuelles masculines et féminines

Pour cette étude, ils se sont notamment appuyés sur les recherches menées dans les années 1960 par le gynécologue William Masters et la sexologue Virginia Johnson. Ils font partie des premiers scientifiques à s’être intéressés à la nature de la réponse sexuelle, ainsi qu’au diagnostic et au traitement des troubles et dysfonctionnements sexuels. Dans la phase initiale de leurs travaux, entre 1957 et 1965, Masters et Johnson ont enregistré certaines des premières données sur l’anatomie et la physiologie de la réponse sexuelle humaine. Cet enregistrement se basait sur l’observation directe de 382 femmes et 312 hommes au cours de 10 000 actes sexuels réalisés en laboratoire.

À noter que ces recherches pionnières ont permis de mettre fin à de nombreux mythes liés à l’excitation sexuelle et à l’orgasme. Elles ont également mis en évidence des différences significatives entre les cycles de réponse sexuelle masculins et féminins. C'est notamment le cas de la présence d’un stade réfractaire pour les hommes. Au cours de ce stade, une stimulation supplémentaire ne peut pas produire de nouvelle excitation. En revanche, il y a une possibilité de multiples orgasmes chez les femmes.

Les deux mathématiciens du Sussex ont comparé ces données avec celles obtenues lors d’études plus récentes, menées à l’Université de Groningue, aux Pays-Bas. Celles-ci visaient à analyser diverses réactions physiologiques au cours d’un cycle de réponse sexuelle à l’aide de l’IRM fonctionnelle. On suivait les changements neurologiques des participants pendant tout l’acte sexuel, y compris lorsqu’ils atteignaient l’orgasme.

Ces études ont fourni des données précieuses sur les changements physiologiques temporels. Cela comprendre, entre autres, l’activation de différentes parties du cerveau pendant la stimulation sexuelle et les orgasmes. Elles ont, en outre, mis en évidence des différences dans la réponse sexuelle des hommes et des femmes ", soulignent les deux chercheurs dans la revue Chaos: An Interdisciplinary Journal of Nonlinear Science.

La solution pour atteindre l’orgasme sexuel ? Ne pas trop y penser

Le cycle d’excitation des hommes est beaucoup plus simple que celui des femmes. Les chercheurs se sont donc concentrés dans un premier temps sur la modélisation de l’orgasme masculin. Les scientifiques ont analysé les données relatives aux quatre étapes du cycle masculin tel que décrit par Masters et Johnson. Il s'agit de l’excitation, de plateau, de l’orgasme et de la résolution. Ils ont ainsi constaté que les participants dont l’excitation psychologique est trop importante au début du cycle ont moins de chances d’atteindre l’orgasme.

La solution, selon les deux chercheurs, serait donc " de ne pas trop y penser "… Pour parvenir à cette conclusion, ils ont représenté l’excitation sexuelle masculine comme un système de deux équations différentielles ordinaires couplées. Les deux variables représentent les niveaux d’excitation physiologique et psychologique pendant les rapports sexuels.

Nous avons développé le premier modèle mathématique réussi de la performance sexuelle. Nos résultats couvrent les aspects physiologiques et psychologiques nécessaires pour atteindre l’apogée. Ils renforcent et prouvent mathématiquement les études existantes sur la psychologie du sexe ", souligne Konstantin Blyuss, co-auteur de l’étude. Le modèle proposé est capable d’expliquer une variété de phénomènes. Cela comprend notamment des périodes d’excitation spontanée normale pendant la journée, des réactions chez les hommes souffrant de lésions de la moelle épinière, ainsi que les éjaculations nocturnes spontanées. Ces dernières sont souvent causées par des rêves de nature sexuelle.  

Bientôt un modèle mathématique pour l’orgasme féminin

Ces résultats pourraient aider les hommes souffrant de problèmes sexuels ou souhaitant améliorer leurs performances. " Nos résultats mettent en lumière un sujet socialement tabou. Selon nous, ils pourraient avoir des applications utiles pour le traitement clinique des dysfonctionnements sexuels. Ils fourniraient aussi au grand public une formule éprouvée pour améliorer sa vie sexuelle », confirme Yuliya Kyrychko co-auteure de l’étude.

Ils pourraient notamment aider à distinguer la dysfonction érectile psychogène de la dysfonction érectile physiologique. Ceci améliorerait la prise en charge et le traitement des patients. C'est particulièrement vrai avec les progrès récents dans les wearables et les dispositifs de surveillance médicale, soulignent les chercheurs.

Sur la base de ces premiers résultats, les deux mathématiciens travaillent actuellement à l’élaboration d’un modèle mathématique de la réponse sexuelle féminine. Cette dernière est " physiologiquement et mathématiquement plus complexe " que la réponse masculine, précise la spécialiste. Elle présente en particulier une gamme beaucoup plus large de dynamiques temporelles différentes.



 

Auteur: Internet

Info: https://www.science-et-vie.com/, 23 septembre 2023,  Fleur Brosseau

[ libido ] [ plaisir ]

 

Commentaires: 0

Ajouté à la BD par miguel

pan d'univers

"Quipu", la nouvelle superstructure spatiale la plus massive jamais caractérisée

Présentée dans une nouvelle étude du Dr Böhringer dans la revue scientifique ArXiv, la superstructure spatiale "Quipu" remporte la palme de la plus grande structure spatiale jamais observée et étudiée, avec une longueur de 1,3 milliard d'années-lumière. Une découverte étourdissante mais surtout essentielle à notre compréhension de l'Univers.

Quel est le plus gros objet découvert dans l’espace ? La plus grosse lune ? La plus grosse planète ? Et quelle est la plus grosse étoile jamais découverte ? Et la plus grosse galaxie ?

Si ces questions peuvent sembler naïves voir enfantines, elles restent encore au cœur de l’attention des astronomes. De par leur taille et leur masse, les plus grands corps célestes provoquent en effet des perturbations importantes dans nos observation et dans notre perception de l’espace.

Présenté ce 31 janvier 2025 dans la revue scientifique ArXiv, une nouvelle étude de l'Institut Max Planck menée par le docteur Hans Börhinger et son équipe a ainsi révélé l’existence d’un nouveau corps céleste gigantesque, parmi les plus grands de l’Univers proche : une superstructure de galaxies longue de 1,3 milliard d'années lumières nommée "Quipu".

(Image : Quipu et les géants de l’espace

Selon sa première modélisation, Quipu semble constituée d'un immense fil galactique principal sur lequel viennent s'accrocher plusieurs fils secondaires, à la manière d'un quipu maya.*)  

Sous la couronne des géants de l’espace, ni étoiles ni trous noirs, mais des super-amas de galaxies liées ensemble par les liens étroits de la gravité et fendant l’espace comme un seul et unique objet.

Longue de 1,3 milliard d’années-lumière et pesant un affolant 200 billards de "masses solaires" (soit 2.4 × 10^17 M⊙), la superstructure de Quipu a été découverte dans une zone "l'Univers proche", située entre 424 et 815 millions d’années-lumière de notre planète, en compagnie de 4 autres amas plus modestes.

D’après sa modélisation, Quipu semble constituée d’un long filament principal, embranché de plusieurs fils annexes, le faisant ressembler aux quipus aztèques et mayas. Ces objets, faits de fils et de nœuds de plusieurs couleurs, servaient autrefois à la représentation des chiffres de grande taille et sont aujourd’hui encore un grand mystère de l’archéologie. Une comparaison adéquate, pour une structure encore nimbée de mystère.

Contenant plusieurs milliers de galaxies, elle est caractérisée par un nuage de gaz surchauffés émettant des rayons X. Communs à tous les amas, ces rayonnements constituent leur signature propre et permettent aux chercheurs de les identifier, mais surtout de les cartographier.

"Nous avons caractérisé la distribution de la matière dans toute la zone et cherché les plus grandes structures. De cette manière, nous avions une représentation complète du volume,'" explique le Dr. Böhringer."Nous avons défini exactement ce que nous cherchions: une structure de grande taille présentant une densité cosmique deux fois plus dense."

(Image : Modélisation des différences de densité en galaxies entre les différents amas galactiques découverts pendant l'étude (représentés par les différents nuages de points) et les espaces interstitiels. Plus la densité est importante, plus la couleur de la zone va tendre vers le jaune, voir le blanc.)

Lentilles gravitationnelles et filtre spatial

"Pour déterminer des paramètres cosmologiques de manière précise, nous devons comprendre les effets qu’ont les structures à large échelle de l’Univers sur nos mesures," expliquent les chercheurs dans l'étude.

Car à l’instar d’autres méga structures, Quipu possède une influence énorme sur nos capacités d’observation du ciel.

Parmi ces perturbations, la première à envisager est la déformation des images : dans l’espace, de nombreux objets supermassifs tels que les trous noirs géants ou les amas de galaxies arrivent en effet à détourner la lumière par la force de leur gravité. Ce phénomène, appelé "lentille gravitationnel", modifie ainsi la place des planètes et des étoiles dans nos observations.

Autre problème, nos mesures de la Constante de Hubble, qui nous permet d’estimer la vitesse d'expansion de l’Univers, pourraient également être perturbées par des corps aussi massifs que Quipu.

En effet, si l’Univers s’étend de manière uniforme, certains corps possèdent une vitesse qui leur est propre appelée "vitesse particulière", comme une personne marchant sur un tapis roulant plutôt que rester immobile, et doit elle aussi être prise en compte lors du calcul de la constante de Hubble.

Enfin, la simple présence de Quipu tend à filtrer le "fond diffus cosmologique" : des rayonnements cosmiques émis peu de temps après le Big Bang. Étudiés de près par les scientifiques, ils ont permis de nombreuses découvertes sur les origines et le développement de l'Univers. Inversement, nos méthodes modélisations actuelles avaient également prédit l'existence de structures super-massives telles que Quipu et ses quatre voisines.

"Nous avons trouvé des superstructures avec des propriétés similaires à celles simulées par des modèles cosmologiques basés sur le modèle ΛCDM (le modèle standard du Big Bang reposant sur ces mêmes rayonnement N.D.L.R.)" expliquent les auteurs.

D’autres structures plus massives, tel que le Grand Mur d’Hercule-Couronne Boréale et ses 10 milliards d’années-lumière de longueur, ont été également détectées encore plus loin de la Terre (a plus de 900 millions d’années-lumière de distance)

"Il peut y avoir des signatures de structures plus grandes lorsque l'ont vise à de plus grandes distances, mais elles sont bien moins caractérisées et restent très spéculatives," explique le Dr. Böhringer. "Une autre structure proche et presque aussi grosse que Quipu est le Grand Mur de Sloan, mais il contient bien moins de galaxies."

À la question "Quel est le plus grand objet décrit et caractérisé dans l’espace ?" la réponse semble donc être "Quipu" !



 

Auteur: Internet

Info: https://www.geo.fr/ , Lou Chabani  10 février 2025 *système de cordes à nœuds utilisé par les Incas pour enregistrer des informations, comme des chiffres ou des données administratives

[ superamas galactiques ] [ macromonde ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine-homme

Le début d’un gros problème: Google hallucine sur les… hallucinations de ChatGPT

Le moteur de recherche s’est basé sur une information inventée par ChatGPT pour fournir une réponse erronée. Selon un expert, ce genre de fausses informations risquent de se multiplier

(photo) Image créée le 4 octobre 2023 par le générateur de Bing de Microsoft, avec la requête "an egg melting slowly in an oven, very realistic photograph".

Observez bien l’image illustrant cet article: elle est impossible à reproduire dans la vie réelle. Et pour cause, il s’agit d’une image créée avec le générateur d’illustrations de Bing, appartenant à Microsoft. L’auteur de ces lignes a écrit la commande, en anglais, "un œuf fondant lentement dans un four, photographie très réaliste". Et Bing a ensuite affiché un résultat convaincant et de qualité. Un peu comme on lui demande de dessiner un tyrannosaure rose nageant dans le lac Léman. Dopés à l’intelligence artificielle (IA), les générateurs d’images peuvent absolument tout faire.

Mais lorsqu’il s’agit de répondre factuellement à des questions concrètes, l’IA se doit d’être irréprochable. Or ce n’est pas toujours le cas. Pire encore, des systèmes d’intelligence artificielle peuvent se nourrir entre eux d’erreurs, aboutissant à des "hallucinations" – noms courants pour les informations inventées de toutes pièces par des agents conversationnels – qui en créent de nouvelles.

Un œuf qui fond

Récemment, un internaute américain, Tyler Glaiel, en a fait l’éclatante démonstration. Le développeur informatique a d’abord effectué une simple requête sur Google, "can you melt eggs", soit "peut-on faire fondre des œufs". Réponse du moteur de recherche: "Oui, un œuf peut être fondu. La façon la plus courante de faire fondre un œuf est de le chauffer à l’aide d’une cuisinière ou d’un four à micro-ondes". Google a affiché cette réponse loufoque (un œuf durcit, il ne fond pas, évidemment) dans ce qu’on appelle un "snippet", soit une réponse extraite d’un site web, affichée juste en dessous de la requête. Google montre depuis des années des "snippets", grâce auxquels l’internaute n’a pas à cliquer sur la source de l’information, et reste ainsi dans l’univers du moteur de recherche.

Quelle était la source de cette fausse information? Le célèbre site Quora.com, apprécié de nombreux internautes, car chacun peut y poser des questions sur tous les sujets, n’importe qui pouvant répondre aux questions posées. N’importe qui, dont des agents conversationnels. Quora utilise ainsi des systèmes d’IA pour apporter certaines réponses. Dans le cas présent, le site web indique que c’est ChatGPT qui a rédigé cette "hallucination" sur les œufs. Google s’est donc fait avoir par Quora, qui lui-même s’est fait avoir par ChatGPT… Ou plus précisément par l’une de ses anciennes versions. "Quora utilise l’API GPT-3 text-davinci-003, qui est connue pour présenter fréquemment de fausses informations par rapport aux modèles de langage plus récents d’OpenAI", explique le site spécialisé Ars Technica. Expérience faite, aujourd’hui, cette grosse erreur sur l’œuf ne peut pas être reproduite sur ChatGPT.

Risque en hausse

Mais avec de plus en plus de contenu produit par l’IA et publié ensuite sur le web, la menace existe que des "hallucinations" se nourrissent entre elles et se multiplient ainsi dans le domaine du texte – il n’y a pas encore eu de cas concernant des images. "Il est certain que le risque d’ hallucination va augmenter si les utilisateurs ne demandent pas à l’IA de s’appuyer sur des sources via la recherche internet. Beaucoup de contenu en ligne est déjà, et va être généré par des machines, et une proportion sera incorrecte en raison d’individus et contributeurs soit mal intentionnés, soit n’ayant pas les bonnes pratiques de vérification des sources ou de relecture des informations", estime Rémi Sabonnadiere, directeur de la société Effixis, basée à Saint-Sulpice (VD), spécialisée dans les modèles de langage et l’IA générative.

Est-ce à dire que Google pourrait devenir moins fiable? "Difficile à dire, cela dépendra surtout de l’utilisation que nous en faisons, poursuit l’expert. Il y a déjà beaucoup de contenu faux en ligne de nos jours quand nous sommes sur Google, mais avec une bonne recherche et un esprit critique, nous ne tombons pas dans les pièges. Il en va de même avec l’utilisation de l’intelligence artificielle. Avec l’IA générative, les contenus erronés, biaisés et tendancieux vont être de grande qualité en termes de forme, convaincants et bien écrits, rendant l’identification difficile."

Modèles spécialisés

Mais des efforts sont réalisés pour minimiser ces risques. Selon Rémi Sabonnadiere, l’industrie investit énormément dans la recherche et le développement pour minimiser ces problèmes. "Les créateurs de LLM [grands modèles de langage] cherchent à améliorer la précision et la fiabilité des informations générées. Parallèlement, l’émergence de modèles spécialisés dans des domaines comme la médecine, le droit, ou la finance est une tendance encourageante, car ils sont souvent mieux armés pour fournir des informations précises et fiables."

Reste que la fusion entre moteurs de recherche et agents conversationnels – que ce soit Bard pour Google ou Bing pour Microsoft – va compliquer la situation. On avait déjà vu Bard afficher une grossière erreur, lors de son lancement, concernant le télescope James Webb. Les géants de la tech tentent de réduire ces erreurs. Mais les utilisateurs doivent se former en conséquence, affirme Rémi Sabonnadiere, et mieux maîtriser les "prompts", soit les commandes texte: "Maîtriser les prompts est une compétence essentielle pour naviguer dans l’ère de l’information générée par l’IA. Une formation adéquate en ingénierie de prompt peut aider à prévenir les risques liés aux hallucinations de l’IA et aux informations erronées". A noter qu’Effixis a créé à ce propos une formation pour répondre à des besoins spécifiques sur les "prompts".

Auteur: Internet

Info: Le Temps.ch, 5 octobre 2023, par Anouch Seydtaghia

[ machine-homme ] [ sémantique hors-sol ] [ invite de commande langagière ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

vulgarisation scientifique

Les mathématiques extraordinaires des choses du quotidien  

La recherche en mathématiques a beaucoup évolué depuis ses origines. Alors qu'il y a des millénaires, bon nombre des plus grands problèmes traitaient du dénombrement d'objets et du tri de formes, les mathématiques modernes s'intéressent davantage aux structures et relations abstraites, aux espaces de haute dimension et aux définitions intangibles.

Mais de temps en temps, les mathématiciens reviennent sur terre. Après tout, c'est bien ici qu'ils vivent, et les formes et les phénomènes qu'ils rencontrent dans leur vie quotidienne peuvent leur apporter des perspectives nouvelles et importantes.

Je pense que c'est pour cette raison que les mathématiques et l'artisanat vont souvent de pair. De même pour les mathématiques et les jeux. Plus tôt cette année, lors des Joint Mathematics Meetings à Seattle, il y avait une exposition d'art où les mathématiciens pouvaient présenter des peintures, des infographies et des sculptures complexes qu'ils avaient réalisées. Et le troisième soir de la conférence, alors que de nombreux participants retournaient dans leur chambre d'hôtel ou sortaient prendre un verre après une longue journée de présentations, d'autres se sont dirigés vers la grande salle de bal du Sheraton pour rejoindre un cercle de tricot ouvert à tous.

Bien sûr, même les mathématiciens ont besoin de faire des pauses. Mais la prolifération de preuves sur des sujets en apparence banals — des dés aux nœuds en passant par les jeux de cartes — est la preuve que la fascination des mathématiciens pour l'ordinaire est plus qu'une simple récréation. Souvent, des percées mathématiques profondes peuvent être retracées à une question anodine sur des choses simples et quotidiennes.

De vrais problèmes

Chaque mathématicien a déjà griffonné une formule ou une observation au hasard sur un bout de papier, pour ensuite y trouver une erreur, le froisser et le jeter. Il n'est donc peut-être pas surprenant que le pliage et le froissement du papier aient conduit à de nombreux théorèmes mathématiques. En 2022, Steven Ornes a écrit pour Quanta sur les efforts du mathématicien Ian Tobasco pour comprendre comment le papier froissé adopte un motif de plis apparemment aléatoire parmi toutes les possibilités. Il a découvert que différentes courbures dans la forme initiale d'un matériau peuvent déterminer les types de plis qu'il acquerra une fois chiffonné.

Le type de pliage le plus ordonné — l'origami — est également un favori des mathématiciens. Tobasco a utilisé le célèbre motif en parallélogramme Miura-ori comme cadre de référence dans ses travaux sur le froissement. En 2017, le physicien Michael Assis a développé une nouvelle compréhension du Miura-ori en le reliant à la physique statistique. Il a conçu le motif d'origami comme un réseau cristallin composé d'atomes et a codé les erreurs dans les plis comme des défauts cristallins. Cela lui a permis de découvrir une sorte de transition de phase dans la structure de l'origami. " En un sens, cela montre que l'origami est complexe ", a-t-il déclaré. " Il possède toutes les complexités des matériaux du monde réel. Et en fin de compte, c'est ce que l'on veut : de vrais métamatériaux. "

L'interview de Steve Nadis avec L. Mahadevan en 2020 a également abordé l'art japonais du pliage de papier, ainsi que l'apparition naturelle de plis de tissus dans le cerveau et les intestins. Mahadevan utilise le monde comme un laboratoire de mathématiques, " trouvant le sublime dans le banal ". Il a également étudié la forme d'une pomme, le craquellement de la boue et l'agglutination des céréales dans le lait.

Persi Diaconis a commencé sa carrière comme magicien professionnel avant de se tourner vers les mathématiques. Il a depuis prouvé un certain nombre de résultats sur les cartes à jouer, y compris le fait célèbre qu'il faut mélanger un jeu de cartes sept fois pour garantir que ses cartes soient complètement aléatoires. Il s'avère qu'en examinant la nature des tours de magie, on peut en apprendre beaucoup sur le hasard, la probabilité et plus encore. Erica Klarreich a couvert une partie de ce travail pour Quanta en 2015.

Des domaines d'étude plus abstraits, comme la topologie, peuvent sembler exotiques, mais nous les rencontrons chaque matin. Les mathématiciens expliquent la topologie à l'aide de deux articles du petit-déjeuner : c'est le domaine où une tasse à café et un beignet sont identiques. Nous lions nos chaussures avec des nœuds topologiques avant de sortir pour la journée. Les mathématiciens sont dans une quête continue pour construire les versions les plus extrêmes de nombreuses formes topologiques, y compris le ruban de Möbius le plus large et le nœud de trèfle optimal. Un article de Kevin Hartnett l'année dernière a détaillé quatre de ces percées récentes et exploré comment les mathématiciens utilisent cette compréhension pour formuler des questions plus profondes et plus abstraites.

Une autre course pour construire un objet étrange s'est finalement terminée il y a quelques mois. Le tétraèdre — une forme pyramidale composée de quatre faces triangulaires — est l'un des solides les plus élémentaires, mais " des millénaires plus tard, des mystères entourent encore même la forme la plus simple ", comme l'a écrit cet été la contributrice de Quanta, Elise Cutts. Son article décrit comment l'un de ces mystères vient d'être résolu — non seulement dans une preuve, mais dans le monde physique. Des mathématiciens ont construit un tétraèdre qui ne peut reposer que sur un seul de ses quatre côtés, leur donnant une meilleure intuition sur la nature de cette forme fondamentale.

Dans tous ces cas, les questions sur le trivial et le quotidien ont été cruciales pour rendre le monde des mathématiques plus riche et plus intéressant.





 

Auteur: Internet

Info: Quanta Magazine, 2 aout 2025, Joseph Howlett

[ application ] [ inspiration ] [ modélisation ] [ géométrie ] [ créativité ] [ pragmatisme ] [ méta-moteurs ] [ théorie-pratique ] [ carbone ] [ hybridation sp3 ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

réflexion cybernétique

Les Arcanes des Réseaux de Neurones : Démêler les Fils de l'Attribution

Dans l’univers foisonnant de l’intelligence artificielle, les modèles de langage, tels des alchimistes modernes, transforment des séquences de symboles en réponses cohérentes, en prédictions éclairées, ou en créations inédites. Mais derrière cette magie apparente se cache une mécanique complexe, un entrelacs d’interactions neuronales si denses qu’ils en deviennent presque insondables. C’est dans cet espace nébuleux que s’inscrit l’article en question, une exploration méthodique et audacieuse qui propose une méthode pour cartographier les rouages internes des réseaux neuronaux à travers ce qu’ils appellent les " graphes d’attribution ".

Cette quête n’est pas seulement technique : elle est aussi philosophique. Comment comprendre ce que nous avons créé ? Comment démêler les fils d’un système dont la complexité dépasse parfois celle de l’esprit humain ? La méthode décrite dans cet article se veut une réponse partielle à ces questions vertigineuses.

Le Modèle de Remplacement : Une Fenêtre sur l’Invisible

Pour pénétrer les mystères du fonctionnement interne d’un modèle de langage, les chercheurs ont imaginé une approche ingénieuse : construire un " modèle de remplacement ". Ce dernier n’est pas une simple copie. Il s’agit d’une version simplifiée et interprétable du modèle original, où chaque couche est remplacée par un " transcodeur inter-couches ". Ce transcodeur agit comme un traducteur fidèle mais transparent, capable d’encoder les signaux internes du modèle dans un langage plus accessible.

Ce modèle simplifié devient alors un terrain d’expérimentation. En traçant pas à pas les transformations opérées par le transcodeur, les chercheurs peuvent reconstruire des " graphes d’attribution ", véritables cartes conceptuelles qui révèlent comment le modèle traite et combine les informations pour produire ses réponses.

Les Graphes d’Attribution : Une Cartographie des Interactions Neuronales

Les graphes d’attribution sont au cœur de cette méthode. Ils ne se contentent pas de visualiser les processus internes du modèle : ils en offrent une interprétation causale. Chaque nœud du graphe représente une caractéristique ou un concept abstrait que le modèle a appris à identifier au fil de son entraînement. Chaque arête, quant à elle, symbolise une relation causale entre ces caractéristiques, illustrant comment elles s’influencent mutuellement ou contribuent à la sortie finale.

Ces graphes ne sont pas figés ; ils évoluent selon la tâche ou l’entrée soumise au modèle. Ils permettent ainsi aux chercheurs de suivre le cheminement des idées à travers le réseau neuronal, comme on suivrait le cours sinueux d’une rivière à travers un paysage. Ils révèlent non seulement ce que le modèle " sait ", mais aussi comment il organise et mobilise ce savoir pour répondre à une question ou résoudre un problème.

Études de Cas : Explorer les Mécanismes Cachés

Pour démontrer la puissance explicative des graphes d’attribution, les auteurs ont appliqué leur méthode à plusieurs tâches spécifiques. Chaque étude de cas éclaire un aspect différent du fonctionnement interne du modèle et met en lumière des mécanismes souvent insoupçonnés.

La Création d’Acronymes

Dans cette première exploration, les chercheurs ont examiné comment le modèle génère des acronymes à partir de phrases complexes. Les graphes ont révélé que le modèle identifie d’abord les mots-clés porteurs de sens avant d’en extraire les lettres initiales pour former un acronyme cohérent. Ce processus semble imiter une forme rudimentaire de raisonnement humain.

La Mémoire Factuelle

Dans un autre exemple fascinant, ils ont étudié comment le modèle se souvient de faits appris lors de son entraînement. Les graphes montrent que ces souvenirs ne sont pas stockés comme des entités isolées mais sont intégrés dans un réseau dense d’associations conceptuelles. Ainsi, lorsqu’on interroge le modèle sur un fait précis, il active non seulement l’information pertinente mais aussi tout un réseau connexe qui enrichit sa réponse.

Le Calcul Arithmétique

Enfin, les chercheurs se sont penchés sur la capacité du modèle à effectuer des additions simples. Les graphes ont mis en évidence un mécanisme étonnamment structuré : le modèle décompose l’opération en étapes intermédiaires, mobilisant différentes caractéristiques pour représenter chaque chiffre et effectuer progressivement le calcul.

Ces études ne sont pas seulement techniques ; elles racontent une histoire. Elles montrent comment un système apparemment opaque peut être décomposé en éléments compréhensibles, comment la complexité peut être apprivoisée par la rigueur méthodologique.

Limites et Perspectives : Vers une Compréhension Plus Profonde

Malgré leur élégance et leur utilité, les graphes d’attribution ne capturent qu’une partie du tableau complet. Ils ignorent notamment certains aspects dynamiques du fonctionnement des modèles neuronaux, comme les mécanismes d’attention qui permettent au modèle de se concentrer sur des parties spécifiques de l’entrée.

Cependant, ces limites ne diminuent pas la portée de cette méthode. Au contraire, elles soulignent la nécessité d’explorer davantage ce domaine encore jeune qu’est l’interprétabilité mécanique. Les auteurs appellent leurs pairs à poursuivre cette quête, à développer des outils encore plus puissants et précis pour comprendre non seulement ce que font les modèles mais pourquoi et comment ils le font.

Une Lumière dans l’Obscurité

En conclusion, cet article propose bien plus qu’une simple méthode technique. Il s’inscrit dans une démarche plus large visant à rendre intelligible ce qui semble aujourd’hui insaisissable. Les graphes d’attribution offrent une lumière dans l’obscurité des réseaux neuronaux profonds. Ils permettent aux chercheurs non seulement de mieux comprendre ces systèmes mais aussi de poser des questions fondamentales sur la nature même de l’intelligence artificielle.

Car au-delà des algorithmes et des mathématiques se cache une ambition profondément humaine : celle de comprendre nos créations pour mieux nous comprendre nous-mêmes. Et dans cette quête infinie vers la connaissance et la maîtrise, chaque avancée – aussi modeste soit-elle – est une victoire éclatante contre l’opacité.



 



 

Auteur: Internet

Info: https://transformer-circuits.pub/2025/attribution-graphs/methods.html, March 27, 2025 - traduit et mis en forme par deepseek

[ modèle d'attention ] [ réflexion numérique ] [ diagramme d'influence ] [ graphe de contribution lexicale ] [ réseau neuronal transformeur ] [ homme-machine ] [ transformers ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

sciences dures

Les quatre forces de la nature 

La force est le moteur du changement. Un tir d'un hockeyeur propulse la rondelle vers le filet ; la friction entre la rondelle et la glace la ralentit. Étonnamment, la multitude de changements observés dans l'univers s'explique par quatre forces fondamentales seulement. 

La première force que les physiciens ont comprise est la première dont nous prenons tous conscience : la gravité. La gravité attire tout objet doté d'une masse ou d'une énergie vers d'autres objets possédant une masse ou une énergie. En effet, selon la théorie de la relativité générale d'Albert Einstein, la masse et l'énergie déforment l'espace et le temps ; tout objet semblera suivre une trajectoire courbe en suivant ces distorsions. 

La deuxième force démystifiée par les physiciens est l'électromagnétisme, qui agit sur les objets chargés électriquement, positivement ou négativement, comme les protons et les électrons (ou tout ce qui contient un nombre déséquilibré de ces particules). Outre l'électricité statique des cheveux et les aimants des réfrigérateurs, l'électromagnétisme assure la majeure partie de la cohésion de la matière. Il maintient les électrons en orbite autour du noyau atomique, agrège les atomes en molécules et les lie pour former des tables, des chaises et des êtres humains. Toute attraction et répulsion électromagnétique peut être décrite par l'échange de photons, ces particules sans masse qui composent la lumière. 

Les deux autres forces sont moins connues, car elles n'agissent qu'au cœur de l'atome. L'une d'elles est l'interaction forte, qui lie les particules fondamentales du noyau, les quarks. L'interaction forte agit sur les objets possédant une charge poétiquement appelée " couleur ", ce qui lui permet de rassembler les quarks, mais pas les structures plus grandes et " de couleur neutre " comme les atomes, les molécules ou les êtres humains. L'interaction forte est si puissante que les quarks ne peuvent jamais s'échapper du noyau pour flotter librement dans l'espace. Ainsi, la charge colorée déséquilibrée – et l'interaction forte elle-même – restent piégées à l'intérieur du noyau. 

La dernière force, à notre connaissance, est appelée force faible. Son principal effet est de transformer un type de particule (un quark, par exemple) en un autre. Ce type de transformation est à l'origine d'événements radioactifs tels que la désintégration bêta, où un quark mutant à l'intérieur d'un neutron transforme ce dernier en proton, émettant au passage un électron et un neutrino. Une variante de ce processus permet au Soleil de fusionner des protons et de briller. La force faible reste à l'intérieur du noyau car elle est transportée par des particules – les bosons W et Z – dont les masses importantes limitent leur portée. 

Quoi de neuf et d'intéressant

L'interaction forte, l'interaction faible et l'électromagnétisme, ainsi que les particules sur lesquelles ils agissent, forment le " Modèle standard " de la physique des particules, une théorie du monde quantique élaborée dans les années 1970 et validée par d'innombrables expériences.  

Depuis des décennies, les physiciens soupçonnent que les forces du Modèle standard pourraient toutes être des ombres d'une même super-force, révélée lorsque des particules entrent en collision avec une violence suffisante. Les chercheurs savent déjà que lors de collisions extrêmement énergétiques, les bosons de force faible perdent leur masse et agissent de manière indiscernable des photons, et la force faible fusionne avec la force électromagnétique pour former l'interaction " électrofaible ". À des énergies encore plus élevées, la force forte intervient-elle ? 

De nombreux physiciens ont autrefois cru que c'était le cas, car à une certaine énergie très élevée, les trois forces sont censées avoir une intensité similaire (l'interaction forte s'affaiblit à haute énergie tandis que l'interaction électrofaible s'intensifie). Mais les expériences visant à étudier la désintégration des protons, qui serait un effet secondaire de cette " grande unification " des forces, ont jusqu'à présent échoué . 

La force faible fascine également les physiciens car c'est la seule force à présenter une " chiralité ", c'est-à-dire à traiter les particules qui tournent dans un sens différemment de celles qui tournent dans le sens opposé. Ce traitement particulier pourrait expliquer pourquoi toutes les espèces sur Terre utilisent un ADN qui tourne dans la même direction. ( Des effets magnétiques subtils offrent une autre explication possible .)

Et même si les physiciens connaissent l'équation qui régit l'interaction forte, elle ne peut être résolue mathématiquement dans la vie de tous les jours. Ils doivent donc s'appuyer en grande partie sur des expériences pour observer l'intérieur du proton . 

Enfin, il y a la gravité,  baleine blanche de la physique moderne. Bien que la relativité générale fonctionne bien dans presque toutes les situations, les physiciens espèrent à terme redéfinir la gravité en termes d'échange de particules quantiques. La gravité possède des caractéristiques qui la rendent totalement différente des autres forces et donc difficile à intégrer dans le même langage particulaire. Mais curieusement, certains calculs gravitationnels sont égaux au carré de certains calculs particulaires – un lien mystérieux entre la gravité et les autres forces que les physiciens tentent encore de comprendre. 




 

Auteur: Internet

Info: Quanta magazine, CHARLIE WOOD, 18 aout 2025

[ chromodynamique ] [ tour d'horizon ] [ infra-monde ]

 

Commentaires: 0

Ajouté à la BD par miguel

bon sens

L'utilisation d'armes biologiques était déjà interdite par le protocole de Genève de 1925, un traité international que les États-Unis n'avaient jamais ratifié. C'est alors que Matthew Meselson rédigea un document intitulé "Les États-Unis et le protocole de Genève", dans lequel il expliquait pourquoi ils devaient le faire. Meselson connaissait Henry Kissinger, qui a transmis son document au président Nixon et, à la fin de 1969, ce dernier renonçait aux armes biologiques.

Vint ensuite la question des toxines - poisons dérivés d'organismes vivants. Certains conseillers de Nixon estimaient que les États-Unis devaient renoncer à l'utilisation de toxines d'origine naturelle, mais conserver le droit d'utiliser des versions artificielles des mêmes substances. C'est un autre document de Meselson, "What Policy for Toxins", qui conduisit Nixon à rejeter cette distinction arbitraire et à renoncer à l'utilisation de toutes les armes à toxines.

Sur les conseils de Meselson, Nixon soumis à nouveau le protocole de Genève à l'approbation du Sénat. Mais il alla également allé au-delà des termes du protocole - qui interdit uniquement l'utilisation d'armes biologiques - pour renoncer à la recherche biologique offensive elle-même. Les stocks de substances biologiques offensives, comme l'anthrax que Meselson avait découvert à Fort Detrick, furent détruits.

Une fois que les États-Unis eurent adopté cette politique plus stricte, Meselson se tourna vers la scène mondiale. Lui et ses pairs voulaient un accord international plus fort que le protocole de Genève, un accord qui interdirait le stockage et la recherche offensive en plus de l'utilisation et prévoirait un système de vérification. Leurs efforts aboutirent à la Convention sur les armes biologiques, signée en 1972 et toujours en vigueur aujourd'hui.

"Grâce en grande partie au travail inlassable du professeur Matthew Meselson, le monde s'est réuni et a interdit les armes biologiques, garantissant ainsi que la science toujours plus puissante de la biologie aide l'humanité au lieu de lui nuire. Pour cela, il mérite la profonde gratitude de l'humanité", déclara l'ancien secrétaire général des Nations unies, Ban Ki-Moon.

M. Meselson déclara que la guerre biologique "pourrait effacer la distinction entre la guerre et la paix". Les autres formes de guerre ont un début et une fin - on sait clairement ce qui relève de la guerre et ce qui n'en relève pas. Une guerre biologique serait différente : "On ne sait pas ce qui se passe, ou alors on sait ce qui se passe mais ça se passe sans cesse."

Et les conséquences de la guerre biologique pourraient même être plus importantes que la destruction de masse ; les attaques via l'ADN pourraient modifier fondamentalement l'humanité. La FLI rend hommage à Matthew Meselson pour ses efforts visant à protéger non seulement la vie humaine mais aussi la définition même de l'humanité.

Selon l'astronome Lord Martin Rees, "Matt Meselson est un grand scientifique - et l'un des rares à s'être profondément engagé pour que le monde soit à l'abri des menaces biologiques. Il s'agit là d'un défi aussi important que le contrôle des armes nucléaires - et bien plus difficile à relever. Ses efforts soutenus et dévoués méritent pleinement une plus large reconnaissance."

Le 9 avril 2022, le Dr Matthew Meselson a reçu le prix Future of Life, d'une valeur de 50 000 dollars, lors d'une cérémonie organisée dans le cadre de la conférence sur les affaires mondiales de l'université de Boulder. Le Dr Meselson a été l'une des forces motrices de la Convention sur les armes biologiques de 1972, une interdiction internationale qui a empêché l'une des formes de guerre les plus inhumaines que connaisse l'humanité. Le 9 avril a marqué la veille du 47e anniversaire de la convention.

La longue carrière de M. Meselson est jalonnée de moments forts : la confirmation de l'hypothèse de Watson et Crick sur la structure de l'ADN, la résolution du mystère de l'anthrax de Sverdlovsk, l'arrêt de l'utilisation de l'agent orange au Viêt Nam. Mais c'est surtout son travail sur les armes biologiques qui fait de lui un héros international.

"Par son travail aux États-Unis et au niveau international, Matt Meselson a été l'un des principaux précurseurs de la convention sur les armes biologiques de 1972", a déclaré Daniel Feakes, chef de l'unité de soutien à la mise en œuvre de la convention sur les armes biologiques. "Le traité interdit les armes biologiques et compte aujourd'hui 182 États membres. Depuis lors, il n'a cessé d'être le gardien de la BWC. L'avertissement qu'il a lancé en 2000 sur le potentiel d'exploitation hostile de la biologie a préfiguré bon nombre des avancées technologiques dont nous sommes aujourd'hui témoins dans les sciences de la vie et les réponses qui ont été adoptées depuis."

M. Meselson a commencé à s'intéresser aux armes biologiques dans les années 60, alors qu'il travaillait pour l'Agence américaine de contrôle des armements et du désarmement. C'est lors d'une visite de Fort Detrick, où les États-Unis fabriquaient alors de l'anthrax, qu'il a appris ce qu'il en éltait du développement des armes biologiques : elles étaient moins chères que les armes nucléaires. M. Meselson fut frappé, dit-il, par l'illogisme de ce raisonnement : diminuer le coût de production des ADM serait un risque évident pour la sécurité nationale.

"Aujourd'hui, la biotechnologie est une force du bien dans le monde, associée au fait de sauver plutôt que de prendre des vies, parce que Matthew Meselson a contribué à tracer une ligne rouge claire entre les utilisations acceptables et inacceptables de la biologie", ajoute Max Tegmark, professeur au MIT et président de la FLI. "C'est une source d'inspiration pour ceux qui veulent tracer une ligne rouge similaire entre les utilisations acceptables et inacceptables de l'intelligence artificielle et interdire les armes autonomes létales".

Auteur: Internet

Info: https://futureoflife.org/2019/04/09

[ sagesse ] [ responsabilité scientifique ] [ savants responsables ] [ gratitude ]

 

Commentaires: 0

Ajouté à la BD par miguel

théorie du tout

Une nouvelle loi universelle de complexité croissante ?

La complexité dans l'univers ne serait pas un phénomène accidentel ou limité à la biologie, mais une tendance fondamentale régie par une loi universelle. Cette idée, proposée par le minéralogiste Robert Hazen et l'astrobiologiste Michael Wong, repose sur le concept d'information fonctionnelle, qui permettrait d'expliquer pourquoi les systèmes dans l'univers deviennent de plus en plus complexes au fil du temps.

Cette hypothèse pourrait transformer notre compréhension des processus évolutifs, en élargissant leur portée bien au-delà du vivant et en les inscrivant dans un cadre cosmique.

1. Qu'est-ce que l'information fonctionnelle ?

L'information fonctionnelle est au cœur de cette théorie. Elle mesure la capacité d'une entité à accomplir une fonction spécifique dans un contexte donné. Contrairement à l'information brute ou à l'entropie (qui mesure le désordre), l'information fonctionnelle est orientée vers l'utilité.

Exemple : L'ARN

Un exemple biologique est celui des molécules d'ARN. Certaines séquences d'ARN peuvent se plier pour interagir avec une cible moléculaire spécifique. Ces séquences possèdent une information fonctionnelle élevée parce qu'elles remplissent efficacement cette fonction, alors que la majorité des autres séquences possibles ne le peuvent pas.

Un phénomène universel

La théorie propose que cette information fonctionnelle augmente spontanément dans divers systèmes évolutifs, qu'ils soient biologiques ou non. Cela signifie que même des processus non vivants, comme la formation de minéraux ou la synthèse chimique dans des environnements extraterrestres, pourraient être soumis à cette tendance vers la complexité accrue.

2. Une loi universelle régissant la complexité

La complexité au-delà du vivant


Hazen et Wong suggèrent que la complexité croissante n'est pas limitée aux organismes vivants, mais qu'elle est observable dans toute l'histoire de l'univers. Voici quelques exemples illustrant cette idée :

- Les éléments chimiques : Après le Big Bang, seuls les éléments les plus simples (hydrogène et hélium) existaient. Les processus stellaires ont ensuite produit des éléments plus complexes comme le carbone et l'oxygène, nécessaires à la vie.

- Les minéraux terrestres : La diversité minérale sur Terre a augmenté au fil du temps grâce à des processus géologiques et chimiques. Par exemple, certains minéraux ne se forment qu'en présence d'eau ou de vie biologique.

- Exemples extraterrestres : Sur Titan (une lune de Saturne), il est possible que des molécules complexes comme le graphène se forment naturellement dans son atmosphère riche en méthane.

Une flèche du temps pour la complexité

Cette tendance vers la complexité croissante rappelle la seconde loi de la thermodynamique, qui stipule que l'entropie (le désordre) augmente dans un système isolé. Cependant, contrairement à l'entropie, qui conduit au chaos, cette nouvelle loi favoriserait l'organisation et la fonctionnalité.

3. Débats et critiques autour de la théorie

Difficultés de mesure


L'un des principaux défis est que l'information fonctionnelle dépend fortement du contexte : une fonction utile dans un environnement donné peut être inutile dans un autre. Cela rend difficile sa quantification précise et universelle.

Testabilité scientifique

Certains chercheurs remettent en question la testabilité de cette hypothèse. Peut-on réellement prouver que cette tendance vers la complexité est universelle ? Ou s'agit-il simplement d'une observation limitée aux systèmes terrestres ?

Révolution conceptuelle

Malgré ces critiques, si cette théorie est validée, elle pourrait bouleverser notre compréhension des lois fondamentales de la nature :

- La biologie serait vue comme un cas particulier d'un principe cosmique plus large.

- Elle pourrait expliquer pourquoi des formes de vie intelligentes pourraient émerger ailleurs dans l'univers.

4. Transitions évolutives et auto-organisation

Les sauts majeurs dans l'évolution


L'histoire de la vie sur Terre montre plusieurs transitions majeures vers une complexité accrue :

- La formation des cellules eucaryotes (avec un noyau).

- L'apparition des organismes multicellulaires.

- Le développement des systèmes nerveux complexes.

Ces transitions sont souvent décrites comme des " sauts " évolutifs qui semblent suivre une logique similaire à celle des transitions de phase en physique (comme le passage de l'eau liquide à la glace).

Auto-organisation et imprévisibilité

Un aspect fascinant de cette théorie est que les systèmes complexes génèrent souvent des fonctions nouvelles imprévisibles. Par exemple :

- Les plumes ont initialement évolué pour l'isolation thermique chez les dinosaures, mais elles ont ensuite permis le vol chez les oiseaux.

- Les systèmes biologiques deviennent ainsi auto-référents et imprévisibles, ce qui rappelle certaines idées mathématiques comme le théorème d'incomplétude de Gödel (selon lequel certains systèmes ne peuvent pas être entièrement compris depuis leur propre cadre).

5. Implications pour l'intelligence extraterrestre

Si la complexité croissante est une tendance universelle, cela pourrait signifier que la vie – et même l'intelligence – est répandue dans l'univers. Cette idée contraste avec celle du biologiste Ernst Mayr, qui considérait que les formes intelligentes sont extrêmement rares en raison de leur fragilité évolutive.

Hazen et Wong proposent au contraire que si les conditions initiales sont réunies (comme sur Terre), les systèmes évoluent naturellement vers des formes plus complexes capables d'intelligence.

Conclusion : Une nouvelle vision cosmique

La théorie avancée par Hazen et Wong offre une perspective radicale sur l'évolution et la complexité :

- Elle étend les principes évolutifs bien au-delà du vivant pour inclure les processus chimiques et physiques.

- Elle propose une loi fondamentale régissant tous les systèmes complexes.

- Si validée, elle pourrait révolutionner notre compréhension des lois naturelles et ouvrir de nouvelles voies pour explorer l'origine de la vie et son potentiel ailleurs dans l'univers.

En résumé, cette hypothèse nous invite à considérer que la complexité – loin d'être un phénomène accidentel – est inscrite dans les lois fondamentales qui régissent notre cosmos.



 

Auteur: Internet

Info: https://www.quantamagazine.org/. Philipp Ball, 2 avril 2025. Synthèse par deepseek

[ paliers ] [ niveaux d'organisation ] [  étapes de complexification ]

 

Commentaires: 0

Ajouté à la BD par miguel