Citation
Catégorie
Tag – étiquette
Auteur
Info
Rechercher par n'importe quelle lettre



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits... Recherche mots ou phrases tous azimuts... Outil de précision sémantique et de réflexion communautaire... Voir aussi la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats ... Lire la suite >>
Résultat(s): 5461
Temps de recherche: 0.0371s

soliton

Un satellite mesure par hasard une vague géante de 19,7 mètres : un record !

Pour la première fois, un satellite franco-américain a mesuré une vague record de 19,7 mètres. Cette donnée, qui reconditionne les modèles numériques, va permettre aux chercheurs de mieux comprendre les mécanismes des vagues extrêmes, et d’anticiper l’avenir des océans et les risques des tempêtes océaniques dans un monde confronté au réchauffement climatique. 

Imaginez un mur d’eau aussi haut qu’un immeuble de sept étages : c’est la vision qu’auraient pu avoir des marins le 21 décembre 2024, alors qu’ils naviguaient dans le Pacifique Nord. Ce jour-là, le satellite franco-américain Swot (Surface Water and Ocean Topography), qui cartographie les niveaux d'eau et la topographie des océans avec une précision inédite, a détecté la plus haute vague jamais mesurée dans l’océan, d’une hauteur de 19,7 mètres.

Les vagues océaniques naissent d’un transfert d’énergie entre le vent et la surface de la mer. Quand le vent souffle au-dessus de l’eau, il transmet une partie de son énergie cinétique à la surface. Cela crée d’abord de petites rides, mais si le vent continue, celles-ci grandissent et deviennent de vraies vagues. Plus le vent souffle fort, longtemps, et sur une plus grande distance libre sans être interrompu par des obstacles - comme des îles ou des côtes -, plus les vagues deviennent hautes et puissantes.

"Une énergie phénoménale"

Les vagues les plus extrêmes se forment lors de tempêtes particulières, dont les vents les plus puissants ont la même vitesse de déplacement que les vagues. "Cette synchronisation permet aux vagues de croître en hauteur et en longueur pendant plusieurs heures, concentrant une énergie phénoménale dans une zone de moins de 300 kilomètres de diamètre", indique le CNRS. Ce concentré d’énergie se disperse ensuite sous forme de houle dans tout l'océan. 

Mais jusqu’à peu, il n’avait jamais été possible de mesurer directement de telles vagues. Certes, les tempêtes mondiales depuis 1991 sont classées par ordre d’intensité, grâce à des modèles numériques de prévision météorologique, par une équipe menée Fabrice Ardhuin, océanographe à l’université de Bretagne Occidentale à Brest. Ce catalogue indiquait la probabilité qu’une vague record de 23 mètres ait déferlé lors de la tempête Hercules, en Atlantique nord, en janvier 2014. Mais de 1992 à 2024, aucun des 15 satellites altimétriques qui se sont succédé en orbite n’ont pu mesurer des vagues de plus de 18,5 mètres. Cela s’explique par le fait que le faisceau d’observation des satellites ne balaie à chaque passage qu'un fin ruban d’océan, qui ne passe pas forcément au cœur des plus fortes tempêtes.

Améliorer les modèles de prévision météorologique et la connaissance des vagues extrêmes

Mais le 21 décembre 2024, le satellite Swot, après deux ans de fonctionnement, a par chance survolé le cœur de la tempête Eddie au moment où la hauteur des vagues était proche du maximum, selon les prévisions météorologiques. Cette grosse tempête, qui a fait la joie des surfeurs à Hawaï, où se déroulait dans les jours suivant une compétition, qui a pu se tenir pour seulement la 11e fois en 40 ans grâce à une houle de plus de 12 mètres, a aussi causé la mort de trois personnes, fermé des ports et détruit des bateaux de pêche lorsque des vagues de 4 mètres ont atteint les côtes d’Amérique du Sud. Les houles créées par la tempête Eddie ont parcouru plus de 24.000 kilomètres du Pacifique Nord jusqu'à l'Atlantique tropical et ont atteint des longueurs de 400 à 1600 mètres.

Ces observations ouvrent par ailleurs de nouvelles perspectives pour interpréter les signaux sismiques générés par les vagues océaniques, enregistrés depuis plus d'un siècle, avec des périodes pouvant atteindre 26 secondes.

Les observations de Swot serviront à améliorer les modèles de prévision météorologique et la connaissance des vagues extrêmes, des données cruciales pour mieux prévoir les tempêtes marines et définir les constructions en mer et côtières. Toutefois, la hausse des températures océaniques, dans un contexte de dérèglement climatique global, risque d’alimenter des tempêtes plus violentes et de modifier la configuration des vagues, remodelant potentiellement les côtes et menaçant les communautés côtières dans les années à venir.



 



 

Auteur: Internet

Info: https://www.sciencesetavenir.fr/, Sylvie Rouat le 21.10.2025

[ vague scélérate  ] [ conjonction ] [ maritime ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

nématologie

Ce ver parasite " vole " discrètement les gènes de son hôte 

En explorant ce processus connu sous le nom de " transfert horizontal de gènes ", les scientifiques pourraient en apprendre davantage sur la façon dont les bactéries deviennent résistantes aux médicaments.

Des scientifiques du Centre RIKEN de recherche sur la dynamique des biosystèmes au Japon ont récemment découvert que le parasite connu sous le nom de ver de crin de cheval " vole " les gènes de son hôte afin de le contrôler.

Il s’agit d’un processus connu sous le nom de " transfert horizontal de gènes ", c’est-à-dire lorsque deux génomes partagent des informations génétiques de manière non sexuelle.

L’étude de ce processus pourrait aider les scientifiques à comprendre comment les bactéries développent une résistance aux antibiotiques grâce à un processus similaire.

On nous a tous rappelé l'horreur existentielle des parasites cérébraux grâce aux " fourmis zombie "  , mais la manière exacte dont les parasites du monde réel réalisent ce spectacle de marionnettes biologiques reste un peu mystérieuse. L'un de ces parasites est le ver crin de cheval (​​ Chordodes ) , qui dépend des sauterelles, des grillons, des coléoptères et même des mantes pour sa survie et sa reproduction. Né dans l'eau, ce ver utilise des éphémères pour atteindre la terre ferme, où il attend ensuite d'être consommé par sa proie et se met au travail.

Une fois à l’intérieur d’un hôte, le ver commence à se développer et à manipuler l’insecte. Une fois qu'il est complètement mature, il incite cet hôte à sauter dans l'eau, complétant ainsi son cycle de vie. Le ver de crin de cheval parvient à cette capacité de contrôle mental en utilisant des molécules qui imitent le système nerveux central de l'hôte, mais la manière dont il crée ces molécules reste un mystère depuis un certain temps.

Aujourd'hui, une nouvelle étude du Centre RIKEN pour la recherche sur la dynamique des biosystèmes au Japon a révélé que les vers en crin de cheval utilisent le " transfert horizontal de gènes " – en volant effectivement les gènes d'un insecte – afin de contrôler leurs hôtes. Les résultats ont été récemment publiés dans la revue Current Biology.

Pour trouver cette réponse étrange – et plutôt grossière –, une équipe dirigée par Tappei Mishina a analysé l’expression génétique d’un ver de crin de cheval dans tout le corps avant, pendant et après avoir infecté une mante. L'étude montre que 3 000 gènes étaient exprimés davantage chez le ver lorsqu'il manipulait la mante (et 1 500 autres étaient exprimés moins), alors que l'expression des gènes de la mante restait inchangée.

Une fois qu'ils ont compris que le ver à crins produisait ses propres protéines au cours du processus de manipulation, les scientifiques se sont tournés vers une base de données pour discerner l'origine de ces protéines et ont été confrontés à un phénomène surprenant.

"Il est frappant de constater que de nombreux gènes de vers à crins susceptibles de jouer un rôle important dans la manipulation de leurs hôtes sont très similaires à des gènes de mante, ce qui suggère qu'ils ont été obtenus par transfert horizontal de gènes", a déclaré Mishina dans un communiqué de presse.

Dit simplement le transfert horizontal de gènes est le partage d’informations génétiques de manière non sexuelle entre deux génomes – dans ce cas, entre les génomes d’une mante et d’un ver de crin de cheval. Ce n’est pas un phénomène inconnu des scientifiques, car c’est la principale façon dont les bactéries développent une résistance aux antibiotiques .

Dans le cas du ver crin de cheval, quelque 1 400 gènes correspondaient à ceux des mantes, mais ils étaient complètement absents chez d'autres spécimens de Chordodes qui ne dépendent pas des mantes pour se reproduire. L’étude émet l’hypothèse que ces " gènes de mimétisme " ont probablement été acquis au cours de multiples événements de transfert et que les gènes affectant la neuromodulation, l’attraction vers la lumière et les rythmes circadiens étaient particulièrement utiles pour contrôler l’hôte.

En étudiant ce couple parasitaire, Mishina et d’autres scientifiques pourraient en apprendre davantage sur le transfert horizontal de gènes multicellulaires, le fonctionnement interne de cette partie non sexuelle de l’évolution et les mécanismes qui rendent les bactéries résistantes à nos médicaments les plus avancés.

Il est temps pour le parasite de donner un peu en retour

Auteur: Internet

Info: https://www.popularmechanics.com/ Darren Orf, 18 oct 2023

[ copie latérale ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

système fermé

Des chercheurs prouvent que les modèles d’IA dégénèrent s’ils sont entraînés avec leurs propres résultats

À la fin c'est moche (Photo avec quelques exemples de clichés/portraits traités par IA qui perdent leur netteté et leur définition au cours du processus)

Utiliser des données générées par IA pour enrichir un modèle d’IA conduit progressivement à l’effondrement de la qualité de ses résultats.

Détruire un modèle d’IA sera peut-être une préoccupation d’activistes d’ici quelques années. Grâce à une étude publiée dans Nature, on connaît une méthode qui, au moins, semble fonctionner. Des chercheurs en intelligence artificielle de Cambridge, au Royaume-Uni, ont essayé de savoir ce qu’il se passait en entraînant des modèles d’IA avec les résultats issus de ces mêmes modèles. En d’autres termes, nourrir de l’IA générative avec de l’IA générative. Eh bien le résultat est sans appel : le modèle finit tôt ou tard pas s’effondrer.

L’expérimentation n’a rien d’un projet néo-luddite, mais s’apparente plutôt à une mise en garde pour Zakhar Shumaylov, l’un des co-auteurs de l’étude, à toute l’industrie et la recherche en IA : " Tout le sujet est de montrer que nous devons faire vraiment attention à ce que nous utilisons comme donnée pour enrichir les IA ", affirme-t-il.

L’expérience menée à Cambridge : générer des articles Wikipédia

L’équipe de Shumaylov a testé son hypothèse avec l’un des usages les plus fréquents des intelligences artificielles génératives : la génération de texte. Un premier modèle a été enrichi avec des articles de Wikipédia (comme peuvent l’être de nombreux modèles, de ChatGPT à Gemini). Les chercheurs ont ensuite demandé à ce modèle de générer des articles de style Wikipédia. Une tâche simple pour un modèle entraîné sur une bonne matière première, constituée d’articles de Wikipédia.

Mais voilà, ils ont ensuite ajouté les articles générés au modèle initial, mélangeant une source " pure " et authentique (les vrais articles Wikipédia) et une source générée (les articles générés par le modèle dans le style de Wikipédia). Et déjà, les choses ont empiré, avec une seule génération de modèle qui n’a que partiellement été entraînée avec des IA. 

Pourquoi cet appauvrissement dans le matériau original survient-il ? La raison principale vient de l’échantillon de texte source. Quand vous utilisez comme source un article original, notamment d’encyclopédie, vous vous retrouvez avec une collection de mots rares que l’IA va être susceptible d’utiliser. Mais avec une génération suivante d’échantillon, vous commencez à perdre la rareté des mots au profit de mots plus courants, qui sont mécaniquement plus nombreux. Jusqu’à finir sur une production textuelle pauvre, qui, en plus d’avoir perdu en vocabulaire, enchaîne de plus en plus les erreurs. C’est précisément ce que l’équipe de Shumailov a remarqué : " le modèle finit par n’apprendre que des erreurs ".

Un danger pour les moteurs de recherche par IA

Cette étude prouve que l’IA a besoin d’une donnée de qualité pour s’enrichir et garder un haut niveau d’exigence. Cela s’applique dans un cadre universitaire, mais également sur les outils grand public : c’est toute la difficulté, par exemple, d’un Google Gemini sur le web.

Cette expérience de Google, lancée aux États-Unis, vise à résumer les résultats présents sur le web et à les présenter sous la forme de réponses écrites directement dans le moteur de recherche. Ainsi, les internautes n’auraient plus besoin d’aller sur les sites web que Google vient résumer : leur réponse est dans Google. Mais que se passe-t-il si le corpus est de mauvaise qualité ou, pire, si le web devient petit à petit un repaire de textes générés par IA ? Gemini finira par s’enrichir sur des textes pauvres, apprenant sur des matériaux générés et donc mécaniquement moins intéressants.

C’est aussi ce que peut craindre OpenAI, qui vient de lancer en bêta très privée son concurrent à Gemini : SearchGPT. Le géant derrière ChatGPT espère concurrencer Google sur le sujet de l’avenir des moteurs de recherche, mais se heurtera aux mêmes écueils s’il ne fait pas attention à son corpus d’entraînement initial… et à ses enrichissements ultérieurs.

La proposition des chercheurs de Cambridge pour éviter cela, serait de parvenir à une sorte de filigrane (watermark), permettant avec certitude d’identifier un texte généré ou une image générée, afin de l’exclure de l’enrichissement des modèles.

Auteur: Internet

Info: Numérama, Julien Cadot, 26 juillet 2024

[ étiolement ] [ dégénérescence ] [ nivellement par le bas ] [ mise en boucle ]

 

Commentaires: 0

Ajouté à la BD par miguel

intelligence artificielle

Face aux limitations des modèles d'IA actuels, OpenAI et ses rivaux explorent des techniques révolutionnaires pour repousser les frontières de l'intelligence artificielle. 

Les chercheurs adoptent le test-time compute, une méthode permettant aux modèles d’améliorer leur performance en temps réel.

Le marché des puces pourrait être transformé par le passage aux inference clouds, apportant scalabilité et efficacité énergétique.

Les entreprises investissent massivement dans ces innovations pour rester à la pointe dans le domaine de l’intelligence artificielle.

Alors que l’intelligence artificielle continue de se développer à un rythme effréné, les géants de la technologie, dont OpenAI, cherchent à surmonter les limites des méthodes actuelles de formation des IA. Face aux défis croissants, ces entreprises se tournent vers des techniques plus innovantes pour rendre les algorithmes plus intelligents et efficaces.

La course à l’IA plus intelligente

OpenAI et ses concurrents travaillent d’arrache-pied pour développer des modèles d’IA plus intelligents. L’approche traditionnelle consistant à augmenter la taille des modèles atteint ses limites, comme le souligne Ilya Sutskever, cofondateur de Safe Superintelligence et ancien de OpenAI.

Sutskever indique que les résultats du pré-entraînement, une phase cruciale pour comprendre les structures linguistiques, ont cessé de s’améliorer. Les entreprises de technologie réalisent qu’il est urgent de revoir leur stratégie et de se concentrer sur des méthodes alternatives.

Les nouvelles techniques en jeu

Pour surmonter ces obstacles, des chercheurs explorent des méthodes comme le test-time compute. Cette technique optimise les performances des modèles d’IA lors de la phase d’inférence, c’est-à-dire lorsque le modèle est utilisé en temps réel.

Par exemple, au lieu de choisir immédiatement une réponse unique, un modèle peut générer et évaluer plusieurs options en temps réel, permettant ainsi une prise de décision plus semblable à celle des humains.

Les implications sur le marché des puces

Cette nouvelle approche pourrait bouleverser le marché des puces IA, dominé par la demande insatiable pour les puces de Nvidia. Le passage vers des inference clouds, des serveurs distribués basés sur le cloud pour l’inférence, pourrait redéfinir le paysage concurrentiel.

Les investisseurs en capital-risque suivent de près ce changement, réfléchissant aux impacts potentiels sur leurs investissements massifs dans le développement des modèles IA.

Le défi des ressources

Le développement de ces techniques plus avancées n’est pas sans défis. Les modèles de langage de grande taille consomment d’énormes quantités de données et d’énergie, et les ressources facilement accessibles ont été largement épuisées.

Les pénuries d’énergie ont également entravé les processus de formation, soulignant la nécessité de solutions plus durables pour soutenir ces modèles complexes.

Vers un avenir prometteur

Malgré ces défis, les chercheurs restent optimistes quant à la capacité de ces techniques à transformer le paysage de l’IA. OpenAI prévoit d’appliquer ces innovations à des modèles de base plus grands, tout en intégrant des retours d’experts pour améliorer encore la précision et l’efficacité.

Technique                Avantages                                 Inconvénients

Test-time                 Amélioration en temps réel,       Exige en puissance de calcul, 

compute                  raisonnement semblable à        complexité accrue

                                celui des humains 

Inference clouds      Scalabilité,                                 Investissement initial élevé, 

                                 efficacité énergétique                dépendance au cloud

Un tournant pour l’IA

La recherche d’un nouveau chemin vers une IA plus intelligente représente un tournant majeur. Les entreprises telles que OpenAI, Anthropic, xAI et Google DeepMind investissent massivement pour développer leurs propres versions de ces techniques.

Ce mouvement témoigne d’une volonté collective de dépasser les limites actuelles et de continuer à innover dans un domaine en constante évolution.

Alors que l’IA continue de progresser, quelles nouvelles découvertes façonneront l’avenir de cette technologie fascinante ?

Auteur: Internet

Info: https://techguru.fr/, Lynda Fournier, 1 décembre 2024

[ homme-machine ]

 

Commentaires: 0

Ajouté à la BD par miguel

mémoire

Mettez vos données sur disque dur et elles seront peut être sûres pendant une décennie si rien ne casse. Mais que faire pour garder l'info des millions d'années ?
La puissance de l'ADN comme dispositif de stockage a été identifiée la première fois seulement six ans après la découverte de la molécule. Dans une conférence de 1959 au California Institute of Technology, Richard Feynman, un des physiciens les plus admiré du 20 ème siècle, prévoyait que la miniaturisation de la technologie changerait probablement le monde - essentiellement en prévoyant la révolution numérique. Il précisa alors que la nature avait déjà fait un chip bien meilleur sous forme d'acide désoxyribonucléique.
Dans un petit paquet d'atomes au centre de chaque cellule, Feynman remarqua que toute l'information requise pour créer un humain, une amibe ou une tomate y sont codés. En beaucoup de domaines Feynman était en avance sur son temps. Les scientifiques ont calculé que l'ADN pourrait être le support de stockage idéal. Une seule livre d'ADN pouvant contenir toutes les données de tous les ordinateur.
Mais gérer cette puissance informatique s'est avérée difficile. Le premier ordinateur fonctionnant entièrement comme l'ADN fut créé en 1994 par Leonard Adleman, informaticien à l'université de Californie. Dans une cuillère à café d'eau, il utilisa une série de réactions biochimiques pour résoudre le problème célèbre "du représentant de commerce" (en bref de combien de manières peut-on aller de New York à Cleveland en s'arrêtant dans 7 autres villes dans l'intervalle ?). La promesse de l'approche était due au fait que chaque morceau d'ADN peut fonctionner essentiellement comme ordinateur indépendant, il devrait lui être possible de faire près d'un quadrillion de calculs immédiatement. Plus facile à dire qu'a faire !. Et si Adleman est lui-même est parvenu à résoudre un problème à 20 variables avec son ordinateur ADN beaucoup de chercheurs depuis, dans ce champ de l'ADN, travaillant après ce papier initial d'Adleman, se sont maintenant déplacés vers la confection de machines minuscules au lieu d'utiliser des molécules d'ADN. Le problème : Accéder à toute l'information d’une molécule de l'ADN.
"Ma propre conclusion est que le paradigme du calcul de l'ADN ne fournira pas une plate-forme de calcul puissante pour résoudre des problèmes" dit Lloyd Smith, scientifique à l'université de Wisconsin-Madison qui a effectué ce travail de calcul ADN, mais il ne prévoit pas de remplacer ses applications liées à la matière. "c'est mignon, mais je ne sais pas si c'est un concept si important." Quelques chercheurs qui sont resté avec cette idée de stocker l'information par ADN s'éloignent actuellement de l'idée que la molécule puisse sauvegarder des quantités d'information massives. Au lieu de cela, ils se concentrent sur de plus petits messages correcteurs pendant de très longues périodes - peut-être destinés à survivre à tous les livres et disques durs que la civilisation a produits.
L'ADN des organismes évolue constamment, mais les messages correcteurs d'erreurs destinés à protéger les organismes - restent très longtemps. Pak Chung Wong, chercheur aux Pacific National Laboratories, précise que quelques unes de ces contraintes de bactéries ont maintenu leur ADN quasi intact pendant des millions d'années. Lui et ses collègues ont développé une technique pour implanter au moins 100 mots dans le génome d'un organisme de sorte que le message soit protégé contre des erreurs. Wong et ses collègues ont prouvé qu'ils pourraient implanter un message (ils ont employé "c'est un petit monde après tout") dans le génome de bactérie. Une famille entière de bactéries avec le message put être créée, et même après des centaines de générations, le message était encore intact. Wong note qu'il devrait être possible d'envoyer un message au futur dans un organisme particulièrement robuste - tel que les bactéries ou autres cancrelats, qui survivraient à une guerre nucléaire. Plus pratiquement, les compagnies qui créent des organismes génétiquement modifiés pourraient employer cette technologie pour créer un genre de filigrane ADN pour protéger leur propriété intellectuelle. Au delà de fournir de la manière pour Genentech ou Monsanto afin d’empêcher d'autres compagnies de voler leurs organismes génétiquement modifiés, une telle technologie pourrait être la meilleure manière que nous ayons d'envoyer un message au futur éloigné. Oublions les gravures sur le satellites Voyager. Ce message pourrait durer aussi longtemps que n'importe quelle vie sur terre. La seule question : qu’y mettrons nous ?

Auteur: Internet

Info: Fortean Times, Message dans une bouteille d'ADN, 10.24.05

[ conservation ]

 

Commentaires: 0

entomologie

Découvrez comment certains vers du cerveau transforment les fourmis en mortes-vivantes 

(photo : Dans la tête d'une fourmi infectée par plusieurs vers plats parasites en jaune, un ver en rouge se niche à l'intérieur du cerveau de la fourmi, - image capturée par le centre d'imagerie et d'analyse du musée d'histoire naturelle de Londres.)

Peut-on comprendre l’idée d’un ver parasite dans le cerveau d’une fourmi ? Ne vous inquiétez pas, il y a des photos.

Les scientifiques ont récemment capturé les premières images montrant ces parasites " contrôlant l'esprit " en action à l'intérieur de la tête d'une malheureuse fourmi, révélant des vues inédites d'un ver plat mortel vivant dans le cerveau, Dicrocoelium dendriticum (douve lancette du foie ou lancet liver fluke)  et les indices mis au jour quant aux secrets de manipulation et de comportement du ver.

Les douves du foie de Lancet ciblent un large éventail d'espèces de fourmis. Selon les Centres de contrôle et de prévention des maladies (CDC), bien qu'elles ne pratiquent leurs tours de passe-passe que sur les fourmis hôtes, elles font du ping-pong entre plusieurs espèces pour compléter leur cycle de vie.

Sous forme d’œufs, elles habitent les excréments d’animaux de pâturage comme les cerfs ou le bétail. Une fois les excréments infectés mangés par les escargots, les larves de vers éclosent et se développent dans les intestins des mollusques. Les escargots finissent par éjecter les larves de vers sous forme de boules visqueuses, qui sont ensuite englouties par les fourmis. [ 8 terribles infections parasitaires qui feront ramper votre peau ]

C'est à l'intérieur de la fourmi que le ver se transforme. Les fourmis ingèrent généralement plusieurs vers, dont la plupart se cachent dans leur abdomen. Toutefois, l'un d'entre eux parvient jusqu'au cerveau de la fourmi, où il devient le moteur de l'insecte, l'obligeant à adopter des "comportements absurdes", ont rapporté des scientifiques dans une nouvelle étude.

Sous le contrôle du ver, la fourmi désormais zombifiée affiche un souhait de mort, grimpant sur des brins d'herbe, des pétales de fleurs ou d'autres végétaux au crépuscule, une époque où les fourmis retournent généralement à leurs nids. Nuit après nuit, la fourmi s'accroche avec ses mâchoires à une plante, attendant d'être mangée par un mammifère qui en pâture. Une fois que cela se produit, les parasites se reproduisent et pondent chez le mammifère hôte. Les œufs sont expulsés dans les selles et le cycle recommence.

Tout est question de contrôle

Pendant des années, les biologistes avaient été intrigués par la relation entre les vers plats et les fourmis, mais les détails sur la manière dont les parasites manipulent le comportement des fourmis restaient un mystère, " en partie parce que jusqu'à présent, nous n'avons pas pu voir la relation physique entre le parasite et le cerveau de fourmi ", a déclaré le co-auteur de l'étude, Martin Hall, chercheur au département des sciences de la vie du Musée d'histoire naturelle (NHM) de Londres,  Tout a changé lorsqu'une équipe de scientifiques a examiné l'intérieur de la tête et du corps des fourmis infectées à l'aide d'une technique appelée micro-tomographie par ordinateur, ou micro-CT. Cette méthode combine la microscopie et l’imagerie aux rayons X pour visualiser les structures internes de minuscules objets en 3D et avec des détails époustouflants.

(Photo : La plupart des parasites vers plats d'une fourmi infectée attendent patiemment à l'intérieur de l'abdomen de leur hôte, tandis qu'un ou plusieurs vers envahissent le cerveau de la fourmi)

Les chercheurs ont décapité des fourmis prélevées, enlevant leurs mandibules pour mieux voir l'intérieur de leur tête, puis ils ont coloré et scanné la tête et l'abdomen des fourmis, ainsi qu'un corps complet de fourmi, écrivent-ils dans l'étude.

Leurs analyses ont montré qu'une fourmi pouvait avoir jusqu'à trois vers se disputant le contrôle de son cerveau, même si un seul ver parvient finalement à entrer en contact avec le cerveau lui-même. Les ventouses orales aident les parasites à s'accrocher au tissu cérébral de la fourmi, et les vers semblent cibler une région du cerveau associée à la locomotion et au contrôle de la mandibule.

Le détournement de cette zone du cerveau permis très probablement au ver de diriger la fourmi et verrouiller ses mâchoires sur une ancre d'herbe ou de fleur en attendant d'être mangée, rapportent les auteurs de l'étude. 

Auteur: Internet

Info: https://www.livescience.com/62763-zombie-ant-brain-parasite.html, 5 juin 2018, Mindy Weisberger

[ myrmécologie ] [ nématologie ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

chronos

L’événement le plus rare de tous les temps avait une demi-vie 1 000 milliards de fois plus longue… que l’âge de l’Univers

En 2019, dans un laboratoire enfoui sous une montagne italienne, un phénomène d’une rareté extrême a été capté par un instrument conçu pour traquer l’invisible. Les chercheurs de la collaboration XENON ont observé la désintégration d’un atome de xénon-124. Rien d’anormal à première vue, sauf que la demi-vie de cet isotope dépasse les 18 trillions d’années – soit plus de mille milliards de fois l’âge actuel de l’univers. Un événement aussi improbable qu’inattendu, qui s’est produit dans l’un des détecteurs les plus sensibles jamais construits.

Loin d’être un simple détail technique, cette désintégration atomique révèle la capacité grandissante de la science à capter les phénomènes les plus discrets, et à repousser les frontières du mesurable.

Quand la désintégration devient (presque) éternelle

La notion de demi-vie est bien connue : elle désigne le temps nécessaire pour que la moitié d’une quantité d’un isotope radioactif se transforme en un autre atome. Dans la majorité des cas, cette transformation se produit à des échelles de temps humaines ou planétaires. Le carbone-14, par exemple, a une demi-vie de 5 730 ans, ce qui le rend utile en archéologie. L’uranium-238, lui, met 4,5 milliards d’années à voir la moitié de ses atomes se désintégrer.

Mais le xénon-124 relève d’un tout autre ordre de grandeur : sa demi-vie est estimée à 18 sextillions d’années (18 suivis de 21 zéros). À cette échelle, les durées cosmiques deviennent presque insignifiantes. Si un simple gramme de xénon-124 était placé dans un endroit isolé de l’univers, il resterait quasiment inchangé bien après que toutes les étoiles se soient éteintes.

Observer l’inobservable : l’expérience XENON1T

Comment, alors, peut-on détecter une désintégration aussi improbable ? La réponse tient dans le gigantisme de l’expérience. Le détecteur XENON1T, situé dans les profondeurs du laboratoire du Gran Sasso, contient deux tonnes de xénon liquide ultra pur. Cela représente près de 10 000 milliards de milliards d’atomes de xénon-124.

Avec une telle quantité, même un événement qui se produit une fois tous les 10^22 ans à l’échelle d’un seul atome peut, statistiquement, se manifester quelques fois par an dans l’ensemble du détecteur. C’est ainsi qu’en 177 jours de fonctionnement, l’équipe a pu observer neuf désintégrations du xénon-124.

Ces désintégrations ne provoquent pas de lumière visible ni d’explosion. Elles émettent des signaux extrêmement ténus, comme des rayons X ou des électrons, que les capteurs ultrasensibles de XENON1T peuvent détecter, dans le silence presque absolu de leur environnement souterrain.

( Photo : les photomultiplicateurs du détecteur Xenon1T, utilisés pour détecter la matière noire et, dans ce cas, une désintégration rare.)

Pourquoi c’est une avancée majeure

En apparence, cette découverte pourrait sembler anecdotique. Après tout, il s’agit d’un isotope rare, dans un contexte très particulier. Mais sa portée est bien plus vaste. D’abord, c’est un exploit technique et scientifique : réussir à observer des processus aussi rares montre que nos outils expérimentaux atteignent un niveau de finesse remarquable.

Ensuite, cela ouvre la voie à d’autres observations de phénomènes ultralents, comme la désintégration du proton. Certaines théories de grande unification prédisent que cette particule, élément fondamental de toute matière, pourrait se désintégrer avec une demi-vie encore plus longue que celle du xénon-124 : plus de 10³⁴ ans, selon les estimations.

À ce jour, aucune désintégration de proton n’a jamais été observée, mais l’expérience XENON montre qu’avec assez de matière, de patience, et de précision, même les événements les plus improbables peuvent finir par se produire sous nos yeux.

Une nouvelle frontière pour la physique fondamentale

La désintégration du xénon-124 ne bouleverse pas notre compréhension actuelle de la physique, mais elle valide certaines prédictions théoriques et renforce la crédibilité de modèles encore peu testés. Elle confirme aussi que des isotopes extrêmement stables ne sont pas éternels, et que tout, même ce que l’on croit figé, finit par évoluer.

Enfin, elle nous rappelle une leçon essentielle de la science moderne : ce n’est pas parce qu’un phénomène est rare qu’il est inaccessible. Il suffit parfois de regarder au bon endroit, suffisamment longtemps, avec les bons instruments.



 

Auteur: Internet

Info: https://sciencepost.fr/. Brice Louvet, 20 juillet 2025 - Source : https://www.nature.com/articles/s41586-019-1124-4. Synthèse de perplexity.ai

[ quasi-éternité ]

 

Commentaires: 0

Ajouté à la BD par miguel

infra-monde

Des chercheurs observent pour la première fois le ballet secret des atomes : même au zéro absolu, la matière vibre

Au cœur de la matière, bien au-delà de ce que l’œil humain peut percevoir, les atomes ne restent jamais immobiles. Même au zéro absolu, température théorique la plus basse possible, ils vibrent sous l’effet de phénomènes quantiques fondamentaux. Une équipe de chercheurs européens vient de franchir une étape capitale en observant, pour la toute première fois, ces mouvements invisibles au sein d’une molécule complexe, juste avant qu’elle ne se fragmente sous un faisceau de rayons X extrêmement puissant.

Une molécule au microscope : le défi de l’invisible

Jusqu’ici, le mouvement du point zéro – ce nom désignant les vibrations quantiques minimales d’un système – restait une notion théorique difficile à appréhender directement, notamment dans des molécules complexes. Les chercheurs ont utilisé une molécule appelée 2-iodopyridine, qu’ils ont bombardée avec des impulsions ultracourtes et intenses de rayons X au XFEL (European X-ray Free Electron Laser), près de Hambourg.

L’énergie délivrée a arraché des électrons à la molécule, la chargeant fortement et provoquant une répulsion immédiate entre ses parties, entraînant sa désintégration en fragments. Mais c’est précisément en analysant la trajectoire et l’orientation de ces fragments que les scientifiques ont pu reconstituer la forme et le mouvement interne de la molécule au moment précis de sa rupture.

Pour capturer cette explosion moléculaire dans ses moindres détails, les chercheurs ont utilisé le système COLTRIMS (Cold Target Recoil Ion Momentum Spectroscopy), un appareil capable de suivre simultanément plusieurs particules chargées avec une précision temporelle extrême, mesurée en femtosecondes (un quadrillionième de seconde).

Cette technologie leur a permis de créer une image tridimensionnelle complète de la structure moléculaire, dévoilant que les fragments ne se séparaient pas selon la géométrie plane attendue. Au contraire, ils affichaient des distorsions subtiles, témoins d’un mouvement coordonné et non aléatoire.

La signature d’un phénomène quantique cohérent

Contrairement aux vibrations thermiques ordinaires, le mouvement observé était caractéristique de la mécanique quantique, un phénomène appelé mouvement quantique cohérent. Cette vibration ne résulte pas d’un simple hasard, mais d’une coordination interne dictée par les lois quantiques.

Ce tremblement n’est pas un chaos, mais un ballet orchestré à l’échelle atomique ", explique Markus Ilchen, auteur principal de l’étude. Ce constat a été confirmé par des simulations informatiques avancées, où seules les modélisations intégrant des effets quantiques ont pu reproduire les données expérimentales avec précision.

( Image : Rebecca Boll au microscope à réaction COLTRIMS (REMI) de l’instrument SQS d’European XFEL, où l’expérience a été réalisée.)

Une avancée majeure pour la compréhension de la matière

Cette expérience marque une étape importante dans le domaine de l’imagerie moléculaire. Pour la première fois, les chercheurs peuvent observer en temps réel le comportement quantique d’une molécule complexe, ce qui ouvre de nombreuses perspectives.

Cette découverte éclaire d’un jour nouveau le comportement fondamental de la matière à l’échelle atomique et quantique, domaines cruciaux pour la chimie, la physique et la modélisation des interactions moléculaires.

Vers de nouvelles frontières scientifiques

Le fait d’observer directement ces vibrations quantiques offre une fenêtre inédite sur les mécanismes qui régissent la stabilité et la réactivité des molécules, potentiellement utile pour développer des matériaux innovants ou mieux comprendre les processus chimiques à l’œuvre dans la nature.

La mécanique quantique est au cœur de la matière et de la vie ", rappelle Stefan Pabst, chercheur impliqué dans la modélisation. " Voir ses effets aussi clairement est non seulement fascinant, mais essentiel pour faire progresser la science et les technologies futures. "

Cette recherche, publiée dans la revue Science, témoigne de la puissance des technologies modernes pour révéler des phénomènes jusqu’ici purement théoriques. Elle invite à imaginer un avenir où le contrôle et la manipulation du comportement quantique des molécules pourraient révolutionner la science des matériaux, la pharmacologie, et même l’informatique quantique.

En offrant un aperçu inédit du ballet quantique des atomes, cette découverte montre que même au repos apparent, la matière est en mouvement constant, défiant notre compréhension classique du monde. C’est dans ces vibrations invisibles que se joue une part essentielle de la réalité, un mystère lentement dévoilé grâce aux outils les plus avancés de la science moderne.

Auteur: Internet

Info: https://sciencepost.fr/. Brice Louvet, 14 septembre 2025

[ corrélation ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

santé

Le cuivre, l’ennemi numéro 1 des microbes
En mars dernier, des recherches ont montré que le coronavirus SARS-CoV-2 (Covid-19), responsable de la pandémie de Covid-19, peut survivre jusqu’à quatre heures sur du cuivre, jusqu’à 24 heures sur du carton, et jusqu’à trois jours sur du plastique et de l’acier inoxydable (bien que la charge virale soit, après 72 heures, considérablement réduite). À la publication de cette étude, la seule chose qui surprit Bill Keevil était que l’agent pathogène avait survécu aussi longtemps sur le cuivre.

Ce spécialiste en microbiologie à l’Université de Southampton (Royaume-Uni) est en effet habitué à voir “tomber” les microbes au contact du métal. Dans son laboratoire, qu’il s’agisse de Legionella pneumophila, la bactérie responsable de la maladie du légionnaire, du Staphylococcus aureus, résistant à la méthicilline (SARM), du coronavirus responsable du syndrome respiratoire du Moyen-Orient (MERS), ou encore de H1N1, le virus responsable de la pandémie de grippe porcine de 2009, tous, au contact du cuivre, succombent en quelques minutes.

Les propriétés antimicrobiennes du cuivre ne sont pas nouvelles pour les humains. L’une des premières utilisations enregistrées de cet élément comme agent désinfectant provient du papyrus Ebers, l’un des plus anciens traités médicaux connus, daté du XVIe siècle av. J.-C., pendant le règne d’Amenhotep Ier.

Plus tard, dès 1600 avant J.-C, nous savons que les Chinois utilisaient également des pièces de cuivre pour traiter les douleurs cardiaques et gastriques, ou encore les troubles de la vessie. Autre exemple avec les phéniciens qui, en mer, inséraient parfois des morceaux de leurs épées en bronze (un alliage du cuivre) dans leur blessures pour prévenir les infections. Très tôt également, les femmes ont pris conscience que leurs enfants souffraient beaucoup moins souvent de diarrhées lorsqu’ils buvaient dans des récipients en cuivre. Ce savoir se transmit alors de génération en génération.

Comment expliquer les pouvoirs antimicrobiens du cuivre ?
"Les métaux lourds, dont l’or et l’argent, sont antibactériens, mais la composition atomique spécifique du cuivre lui confère un pouvoir de destruction supplémentaire, explique Bill Keevil. Le cuivre a un électron libre dans sa coquille orbitale externe d’électrons qui participe facilement aux réactions d’oxydoréduction (ce qui fait également du métal un bon conducteur)". C’est cet électron qui, en quelque sorte, vient oxyder les molécules de l’agent pathogène. "L’argent et l’or n’ont pas d’électron libre, poursuit le chercheur. C’est pourquoi ils sont moins réactifs".

Mais le cuivre a également d’autres cordes à son arc. Lorsqu’un microbe atterrit dessus, ses ions vont littéralement faire exploser la membrane cellulaire de l’agent pathogène qui, de ce fait, se retrouve à nu. Les ions s’attaquent ensuite librement à l’ADN ou l’ARN de la victime, empêchant sa réplication.

Bien conscient de toutes ces propriétés, Michael G. Schmidt, professeur de microbiologie à l’Université médicale de Caroline du Sud (États-Unis), focalise depuis plusieurs années ses recherches sur les pouvoirs du cuivre en milieu hospitalier.

Au terme d’une étude menée sur 43 mois, concentrée sur trois hôpitaux proposant des alliages de cuivre sur les rails de chevet, les supports d’administration intraveineuse ou encore sur les accoudoirs de chaises, il avait été constaté une réduction de 58% des infections nosocomiales comparé aux résultats d’établissements plus “classiques”.

Dans le cadre d’une autre étude menée sur deux ans, publiée plus tôt cette année, le chercheur a cette fois comparé les lits d’une unité de soins intensifs proposant des surfaces en plastique et ceux proposant du cuivre. Il est finalement ressorti que les premiers dépassaient les normes de risque acceptées dans près de 90% des échantillons, tandis que les seconds ne dépassaient ces normes que sur 9%.

Depuis plusieurs années, des centres hospitaliers, compte tenu de toutes ces vertus antimicrobiennes, ont évidemment fait le choix du cuivre. Que ce soit dans la robinetterie, les poignées de portes et autres éléments de mobilier. C’est notamment le cas aux États-Unis, en France, en Pologne, ou encore au Pérou et au Chili. Il y a deux ans, des chercheurs britanniques ont également mis au point des blouses imprégnées de nanoparticules de cuivre, toujours dans l’idée de limiter les infections nosocomiales.

Malgré tout, le retour du cuivre se fait encore assez timide, principalement pour des raisons budgétaires. L’actualité sanitaire, en revanche, pourrait pousser d’autres centres hospitaliers à se pencher sur la question. De leur côté, les entrepreneurs pourraient être amenés à proposer des solutions plus abordables.

Auteur: Internet

Info: https://sciencepost.fr, Brice Louvet 21 avril 2020

[ antiseptique ] [ antiputtride ]

 

Commentaires: 0

Ajouté à la BD par miguel

cognition

Des chercheurs de l'Institut de neurosciences de la Timone apportent un éclairage théorique nouveau sur une illusion visuelle découverte dès le début du XXème siècle. Elle restait incomprise alors qu'elle pose des questions fondamentales sur la manière dont notre cerveau représente les évènements dans l'espace et dans le temps. Cette étude parue le 26 janvier 2017 dans la revue PLOS Computational Biology, montre que la solution se situe dans les mécanismes prédictifs intrinsèques aux traitements neuronaux de l'information.
Les illusions visuelles sont toujours aussi populaires: de façon quasi magique, elles peuvent faire apparaitre des objets là où on ne les attend pas... Elles sont aussi d'excellentes occasions de questionner les contraintes de notre système perceptif. De nombreuses illusions sont basées sur le mouvement, comme par exemple, l'illusion du flash retardé. Observez un point lumineux qui se déplace sur une trajectoire rectiligne. Si un second point lumineux est flashé très brièvement juste au dessus du premier, le point en mouvement sera toujours perçu en avant du flash alors que leurs deux positions horizontales sont rigoureusement identiques.
Traiter l'information visuelle prend du temps et même si ces délais sont remarquablement brefs, ils ne sont cependant pas négligeables et le système nerveux doit les compenser. Pour un objet qui se déplace de façon prédictible, le réseau neuronal peut inférer sa position la plus probable en tenant compte de ce délai de traitement. Pour le flash, par contre, cette prédiction ne peut s'établir car son apparition est imprévisible. Ainsi, alors que les deux cibles sont alignées sur la rétine au moment du flash, la position de l'objet en mouvement est anticipée par le cerveau afin de compenser le délai de traitement: c'est ce traitement différencié qui provoque l'illusion du flash retardé.
Les chercheurs montrent que cette hypothèse permet également d'expliquer les cas où cette illusion ne fonctionne pas: par exemple si le flash a lieu à la fin de la trajectoire ou si la cible rebrousse chemin de façon imprévue. Dans ce travail, l'innovation majeure consiste à utiliser la précision de l'information dans la dynamique du modèle. Ainsi, la position corrigée de la cible en mouvement est calculée en combinant le flux sensoriel avec la représentation interne de la trajectoire, toutes deux existant sous la forme de distributions de probabilités. Manipuler la trajectoire revient à changer la précision, et donc le poids relatif de ces deux informations lorsqu'elles sont combinées de façon optimale afin de connaître où se trouve un objet au temps présent. Les chercheurs proposent d'appeler parodiction (du grec ancien paros, le présent) cette nouvelle théorie qui joint inférence Bayesienne et prise en compte des délais neuronaux.
Malgré la simplicité de cette solution, la parodiction comporte des éléments qui peuvent sembler contre-intuitifs. En effet, dans ce modèle, le monde physique environnant est considéré comme "caché", c'est-à-dire qu'il ne peut être deviné que par nos sensations et notre expérience. Le rôle de la perception visuelle est alors de délivrer à notre système nerveux central l'information la plus probable malgré les différentes sources de bruit, d'ambiguïté et de délais temporels.
Selon les auteurs de cette publication, le traitement visuel consisterait en une "simulation" du monde visuel projeté au temps présent, et ceci avant même que l'information visuelle ne puisse effectivement venir moduler cette simulation, la confirmant ou l'infirmant. Cette hypothèse qui semble relever de la "science-fiction" est actuellement testée avec des modèles de réseaux neuronaux hiérarchiques plus détaillés et biologiquement plausibles qui devraient permettre de comprendre encore mieux les mystères sous-jacents à notre perception. Les illusions visuelles n'ont vraiment pas fini de nous étonner !
(Figure: Dans l'illusion visuelle du flash retardé, un point en mouvement (le point rouge, en haut) est perçu en avant par rapport à un point flashé (en vert en bas), même si ils sont alignés verticalement à l'instant du flash. Depuis la découverte de cette illusion, les débats ne sont pas clos quant à l'origine du traitement différencié des deux points. Dans cette étude, il est proposé que ce décalage de position soit dû à un mécanisme prédictif dont le but est normalement de compenser les délais de traitement de l'information visuelle. En utilisant l'information sur le mouvement du point, du début de la trajectoire jusqu'au moment du flash, la position du point est donc "anticipée" pour correspondre au plus près à la position réelle au temps présent.)

Auteur: Internet

Info: PLOS Computational Biology review, 26 janvier 2017

[ vision ]

 

Commentaires: 0