Citation
Catégorie
Tag – étiquette
Auteur
Info
Rechercher par n'importe quelle lettre



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits... Recherche mots ou phrases tous azimuts... Outil de précision sémantique et de réflexion communautaire... Voir aussi la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats ... Lire la suite >>
Résultat(s): 5397
Temps de recherche: 0.0387s

réflexion inspirée

En 1956, Edsger Dijkstra, âgé de 26 ans, inventa un algorithme classique pour la détermination des itinéraires*, alors qu'il se trouvait avec sa fiancée dans un café d'Amsterdam. Tout se passa dans sa tête : " Sans crayon ni papier, on est presque obligé d'éviter toutes les complexités évitables ", a-t-il déclaré ensuite.

" Des informaticiens déterminent la meilleure façon pour se déplacer dans un réseau graphique"

Introduction : L’héritage d’un algorithme légendaire

Conçu en 1956 par le mathématicien néerlandais Edsger Dijkstra pour résoudre le problème des plus courts chemins, ce mécanisme a traversé les décennies sans perdre de sa pertinence. Sa simplicité élégante en fait un outil essentiel pour des applications allant des systèmes de navigation aux réseaux neuronaux artificiels. Pourtant, une question persistait : cet algorithme pouvait-il atteindre une forme de perfection mathématique, adaptée à toute configuration de graphe imaginable ?

Chapitre 1 : La genèse d’une intuition révolutionnaire

L’anecdote fondatrice rappelle que Dijkstra imagina son algorithme en quelques minutes, assis à une terrasse d’Amsterdam. Son idée repose sur une abstraction géniale : modéliser un réseau (routes, circuits, etc.) comme un graphe composé de sommets (points) et d’arêtes (liens) associées à des poids (coûts). L’algorithme explore progressivement ces connexions, priorisant les chemins les moins coûteux à partir d’une source unique.

Cependant, son efficacité dépend d’une structure critique : le tas (heap), qui gère les nœuds à explorer. Si le tas original utilisait une file de priorité basique, des améliorations successives – comme le tas de Fibonacci (1984) – ont permis de réduire sa complexité temporelle de O(m + n log n) (où m est le nombre d’arêtes et n le nombre de sommets). Ces avancées semblaient avoir atteint un plafond théorique… jusqu’à cette récente percée.

Chapitre 2 : L’énigme de l’optimalité universelle

Traditionnellement, les informaticiens évaluent les algorithmes via l’analyse du pire cas – une approche qui garantit des performances minimales dans les scénarios les plus défavorables. Mais cette méthode néglige souvent les spécificités des graphes réels, où certaines structures (comme les réseaux hiérarchiques ou aléatoires) peuvent offrir des opportunités d’optimisation.

En 2021, une équipe menée par Bernhard Haeupler montra qu’une optimalité universelle était possible pour certains problèmes de graphes, comme la connexité. Inspirés par ces travaux, Václav Rozhoň (Institut Max Planck) et ses collègues se demandèrent : " Et si l’algorithme de Dijkstra pouvait, lui aussi, devenir universellement optimal ? "

Chapitre 3 : La réinvention du cœur algorithmique

La clé résidait dans la structure de données sous-jacente. Les chercheurs réalisèrent que le tas – souvent considéré comme un détail d’implémentation – détenait le potentiel pour une transformation radicale. En collaboration avec Robert Tarjan (lauréat du prix Turing et co-créateur du tas de Fibonacci), ils conçurent un nouveau type de tas combinant simplicité et adaptabilité.

Ce tas " universel " s’ajuste dynamiquement aux propriétés du graphe traité, évitant les surcoûts inutiles qu’imposent les structures rigides. Par exemple, face à un graphe arborescent, il adopte une logique de parcours en profondeur, tandis que pour un réseau dense, il privilégie des comparaisons plus agressives. Cette flexibilité permit de prouver mathématiquement que l’algorithme modifié surpasse ou égalise toute alternative, quel que soit le graphe.

Chapitre 4 : Implications théoriques et limites pratiques

Si cette version optimisée ne remplacera pas immédiatement les algorithmes des GPS (où des heuristiques comme A* restent plus efficaces), elle ouvre trois perspectives majeures :

1 - Une nouvelle philosophie de conception : L’optimalité universelle pourrait s’étendre à d’autres problèmes, comme les flux réseaux ou les algorithmes de clustering.

2 - Un pont entre théorie et pratique : Elle valide l’idée que des algorithmes classiques, bien compris, recèlent encore des secrets lorsqu’on les examine sous l’angle de structures de données innovantes.

3 - Une remise en question pédagogique : Les manuels devront peut-être réévaluer comment ils présentent l’algorithme de Dijkstra, en intégrant cette dimension " universelle ".

Chapitre 5 : Une odyssée collaborative

L’article souligne l’importance des échanges intergénérationnels dans cette découverte. Robert Tarjan, figure historique, a apporté son expertise des années 1980, tandis que Rozhoň a injecté des techniques modernes d’analyse fine des graphes. Leur collaboration illustre comment la science progresse par la synthèse d’idées anciennes et nouvelles.

Épilogue : Vers une théorie unifiée des algorithmes ?

Cette avancée n’est pas qu’un aboutissement : c’est un appel à explorer l’optimalité universelle dans d’autres domaines. Comme le résume Haeupler, " Nous commençons à peine à comprendre comment les algorithmes peuvent s’adapter intrinsèquement aux données qu’ils traitent. "

En réconciliant élégance mathématique et puissance computationnelle, cette découverte rappelle que les plus grandes révolutions naissent parfois… d’une simple promenade intellectuelle dans un café amsterdamois-


Auteur: Internet

Info: https://www.quantamagazine.org/computer-scientists-establish-the-best-way-to-traverse-a-graph-20241025/, Ben Brubaker, Octobre 25, 2024. Mis en forme et réarrangé par perplexity et Mg. *méthode de calcul du chemin le plus court entre un nœud source et tous les autres nœuds d'un réseau.

[ raccourci ] [ homme-machine ]

 

Commentaires: 0

Ajouté à la BD par miguel

post-cybernétique

L’informatique quantique prête à transformer l’humanité : nous sommes à quelques pas de son moment " Spoutnik " !

L'un des principaux freins au développement de l'informatique quantique réside dans la complexité à réduire les erreurs induites. Pour soutenir cette technologie prometteuse, la société Riverlane produit des microprocesseurs qui rendent ses résultats plus fiables. D'énormes investissements dans ce domaine et les progrès réalisés montrent que l'informatique quantique pourrait bientôt atteindre un stade où elle pourra révolutionner de nombreux secteurs.

Du développement de nouveaux médicaments à la lutte contre le réchauffement climatique, l'informatique quantique attise des espoirs de progrès majeurs. Dans une rue commerçante de Cambridge, la course vers cette révolution technologique annoncée bat son plein.

Pour Steve Brierley, fondateur de la société Riverlane, basée dans la célèbre ville universitaire du centre de l'Angleterre, la technologie connaîtra dans les années qui viennent son moment " Spoutnik ", du nom du satellite soviétique dont le lancement en 1957 avait constitué une étape majeure de la conquête spatiale. " L'informatique quantique ne constituera pas seulement une légère amélioration par rapport aux précédents ordinateurs, ce sera un énorme pas en avant ", assure-t-il à l'AFP.

La complexité de la correction des erreurs quantiques

Son entreprise produit le premier microprocesseur dédié à cette technologie aux puissances de calcul gigantesques, qui détecte et corrige les erreurs freinant actuellement son développement. Fabriquer des appareils " à la hauteur des promesses incroyables de cette technologie nécessite un changement massif d'échelle et de fiabilité, ce qui nécessite des systèmes fiables de correction des erreurs ", explique John Martinis, ancien responsable du développement de cette technologie au sein du laboratoire Google Quantum AI.

Signe de l'intérêt pour les activités de Riverlane, et en général pour cette technologie comparée à l'intelligence artificielle (IA) pour ses bouleversements potentiels, la société a annoncé mardi 6 août avoir levé 75 millions de dollars (près de 69 millions d'euros) auprès d'investisseurs.

D'ici deux à trois ans, nous pourrons atteindre des systèmes capables de supporter un million d'opérations sans erreurs ", contre un millier seulement actuellement, avance Earl Campbell, vice-président de Riverlane. Ce seuil, précise-t-il, est considéré comme crucial pour rendre les ordinateurs quantiques plus performants que leurs équivalents actuels.

Avec ses capacités de stimulation des interactions entre particules, atomes et molécules, la technologie est considérée comme susceptible de permettre le développement de médicaments révolutionnaires ou d'améliorer radicalement la production d'engrais, une industrie très émettrice de CO2. Elle pourrait ouvrir la voie à des batteries bien plus efficaces, au rôle clé dans la lutte contre le réchauffement climatique.

L'infinité d'états des qubits

La quantité d'informations que les ordinateurs quantiques peuvent exploiter augmente de manière exponentielle avec leur taille, contrairement aux appareils actuels. L'informatique classique repose en effet sur des données stockées sous la forme de bits, qui n'ont que deux états possibles (0 ou 1). Les ordinateurs quantiques, eux, utilisent des " qubits ", briques de base qui ont une infinité d'états possibles pouvant se superposer et s'enchevêtrer.

Mais ce fonctionnement qui utilise les extraordinaires propriétés de la matière à l'échelon atomique ou sub-atomique a un désavantage : leur comportement étrange rend nécessaire l'utilisation d'algorithmes complexes pour les traiter. Les qubits sont aussi très sensibles aux erreurs dues au bruit et résoudre ce problème sera " crucial ", souligne Steve Brierley, entouré d'oscilloscopes et circuits intégrés dans le laboratoire de son entreprise.

Les géants de l'informatique comme Google, IBM et Microsoft investissent des sommes énormes pour cette technologie et en particulier pour tenter de réduire les erreurs induites, soit en protégeant les appareils ou en utilisant des algorithmes pour détecter et corriger ces erreurs.

Tirer les leçons de l'IA

Vu cette complexité, l'intérêt de la technologie s'exprime surtout avec des ordinateurs de grande taille. Quand on augmente leur échelle, les possibilités offertes augmentent plus vite que les défauts à régler. Autrement dit, ces engins fonctionnent mieux pour des tâches complexes.

On ne se servira certainement pas des ordinateurs quantiques pour envoyer des courriels ", sourit Steve Brierley. En revanche, " on pourra résoudre des problèmes qui seraient autrement insolubles ", ajoute-t-il. L'entrepreneur juge " très enthousiasmants " les résultats obtenus. " Le défi maintenant est de pouvoir passer à plus grande échelle ".

Les progrès actuels, en plus du potentiel d'une technologie susceptible de surmonter tous les systèmes de cryptage existants et créer de nouveaux matériaux, attirent déjà l'attention des régulateurs. Steve Brierley juge " très important de tirer les leçons de l'IA pour ne pas se retrouver surpris par cette technologie et réfléchir très tôt à ses implications ".

Je pense que l'informatique quantique finira par être régulée, car c'est une technologie très importante, relève-t-il. Et je pense qu'il s'agit d'une technologie pour laquelle aucun gouvernement ne veut passer en second ".

Auteur: Internet

Info: futura-sciences.com, 18 août 2024

[ anticipation ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

corps-esprit

L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI)

Un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei

L'intelligence artificielle a fait des progrès considérables depuis la publication du ChatGPT d'OpenAI. Toutefois, pour que l'intelligence artificielle passe à l'étape suivante, celle de l'intelligence artificielle générale (AGI), les chercheurs d'Huawei estiment qu'elle aura besoin d'un corps. Les chercheurs, qui font partie du laboratoire Noah's Ark d'Huawei basé à Paris, ont publié un rapport préliminaire sur la question. Dans ce rapport, les chercheurs d'Huawei parlent d'"intelligence artificielle incarnée", ou E-AI en abrégé. Selon l'équipe, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction.

L'intelligence artificielle générale, ou AGI, est considérée comme l'objectif final de la recherche sur l'IA. Il s'agit d'une IA capable de penser au même niveau que les humains et de s'attaquer à pratiquement n'importe quelle tâche. Cependant, il n'existe pas de définition concrète de l'AGI. Bien que l'IA se soit considérablement développée à ce jour, elle est encore loin d'atteindre l'AGI. C'est pourquoi les chercheurs d'Huawei proposent l'IA incarnée comme solution.

"On croit généralement que le simple fait d'augmenter la taille de ces modèles, en termes de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue", écrivent les chercheurs. "Nous proposons que la véritable compréhension, non seulement la vérité propositionnelle mais aussi la valeur des propositions qui nous guident dans nos actions, ne soit possible que par l'intermédiaire d'agents E-AI qui vivent dans le monde et l'apprennent en interagissant avec lui."

Le cadre d'incarnation des chercheurs semble être un plan pour un avenir lointain. La technologie n'existe pas vraiment aujourd'hui pour réaliser quelque chose comme l'IA incarnée. Tout d'abord, les grands modèles de langage (LLM) qui alimentent les chatbots d'IA sont massifs. Ils ne sont pas stockés localement, ce qui constituerait un défi pour l'IA incarnée. Les chercheurs eux-mêmes soulignent qu'il s'agit là d'un obstacle à surmonter.

Voici un extrait de l'étude :

Nous proposons l'IA incarnée (E-AI) comme la prochaine étape fondamentale dans la poursuite de l'intelligence générale artificielle (AGI), en la juxtaposant aux progrès actuels de l'IA, en particulier les grands modèles de langage (LLM). Nous parcourons l'évolution du concept d'incarnation dans divers domaines (philosophie, psychologie, neurosciences et robotique) pour souligner comment l'E-AI se distingue du paradigme classique de l'apprentissage statique. En élargissant la portée de l'E-AI, nous introduisons un cadre théorique basé sur les architectures cognitives, mettant l'accent sur la perception, l'action, la mémoire et l'apprentissage en tant que composantes essentielles d'un agent incarné.

Ce cadre est aligné sur le principe d'inférence active de Friston, offrant ainsi une approche globale du développement de l'E-AI. Malgré les progrès réalisés dans le domaine de l'IA, des défis importants persistent, tels que la formulation d'une nouvelle théorie d'apprentissage de l'IA et l'innovation d'un matériel avancé. Notre discussion établit une ligne directrice fondamentale pour la recherche future en matière d'IA électronique. En soulignant l'importance de créer des agents d'IA électronique capables de communiquer, de collaborer et de coexister avec des humains et d'autres entités intelligentes dans des environnements réels, nous visons à orienter la communauté de l'IA vers la résolution des défis à multiples facettes et à saisir les opportunités qui s'offrent à nous dans la quête de l'AGI.

Conclusion

Dans cet article, nous avons articulé le rôle critique que joue l'IA incarnée sur la voie de la réalisation de l'AGI, en la distinguant des méthodologies d'IA dominantes, notamment les LLM. En intégrant des idées provenant d'un large éventail de domaines de recherche, nous avons souligné comment le développement de l'E-AI bénéficient des connaissances existantes, alors que les LLM améliorent le potentiel d'interactions intuitives entre les humains et les entités d'IA émergentes.

Nous avons présenté un cadre théorique complet pour le développement de l'IA électronique, fondé sur les principes des sciences cognitives, mettant en évidence la perception, l'action, la mémoire et l'apprentissage, situant l'IA électronique dans le contexte du cadre d'inférence active de Friston, offrant ainsi une toile de fond théorique très large pour notre discussion. Malgré ces perspectives, le chemin à parcourir est semé d'embûches, notamment la formulation d'une nouvelle théorie de l'apprentissage adaptée à l'IA et la création de solutions matérielles sophistiquées. Ce document vise à servir de feuille de route pour les recherches en cours et à venir sur l'IA électronique, en proposant des orientations qui pourraient conduire à des avancées significatives. 

Auteur: Internet

Info: https://intelligence-artificielle.developpez.com/ - Jade Emy, 14 février 2024

[ expérience incompressible ] [ intelligence externe  ] [ intégration holistique ] [ homme-machine ] [ carbone vs silicium ] [ entendement synthétique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

médecine

Alzheimer : le rôle essentiel du sommeil profond, d’après les chercheurs

Une nouvelle étude dévoile comment le sommeil profond pourrait protéger notre mémoire malgré les signes précurseurs d'Alzheimer. Des chercheurs ont observé que les personnes bénéficiant d'un sommeil de qualité préservaient mieux leurs capacités cognitives, même en présence de protéines amyloïdes. Cette découverte ouvre des perspectives encourageantes pour lutter contre cette maladie neurodégénérative qui affecte des millions de personnes dans le monde.

- Le sommeil profond comme rempart contre le déclin cognitif

- Mécanismes d'action du sommeil sur la santé cérébrale

- Optimiser son sommeil naturellement

- Vers une approche préventive de la démence

La maladie d'Alzheimer reste l'une des formes de démence les plus répandues et dévastatrices. Pourtant, des recherches récentes suggèrent qu'un élément simple mais crucial de notre quotidien pourrait jouer un rôle déterminant dans la prévention de ses symptômes : le sommeil profond. Une équipe de scientifiques américains a mis en lumière comment cette phase spécifique du sommeil pourrait constituer un véritable bouclier contre le déclin cognitif associé à Alzheimer, même lorsque les changements cérébraux caractéristiques de la maladie sont déjà présents.

Une étude conjointe menée par des chercheurs des universités de Californie (Berkeley), Stanford et UC Irvine a examiné 62 adultes âgés en bonne santé cognitive. Ces scientifiques ont fait une découverte majeure : les participants présentant des marqueurs cérébraux d'Alzheimer, mais bénéficiant d'un sommeil profond de qualité, obtenaient de meilleurs résultats aux tests de mémoire.

Le neuroscientifique Matthew Walker de l'Université de Californie à Berkeley illustre parfaitement cette relation : " Considérez le sommeil profond comme un gilet de sauvetage qui maintient la mémoire à flot, l'empêchant d'être entraînée vers le fond par le poids des pathologies liées à Alzheimer ". Cette métaphore puissante souligne l'effet protecteur du sommeil profond contre les symptômes cognitifs malgré la présence de changements cérébraux.

Ce qui rend cette découverte particulièrement encourageante, c'est que contrairement à d'autres facteurs de risque d'Alzheimer, le sommeil est un élément sur lequel nous pouvons agir concrètement. Les chercheurs précisent que cet effet protecteur est spécifique au sommeil profond, également appelé sommeil à ondes lentes non-REM, et non aux autres phases du sommeil.

Mécanismes d'action du sommeil sur la santé cérébrale

L'accumulation de protéines bêta-amyloïdes dans le cerveau constitue l'un des marqueurs caractéristiques de la maladie d'Alzheimer. Ces protéines peuvent commencer à s'agglomérer des décennies avant l'apparition des premiers symptômes. Des recherches antérieures avaient déjà établi un lien entre sommeil perturbé et niveaux élevés de ces protéines.

Le sommeil profond semble offrir au cerveau une opportunité cruciale d'éliminer les déchets métaboliques accumulés pendant la journée, dont ces protéines potentiellement nocives. Ce processus de " nettoyage cérébral " pourrait expliquer pourquoi un sommeil de qualité protège contre le déclin cognitif, même lorsque les marqueurs biologiques d'Alzheimer sont présents.

Zsófia Zavecz, neuroscientifique à UC Berkeley et auteure principale de l'étude, affirme : " La présence de pathologies cérébrales ne condamne pas automatiquement à des symptômes cognitifs ou des problèmes de mémoire ". Publiés dans la revue BMC Medicine, les travaux suggèrent que certains facteurs liés au mode de vie, en particulier le sommeil profond, peuvent atténuer l'impact de ces changements biologiques.

Optimiser son sommeil naturellement

À la différence des somnifères qui induisent souvent un sommeil superficiel et s'accompagnent d'effets secondaires, la recherche souligne l'importance d'améliorer naturellement la qualité du sommeil. Pour favoriser un sommeil profond réparateur, les experts recommandent plusieurs pratiques simples :

- Éviter la caféine en fin de journée.

- Pratiquer une activité physique régulière.

- Limiter l'exposition aux écrans avant le coucher.

- Prendre une douche chaude avant de se mettre au lit.

Ces habitudes saines peuvent contribuer significativement à augmenter la durée et la qualité du sommeil profond, renforçant ainsi la résistance cognitive face aux changements cérébraux liés à Alzheimer.

Vers une approche préventive de la démence

Cette étude s'inscrit dans un corpus grandissant de recherches suggérant que le sommeil représente un facteur de risque modifiable dans le développement de la maladie d'Alzheimer. Bien que l'échantillon soit relativement restreint, ces résultats ouvrent des perspectives prometteuses pour des interventions préventives simples et accessibles.

Les chercheurs soulignent par contre la nécessité d'études longitudinales sur de plus longues périodes pour confirmer si l'amélioration du sommeil profond peut effectivement préserver les fonctions cognitives sur la durée, malgré l'augmentation des niveaux de protéines bêta-amyloïdes.

La qualité du sommeil pourrait ainsi devenir un élément central des stratégies de prévention contre la démence, aux côtés d'autres facteurs protecteurs comme l'éducation, l'activité physique et les connexions sociales. Un simple changement dans nos habitudes nocturnes pourrait contribuer à protéger notre cerveau contre l'une des maladies les plus redoutées du vieillissement.



Auteur: Internet

Info: https://www.futura-sciences.com/, 30 mars 2025

[ dormir ] [ thérapie ]

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde

Les scientifiques découvrent de nouvelles formes de vie à l’intérieur du corps humain

Des chercheurs ont découvert des structures microscopiques inédites, baptisées " obélisques ", qui remettent en question les bases de la biologie moderne. Ces entités, présentes dans le microbiote humain, intriguent par leur forme et leur origine inconnues, et pourraient révéler de nouvelles interactions fondamentales entre les microbes et leur environnement hôte. Cette découverte ouvre une porte vers des catégories de vie encore non explorées, bouleversant notre compréhension des mécanismes évolutifs.

Une découverte scientifique majeure pourrait changer notre compréhension des micro-organismes peuplant le corps humain. Des chercheurs ont identifié des entités microscopiques inédites, baptisées " obélisques ", présentes dans des bactéries associées au microbiote humain. Ces structures d’ARN circulaire remettent en question les frontières actuelles des formes de vie connues.

Une découverte inattendue au cœur des bactéries humaines

Les obélisques ont été découverts par une équipe dirigée par Andrew Fire, prix Nobel de médecine, en collaboration avec des experts en biologie cellulaire et moléculaire. L’étude, publiée sur la plateforme scientifique bioRxiv, repose sur une analyse approfondie de gigantesques bases de données génétiques. Ces bibliothèques contiennent des informations issues de microbes associés à divers environnements, y compris le corps humain.

Ces entités microscopiques, bien que comparables à des viroïdes (des agents pathogènes végétaux constitués uniquement d’ARN), présentent des caractéristiques uniques. Contrairement aux virus, les obélisques ne possèdent pas d’enveloppe protéique. Leur ARN forme de petites boucles compactes, et leur taille est si réduite qu’ils avaient échappé à toute détection jusqu’ici.

Mark Peifer, biologiste cellulaire à l’université de Caroline du Nord, décrit ces structures comme " totalement inattendues " et souligne l’importance de cette découverte pour la microbiologie moderne.

Une présence omniprésente dans le microbiote humain

L’analyse des données a révélé la présence d’obélisques dans plusieurs parties du corps humain, notamment dans les bactéries de la bouche et de l’intestin. Ces découvertes suggèrent que ces entités ne sont ni rares ni isolées. Au contraire, elles semblent avoir une distribution large et une diversité remarquable, avec des milliers de variantes identifiées.

Chaque région du corps humain abriterait des types spécifiques d’obélisques, en interaction étroite avec les bactéries qui composent le microbiote. Selon Simon Roux, biologiste computationnel au Lawrence Berkeley National Laboratory, cette découverte pourrait indiquer une relation complexe et encore méconnue entre ces entités d’ARN et notre écosystème interne.

Des implications sanitaires encore floues

Pour le moment, les scientifiques ignorent si les obélisques ont des conséquences sur la santé humaine. Leur mode d’action, leur rôle potentiel dans les interactions bactériennes ou leur influence sur l’organisme hôte restent incertains. Matthew Sullivan, biologiste intégratif à l’université d’État de l’Ohio, affirme que leur simple découverte ouvre un champ d’études inédit, qui nécessitera des années de recherche.

Une hypothèse avancée est que ces structures pourraient moduler le comportement bactérien, influençant indirectement des aspects de la biologie humaine. Si tel est le cas, les obélisques pourraient jouer un rôle dans des processus encore inconnus, voire contribuer à des pathologies.

Une redéfinition des catégories de la vie

Les obélisques posent des questions fondamentales sur les classifications actuelles des formes de vie. Ni bactéries, ni virus, ni viroïdes, ils ne correspondent à aucune définition existante. Cette découverte pourrait signaler l’existence de nouvelles classes d’agents biologiques, élargissant les limites de notre compréhension de l’évolution.

Historiquement, les scientifiques se sont interrogés sur l’origine des virus et sur l’apparition des formes d’ARN simples ou complexes dans l’évolution biologique. Les obélisques pourraient fournir des indices sur les mécanismes évolutifs ayant conduit à l’émergence de formes de vie primitives.

Les perspectives pour la recherche

L’identification des obélisques n’est qu’un début. Grâce aux avancées en bioinformatique et en analyse génétique, les chercheurs espèrent mieux comprendre ces structures et leur rôle dans le microbiote. Cette quête pourrait révéler d’autres entités similaires et élargir notre vision de l’univers microscopique.

Simon Roux résume cette effervescence scientifique : " Nous sommes à un moment où la technologie nous permet de regarder plus profondément que jamais. Chaque nouvelle découverte nous rappelle à quel point notre connaissance est encore limitée. "

Alors que des études sont en cours pour mieux cerner ces structures, leur impact potentiel sur la biologie humaine pourrait redéfinir des pans entiers de la microbiologie et de la médecine.

La découverte des obélisques est un rappel puissant que le corps humain, loin d’être entièrement cartographié, recèle encore des mystères. Ces entités pourraient révéler des aspects inconnus de l’interaction entre microbes et humains, avec des répercussions profondes sur notre compréhension de la vie.



 

Auteur: Internet

Info: https://armees.com/, Jean-Marc, 18 décembre 2024

[ biologie-évolution ]

 

Commentaires: 0

Ajouté à la BD par miguel

infra-monde

Des physiciens mesurent pour la première fois la géométrie quantique des électrons

Les électrons occupent une place centrale dans notre compréhension de l’univers ainsi qu’au sein des technologies modernes. Pourtant, leur comportement et leurs propriétés à l’échelle quantique restent en grande partie mystérieux. Récemment, une équipe de chercheurs du Massachusetts Institute of Technology (MIT) a réalisé une avancée majeure en mesurant pour la première fois la géométrie quantique des électrons dans un matériau solide. Mais de quoi parle-t-on précisément ? Et quelles sont les implications d’une telle percée ?

Le monde étrange des électrons

Dans l’univers quantique, les électrons ne se comportent pas comme des objets que nous connaissons dans notre vie quotidienne, mais peuvent être vus à la fois comme des particules et des ondes. Cette double nature est décrite par un outil mathématique appelé la fonction d’onde qui nous donne des informations sur l’électron : sa position, sa vitesse, et même sa forme.

Cela étant dit, imaginez maintenant une surface lisse et régulière, comme une balle de tennis : c’est une bonne image pour illustrer une forme simple d’électron. Maintenant, visualisez un ruban de Möbius, cette forme fascinante explorée par l’artiste MC Escher où le ruban semble se tordre sur lui-même de manière infinie, un peu comme un chemin qui ne revient jamais au point de départ. Cette dernière image représente les formes plus complexes que peuvent prendre certains électrons dans des matériaux spéciaux appelés matériaux quantiques.

Cependant, jusqu’à récemment, les scientifiques ne pouvaient pas mesurer directement cette géométrie quantique des électrons. Ils pouvaient seulement théoriser sur sa nature. Or, cette géométrie joue un rôle clé dans des propriétés essentielles, comme la conductivité ou le magnétisme, qui rendent certains matériaux particulièrement intéressants pour des applications de pointe.

Une quête scientifique de longue haleine

La difficulté à mesurer la géométrie quantique vient de plusieurs facteurs. Les outils traditionnels de la physique des matériaux, comme la spectroscopie ou la diffraction, permettent d’étudier l’énergie et la vitesse des électrons, mais pas leur forme dans l’espace. En outre, les matériaux étudiés, souvent des cristaux complexes, ont une structure qui complique encore davantage l’observation directe de leurs propriétés quantiques.

Malgré ces défis, l’intérêt pour la géométrie quantique n’a cessé de croître. Avec l’essor de l’informatique quantique et des dispositifs électroniques avancés, comprendre ces propriétés devient crucial. Mesurer la forme des électrons est comme découvrir une nouvelle dimension de leur comportement. Cela pourrait révolutionner la manière dont nous concevons et utilisons les matériaux dans des technologies futures.

Une méthode innovante pour une découverte majeure

Pour relever ce défi, l’équipe du MIT a utilisé une technique appelée spectroscopie de photoémission à résolution angulaire, ou ARPES. En termes simples, cette méthode consiste à bombarder un matériau avec de la lumière pour en faire sortir des électrons, puis à analyser la manière dont ils réagissent. Cela donne des informations précises sur leur énergie et leur mouvement.

Cependant, pour mesurer la géométrie quantique, il a fallu adapter la technique ARPES. Les chercheurs ont travaillé sur un matériau appelé métal kagome qui est connu pour ses propriétés quantiques exotiques. Ce matériau tire son nom de sa structure cristalline en forme de réseau de triangles semblable à un motif traditionnel japonais. Grâce à des modifications spécifiques de l’ARPES, les chercheurs ont pu non seulement observer la trajectoire des électrons, mais aussi leur forme ondulatoire unique.

Cette avancée n’aurait pas été possible sans une collaboration étroite entre théoriciens et expérimentateurs. Riccardo Comin, physicien au MIT, a même dû mener lui-même certaines expériences en Italie pendant la pandémie en raison des restrictions de déplacement de son équipe. Cette anecdote illustre à quel point la science repose parfois sur des efforts individuels dans des circonstances exceptionnelles.(Photo dessin : schéma de la configuration CD-ARPES à spin résolu.)

Les implications et applications

Cette découverte dépasse le simple cadre académique, car comprendre la géométrie des électrons ouvre des perspectives prometteuses dans plusieurs domaines technologiques. Par exemple, dans l’informatique quantique, une meilleure connaissance de la géométrie quantique pourrait permettre de concevoir des qubits plus stables et efficaces, un élément clé pour le développement de processeurs quantiques. Dans l’électronique avancée, cela pourrait conduire à des matériaux plus performants capables de transporter de l’électricité sans perte ou de fonctionner comme des capteurs ultra-sensibles.

En outre, cette méthode de mesure peut être appliquée à une grande variété de matériaux quantiques, pas seulement au métal kagome. Cela signifie que les chercheurs disposent désormais d’un outil puissant pour explorer un large éventail de matériaux aux propriétés encore inconnues. Ces travaux pourraient transformer notre manière d’aborder la conception de nouveaux dispositifs.



 

Auteur: Internet

Info: https://sciencepost.fr/,  Brice Louvet, 26 décembre 2024

[ subatomique ] [ modélisation ] [ ordre sous-jacent ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

biogénétique

Une partie de l' " ADN indésirable " sert un objectif 

Si on étire tout l’ADN d’une seule cellule humaine, il mesurerait plus de 5 mètres de long. Mais seul un fragment de cet ADN produit des protéines, la machinerie biologique nécessaire à la vie. En 2003, le Human Genome Project a montré que seulement 1 à 2 % de notre ADN – environ 4 cm sur ces 5 mètres – code des gènes pour les protéines. Les séquences non codantes qui constituent les 98 % restants sont souvent appelées " ADN indésirable (junk dna) ", un terme inventé en 1972 par le généticien Susumu Ohno, qui a suggéré que, tout comme les archives fossiles regorgent d'espèces disparues, nos génomes sont remplis d'espèces disparues. gènes éteints ou mal copiés endommagés par des mutations.

Mais même si 98 % du génome est non codant, il ne s’agit pas précisément d’un poids mort. En 2012, un consortium de centaines de scientifiques a rapporté dans l'Encyclopédie des éléments de l'ADN qu'au moins 80 % du génome est " actif " au sens où une partie de l'ADN est traduite en ARN*, même si cet ARN est pas ensuite traduit en protéines. Il existe peu de preuves que la plupart de cet ARN provenant de gènes brisés ait un effet.

Cependant, certaines séquences non codantes, qui représentent environ 8 à 15 % de notre ADN, ne sont pas du tout indésirables. Elles remplissent des fonctions importantes, en régulant les gènes actifs des cellules et la quantité de protéines qu’ils produisent. Les chercheurs découvrent encore de nouvelles façons dont l'ADN non codant fait cela, mais il est clair que la biologie humaine est massivement influencée par les régions non codantes, qui ne codent pas directement pour les protéines mais façonnent quand même leur production. Les mutations dans ces régions, par exemple, ont été associées à des maladies ou à des troubles aussi variés que l'autisme, les tremblements et le dysfonctionnement hépatique.

De plus, en comparant les génomes humains à ceux des chimpanzés et d’autres animaux, les scientifiques ont appris que les régions non codantes peuvent jouer un rôle important dans ce qui nous rend uniques : il est possible que la régulation des gènes par l’ADN non codant différencie plus les espèces que les gènes et les protéines elles-mêmes.

Les chercheurs découvrent également que de nouvelles mutations peuvent parfois conférer de nouvelles capacités à des séquences non codantes, ce qui en fait une sorte de ressource pour une évolution future. En conséquence, ce qui mérite l’étiquette " ADN indésirable " reste à discuter. Les scientifiques ont clairement commencé à nettoyer ce tiroir à déchets depuis 1972 – mais ce qui reste dedans est encore à débattre.

Quoi de neuf et remarquable

Les scientifiques ont travaillé pour comprendre un type d’ADN non codant appelé " transposons** " ou " gènes sauteurs ". Ces bribes peuvent parcourir le génome, créant des copies d’elle-mêmes, qui sont parfois insérées dans des séquences d’ADN. Les transposons se révèlent de plus en plus essentiels au réglage de l'expression des gènes ou à la détermination des gènes codants activés pour être transcrits en protéines. C'est en partie pour cette raison qu'ils s'avèrent importants pour le développement et la survie d'un organisme . Lorsque les chercheurs ont conçu des souris dépourvues de transposons, la moitié des petits des animaux sont morts avant la naissance. Les transposons ont laissé des traces sur l'évolution de la vie. Quanta a rapporté qu'ils peuvent passer d'une espèce à l'autre - comme du hareng à l'éperlan et des serpents aux grenouilles - offrant parfois même certains avantages, comme protéger les poissons du gel dans les eaux glacées.

Les généticiens étudient également les " courts tandem  répétés ", dans lesquels une séquence d’ADN longue d’une à six paires de bases seulement est fortement répétée, parfois des dizaines de fois de suite. Les scientifiques soupçonnaient qu'elles aidaient à réguler les gènes, car ces séquences, qui représentent environ 5 % du génome humain, ont été associées à des maladies telles que la maladie de Huntington et le cancer. Dans une étude couverte par Quanta en février, les chercheurs ont découvert une manière possible par laquelle de courtes répétitions en tandem pourraient réguler les gènes : en aidant à réunir des facteurs de transcription, qui aident ensuite à activer la machinerie de production de protéines.

Ensuite, il y a les " pseudogènes*** ", restes de gènes fonctionnels qui ont été dupliqués puis dégradés par des mutations ultérieures. Cependant, comme Quanta l’a rapporté en 2021, les scientifiques ont découvert que parfois les pseudogènes ne demeurent pas pseudo ou indésirables ; au lieu de cela, ils développent de nouvelles fonctions et deviennent des régulateurs génétiques – régulant même parfois le gène même à partir duquel ils ont été copiés.

Auteur: Internet

Info: Yasemin Sapakoglu. *Aussi sur base 4, l'ARN ou acide nucléique, sert d'intermédiaire dans la circulation de l'information génétique de l'ADN aux protéines. **les transposons sont à la fois régulés par l'épigénétique, mais peuvent aussi induire des changements épigénétiques héritables, faisant le lien entre génome et épigénome dans l'évolution, 333vestiges moléculaires de gènes ancestraux devenus non fonctionnels, mais qui semblent parfois avoir acquis des rôles régulateurs inattendus au cours de l'évolution

[ stratégies géniques ] [ codifications du vivant ] [ mémoire diachronique active ] [ encodages chronologiques ]

 

Commentaires: 0

Ajouté à la BD par miguel

nord-sud

La direction de l'institution américaine Carnegie Mellon University s'est distanciée des tweets offensants d'Uju Anya, professeur au département de langues modernes de l'école, qui décrivent feu la reine Elizabeth II comme une "femme misérable" et une "colonisatrice génocidaire".

Parmi l'afflux des inquiétudes concernant l'état de santé de la reine malade tôt jeudi – quelques heures avant l'annonce officielle de sa mort – Mme Anya, dans un fil de tweets, souhaitait à la reine "une mort atrocement douloureuse comme celle qu'elle a pu causer à des millions de personnes".

"J'ai entendu dire que le monarque en chef d'un empire génocidaire, voleur et violeur est enfin en train de mourir. Que sa douleur soit atroce".

Après que de nombreuses personnes aient signalé ce tweet, Twitter l'a retiré pour avoir enfreint la règle interdisant de "souhaiter ou espérer que quelqu'un subisse un préjudice physique".

Ce qui n'a pas empêché un déluge de critiques, notamment de la part de l'Université Carnegie Mellon, où Mme Anya enseigne la linguistique appliquée.

"Nous ne tolérons pas les messages offensants et répréhensibles publiés par Uju Anya aujourd'hui sur son compte personnel de médias sociaux. La liberté d'expression est au cœur de la mission de l'enseignement supérieur, cependant, les opinions qu'elle a partagées ne représentent absolument pas les valeurs de l'institution, ni les normes de discours que nous cherchons à promouvoir", a tweeté l'Université Carnegie Mellon.

Les tweets ignobles de Mme Anya ont également attiré l'attention du fondateur d'Amazon, Jeff Bezos.

"Est-ce quelqu'un qui travaille pour rendre le monde meilleur ?" a-t'il tweeté. "Je ne pense pas. Wow."

Les commentataires en ligne ne cessent depuis d'envahir la section de commentaires du tweet de l'université, appelant au licenciement de Mme Anya, soulignant qu'un condamnation ne suffirait pas et demandant des mesures de rétorsion contre le professeur.

L'utilisateur de Twitter @DavidWohl par exemple : "Ainsi, cette ignoble fauteuse de haine restera professeur titulaire, et continuera de recevoir son plein salaire sans aucune mesure disciplinaire, ni suspension, ni rien. Au cas où vous envisageriez d'envoyer vos enfants dans cette université dégénérée."

Un autre tweet, @InterestedObs13 indique : "La liberté d'expression est essentielle, mais la méchanceté de ce tweet ne reflète pas l'opinion réfléchie et rationnelle d'un leader pondéré. Colère et rancune comme celles-ci diminuent la légitimité de l'argument et au final la réputation de la personne qui le transmet."

Un autre @kristi_mccall a été plus explicite : "Si vous ne la virez pas, vous l'approuvez."

Et @chefjohnny84 a écrit: "Alors virez-la. Résilier son contrat. Cette femme ne devrait rien apprendre à personne. Elle devrait apprendre l'histoire, pas remplir le monde de haine."

Plus tôt cette année Mme Anya a indiqué à Carnegie Mellon qu'elle était née au Nigeria et avait déménagé aux États-Unis à l'âge de 10 ans., déplorant être en butte à "l'exclusion du système".

"En raison de l'exclusion systémique, ma voix est unique et fondamentale dans le domaine", expliquait Mme Anya dans l'interview de Carnegie Mellon. "Je suis le principal chercheur qui étudie la race et les expériences de la race noire dans l'apprentissage des langues et l'un des rares à examiner l'éducation des langages dans une perspective de justice sociale."

L'attaque de Mme Anya contre la reine Elizabeth correspond à sa profonde animosité, souvent exprimée, suite à la guerre civile nigériane (1967-1970). On estime que deux millions de personnes auraient été tuées par les troupes nigérianes lors d'une tentative du groupe ethnique Igbo de Mme Anya de se séparer du Nigéria à peine sept ans après l'indépendance.

"Si quelqu'un s'attend à ce que j'exprime autre chose que du mépris pour une monarque qui a supervisé le gouvernement qui a parrainé le génocide, a massacré et déplacé la moitié de ma famille avec des conséquences encore visibles aujourd'hui, vous pouvez continuer à rêver", a ajouté Mme Anya sur Twitter suite à la réprimande de Bezos.

La professeur, qui est d'origine Igbo dans l'est du Nigeria, a acquis cette notoriété sur Twitter après avoir incité à la haine ethnique, en particulier contre les populations haoussa et yoruba.

Il y a deux semaines, elle fut stigmatisée par certains Afro-Américains pour son utilisation d'une insulte de rue, "Akata", puisqu'elle affirmait que ce mot qui émane de la langue yoruba et que le peuple yoruba l'utilise pour décrire les Afro-Américains comme des animaux sauvages.

Son affirmation fut immédiatement démystifiée et présentée comme une tentative d'opposer les Afro-Américains aux personnes de l'ethnie Yoruba au Nigeria, à qui elle n'a jamais pardonné de s'être rangé du côté des troupes fédérales pour maintenir l'unité du Nigeria durant la guerre civile.

 

Auteur: Internet

Info: https://gazettengr.com/, 8 sept. 2022

[ polémique ] [ afrique ] [ usa ] [ Angleterre ] [ événement mondial ] [ deuil planétaire ] [ racisme ] [ communautarisme ] [ socio-linguistique ]

 
Commentaires: 1
Ajouté à la BD par miguel

singularité paramétrées

L’ANONYMAT DIGITAL N’EXISTE PAS, AUTANT LE SAVOIR UNE BONNE FOIS POUR TOUTES

Toutes les traces que nous générons, toutes les données nous concernant, que nous communiquons d’une manière ou d’une autre, même les plus anonymes et les plus incomplètes, toutes ces informations permettent… de nous identifier avec une quasi-certitude! Telle est la conclusion d’une recherche menée par Luc Rocher, aspirant FNRS au pôle en ingénierie mathématique de l’UClouvain.

Le doctorant a travaillé avec un spécialiste du domaine, le Pr Yves-Alexandre de Montjoye, désormais professeur assistant, responsable du Computational Privacy Group à l’Imperial College de Londres.

Les deux chercheurs, accompagnés par Julien Hendrickx (Icteam/UCLouvain) ont élaboré un algorithme qui permet d’estimer, avec grande précision, si des données anonymes, mais " réidentifiées ", appartiennent bien à une même personne ou non. L’algorithme évalue la probabilité pour une combinaison de caractéristiques connues d’être suffisamment précise pour décrire un seul individu parmi plusieurs milliards de personnes.

Une réidentification à 99,98%

En utilisant cette méthode, les chercheurs de l’UCLouvain et de l’Imperial College London ont montré que 99.98% des Américains seraient correctement réidentifiés dans n’importe quelle base de données en utilisant 15 attributs démographiques, avec des chiffres similaires à travers le monde (16 attributs en ajoutant la nationalité).

" Beaucoup de personnes vivant à New York sont des hommes et ont la trentaine. Parmi elles, beaucoup moins sont également nées le 5 janvier, conduisent une voiture de sport rouge, ont deux enfants et un chien ", précise Luc Rocher, dans un communiqué de l’UCLouvain. " Des informations plutôt standards, que les entreprises demandent régulièrement. Et qui permettent de réidentifier les individus ".

Après avoir appris quelles caractéristiques rendent les individus uniques, les algorithmes des chercheurs génèrent des populations synthétiques pour estimer si un individu peut se démarquer parmi des milliards de personnes.

" En Belgique, depuis 2017, certaines données médicales collectées par des hôpitaux sont revendues de manière anonyme. Le sont-elles vraiment ? C’est là tout l’intérêt du modèle développé par les chercheurs de l’UCLouvain et du Imperial College London, puisqu’il permet désormais de vérifier la réalité, ou non, de cet anonymat ", estime l’UCLouvain.

Tout le monde recueille des données

Voici un peu plus d’un an, l’ingénieur civil Yves-Alexandre de Montjoye, qui jongle avec les mathématiques appliquées et la protection de la vie privée avait déjà indiqué à Bruxelles, lors d’une conférence " Science & Cocktails ", qu’au départ de quelques bribes de données, il était possible d’identifier avec quasi certitude un individu.

À quoi peuvent servir les données d’un téléphone portable ? Comment utiliser en toute sécurité les données volumineuses tout en allant de l’avant ? Ces questions étaient au centre de cette rencontre avec un large public.

" Nous vivons à une époque où l’information sur la plupart de nos mouvements et de nos actions est recueillie et stockée en temps réel. Tout le monde recueille des données sur vous : vos recherches sur Google, vos commandes de nourriture en ligne, vos lieux de vacances et les profils d’autres personnes que vous consultez sur Facebook. Et la disponibilité d’un téléphone mobile à grande échelle, d’une carte de crédit, d’un historique de navigation, etc., augmente considérablement notre capacité à comprendre et potentiellement affecter le comportement des individus et des collectifs.

Toutefois, l’utilisation de ces données soulève des préoccupations légitimes en matière de protection de la vie privée. Lors de cet événement, Yves-Alexandre de Montjoye a expliqué comment les mécanismes traditionnels de protection des données ne parviennent pas à protéger la vie privée des personnes à l’ère des grandes données. Et il explique comment des informations sensibles peuvent souvent être déduites de données apparemment inoffensives.

Les mots de passe et la cryptographie n’y changent rien

Et pour celles et ceux qui pensent qu’avec quelques bons mots de passe et autres outils de cryptographie, il est possible de protéger durablement ses données… Mieux vaut tout de suite faire son deuil de cette idée.

" Qu’il s’agisse de messages, de photos de vacances ou de tout autre type d’informations personnelles transmises ou stockées sur internet: ces données sont absolument transparentes. Ou du moins, elles le seront dans un proche avenir ", martèle le scientifique québécois Gilles Brassard, spécialiste de la cryptographie quantique.

De passage à Bruxelles en début d’année dans le cadre de la chaire du Québec à l’Académie royale des Sciences, ce professeur au Département d’informatique et de recherche opérationnelle de l’Université de Montréal disait: " rien de ce que vous confiez en ligne n’est sûr. Ou plus exactement, rien de ce que vous avez confié ou transmis jusqu’à présent, et ce depuis les débuts de l’internet, n’est confidentiel "…

Auteur: Internet

Info: Daily mail, 24 Jjuily 2019, Christian Du Brulle

[ profils numériques ] [ éthique des métadonnées ]

 

Commentaires: 0

Ajouté à la BD par miguel

mathématification

La nature est chaotique. Les mathématiques aident.

La nature est complexe, imprévisible, parfois même chaotique . Chaque écosystème est un monde à part entière, un réseau d'interactions au sein des espèces et entre elles et leurs environnements. Les récifs coralliens regorgent de milliers d'espèces interdépendantes – des poissons et des palourdes aux algues et aux tortues – tandis que les forêts tempérées regorgent de pics, d'arbres et de champignons, et que le sol lui-même recèle un autre monde. Chaque forme de vie ou interaction au sein d'un écosystème est soumise à des règles et des contraintes. Les espèces sont imbriquées les unes dans les autres, et les écosystèmes le sont également, créant ainsi un réseau écologique mondial hautement dynamique et hyperconnecté.

Souvent, une perturbation de l'un de ces éléments peut avoir des effets en cascade. Des changements apparemment mineurs – concernant les nutriments, la météo ou une maladie – ou l'arrivée d'une nouvelle espèce peuvent se propager progressivement dans un écosystème. Ajoutez à cela les changements importants causés par l'homme, comme la déforestation, la pollution, les incendies de forêt et la sécheresse, et vous obtenez un paysage en constante évolution. La nature peut être si imprévisible qu'elle peut être difficile à comprendre, et encore moins à étudier. 

Dans certains cas, pour comprendre ces systèmes, il faut les simplifier – et c'est là que les mathématiques entrent en jeu. Les scientifiques utilisent des équations et des modèles pour distiller le chaos de la nature et deviner les règles fondamentales qui régissent les interactions et les espèces qui la composent. 

Ces modèles sont, par nature, des simplifications du monde réel ; ils ne rendent pas compte de toutes les nuances d'un écosystème réel. Néanmoins, ils constituent des outils importants que nous pouvons utiliser pour améliorer notre compréhension des systèmes naturels et contribuer à leur santé.

Quoi de neuf et d'intéressant

Un groupe de physiciens et de biologistes marins a décomposé les coraux en formes géométriques afin de décrire comment la croissance des polypes individuels forme collectivement des structures complexes. Ils ont imaginé chaque corail comme une forme conique s'étendant à partir d'une base à six arêtes, qu'ils ont appelée " hexacône ". Ils ont ensuite identifié des règles mathématiques simples pour créer un " modèle universel " capable d'expliquer pourquoi certains coraux se ramifient, d'autres se développent en dômes et d'autres encore en colonnes étroites. De tels modèles pourraient contribuer à préserver la vie des coraux face aux rapides changements climatiques qui modifient leur environnement.

 
Certains scientifiques prédisent que de nombreux écosystèmes sont proches d'un " point de basculement " qui, s'il est atteint suite à des perturbations telles que la déforestation, les incendies de forêt ou le changement climatique, pourrait les faire basculer dans de nouveaux états d'où ils ne pourraient plus revenir. Mais la modélisation des écosystèmes et de leurs points de basculement est extrêmement complexe et nécessite d'innombrables calculs. En 2022, un groupe d'écologistes a remplacé des milliers d'équations par une seule pour expliquer à quel point les écosystèmes sont proches de l'effondrement. " Avec une seule équation, nous savons tout ", a déclaré Jianxi Gao, spécialiste des réseaux à l'Institut polytechnique Rensselaer. " Avant, on avait une intuition. Maintenant, on a un chiffre. "

 
Bien qu'elles ne représentent que 3 % de la superficie terrestre, les tourbières, formées de végétation morte qui s'accumule pendant des centaines, voire des milliers d'années, stockent deux fois plus de carbone que tous les arbres de la planète. Cependant, prédire leur forme et leur taille souterraines – et donc la quantité de carbone qu'elles stockent – ​​s'est avéré difficile. Les chercheurs ont donc développé une équation simple pour calculer leur forme tridimensionnelle . Cette nouvelle équation permet d'estimer la profondeur d'une tourbière avec une précision surprenante grâce à deux mesures satellitaires : la forme de ses limites et sa hauteur relative. " C'est absolument incroyable d'avoir une forêt aussi complexe, impénétrable, difficile d'accès et décrite par une équation simple ", a déclaré Charles Harvey, ingénieur environnemental au Massachusetts Institute of Technology, qui a dirigé l'étude. " Je n'aurais pas imaginé que cela fonctionnerait aussi bien. "




 

Auteur: Internet

Info: Quanta Magazine, Yasemin Saplakoglu, juin 2025

[ Gaïa ] [ orthogenèse ] [ effets papillons ] [ méta-moteurs ] [ anthropocène ] [ méta-langage ] [ codage du réel ]

 

Commentaires: 0

Ajouté à la BD par miguel