Citation
Catégorie
Tag – étiquette
Auteur
Info
Rechercher par n'importe quelle lettre



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits... Recherche mots ou phrases tous azimuts... Outil de précision sémantique et de réflexion communautaire... Voir aussi la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats ... Lire la suite >>
Résultat(s): 5379
Temps de recherche: 0.0401s

biogénétique

Une partie de l' " ADN indésirable " sert un objectif 

Si on étire tout l’ADN d’une seule cellule humaine, il mesurerait plus de 5 mètres de long. Mais seul un fragment de cet ADN produit des protéines, la machinerie biologique nécessaire à la vie. En 2003, le Human Genome Project a montré que seulement 1 à 2 % de notre ADN – environ 4 cm sur ces 5 mètres – code des gènes pour les protéines. Les séquences non codantes qui constituent les 98 % restants sont souvent appelées " ADN indésirable (junk dna) ", un terme inventé en 1972 par le généticien Susumu Ohno, qui a suggéré que, tout comme les archives fossiles regorgent d'espèces disparues, nos génomes sont remplis d'espèces disparues. gènes éteints ou mal copiés endommagés par des mutations.

Mais même si 98 % du génome est non codant, il ne s’agit pas précisément d’un poids mort. En 2012, un consortium de centaines de scientifiques a rapporté dans l'Encyclopédie des éléments de l'ADN qu'au moins 80 % du génome est " actif " au sens où une partie de l'ADN est traduite en ARN*, même si cet ARN est pas ensuite traduit en protéines. Il existe peu de preuves que la plupart de cet ARN provenant de gènes brisés ait un effet.

Cependant, certaines séquences non codantes, qui représentent environ 8 à 15 % de notre ADN, ne sont pas du tout indésirables. Elles remplissent des fonctions importantes, en régulant les gènes actifs des cellules et la quantité de protéines qu’ils produisent. Les chercheurs découvrent encore de nouvelles façons dont l'ADN non codant fait cela, mais il est clair que la biologie humaine est massivement influencée par les régions non codantes, qui ne codent pas directement pour les protéines mais façonnent quand même leur production. Les mutations dans ces régions, par exemple, ont été associées à des maladies ou à des troubles aussi variés que l'autisme, les tremblements et le dysfonctionnement hépatique.

De plus, en comparant les génomes humains à ceux des chimpanzés et d’autres animaux, les scientifiques ont appris que les régions non codantes peuvent jouer un rôle important dans ce qui nous rend uniques : il est possible que la régulation des gènes par l’ADN non codant différencie plus les espèces que les gènes et les protéines elles-mêmes.

Les chercheurs découvrent également que de nouvelles mutations peuvent parfois conférer de nouvelles capacités à des séquences non codantes, ce qui en fait une sorte de ressource pour une évolution future. En conséquence, ce qui mérite l’étiquette " ADN indésirable " reste à discuter. Les scientifiques ont clairement commencé à nettoyer ce tiroir à déchets depuis 1972 – mais ce qui reste dedans est encore à débattre.

Quoi de neuf et remarquable

Les scientifiques ont travaillé pour comprendre un type d’ADN non codant appelé " transposons** " ou " gènes sauteurs ". Ces bribes peuvent parcourir le génome, créant des copies d’elle-mêmes, qui sont parfois insérées dans des séquences d’ADN. Les transposons se révèlent de plus en plus essentiels au réglage de l'expression des gènes ou à la détermination des gènes codants activés pour être transcrits en protéines. C'est en partie pour cette raison qu'ils s'avèrent importants pour le développement et la survie d'un organisme . Lorsque les chercheurs ont conçu des souris dépourvues de transposons, la moitié des petits des animaux sont morts avant la naissance. Les transposons ont laissé des traces sur l'évolution de la vie. Quanta a rapporté qu'ils peuvent passer d'une espèce à l'autre - comme du hareng à l'éperlan et des serpents aux grenouilles - offrant parfois même certains avantages, comme protéger les poissons du gel dans les eaux glacées.

Les généticiens étudient également les " courts tandem  répétés ", dans lesquels une séquence d’ADN longue d’une à six paires de bases seulement est fortement répétée, parfois des dizaines de fois de suite. Les scientifiques soupçonnaient qu'elles aidaient à réguler les gènes, car ces séquences, qui représentent environ 5 % du génome humain, ont été associées à des maladies telles que la maladie de Huntington et le cancer. Dans une étude couverte par Quanta en février, les chercheurs ont découvert une manière possible par laquelle de courtes répétitions en tandem pourraient réguler les gènes : en aidant à réunir des facteurs de transcription, qui aident ensuite à activer la machinerie de production de protéines.

Ensuite, il y a les " pseudogènes*** ", restes de gènes fonctionnels qui ont été dupliqués puis dégradés par des mutations ultérieures. Cependant, comme Quanta l’a rapporté en 2021, les scientifiques ont découvert que parfois les pseudogènes ne demeurent pas pseudo ou indésirables ; au lieu de cela, ils développent de nouvelles fonctions et deviennent des régulateurs génétiques – régulant même parfois le gène même à partir duquel ils ont été copiés.

Auteur: Internet

Info: Yasemin Sapakoglu. *Aussi sur base 4, l'ARN ou acide nucléique, sert d'intermédiaire dans la circulation de l'information génétique de l'ADN aux protéines. **les transposons sont à la fois régulés par l'épigénétique, mais peuvent aussi induire des changements épigénétiques héritables, faisant le lien entre génome et épigénome dans l'évolution, 333vestiges moléculaires de gènes ancestraux devenus non fonctionnels, mais qui semblent parfois avoir acquis des rôles régulateurs inattendus au cours de l'évolution

[ stratégies géniques ] [ codifications du vivant ] [ mémoire diachronique active ] [ encodages chronologiques ]

 

Commentaires: 0

Ajouté à la BD par miguel

nord-sud

La direction de l'institution américaine Carnegie Mellon University s'est distanciée des tweets offensants d'Uju Anya, professeur au département de langues modernes de l'école, qui décrivent feu la reine Elizabeth II comme une "femme misérable" et une "colonisatrice génocidaire".

Parmi l'afflux des inquiétudes concernant l'état de santé de la reine malade tôt jeudi – quelques heures avant l'annonce officielle de sa mort – Mme Anya, dans un fil de tweets, souhaitait à la reine "une mort atrocement douloureuse comme celle qu'elle a pu causer à des millions de personnes".

"J'ai entendu dire que le monarque en chef d'un empire génocidaire, voleur et violeur est enfin en train de mourir. Que sa douleur soit atroce".

Après que de nombreuses personnes aient signalé ce tweet, Twitter l'a retiré pour avoir enfreint la règle interdisant de "souhaiter ou espérer que quelqu'un subisse un préjudice physique".

Ce qui n'a pas empêché un déluge de critiques, notamment de la part de l'Université Carnegie Mellon, où Mme Anya enseigne la linguistique appliquée.

"Nous ne tolérons pas les messages offensants et répréhensibles publiés par Uju Anya aujourd'hui sur son compte personnel de médias sociaux. La liberté d'expression est au cœur de la mission de l'enseignement supérieur, cependant, les opinions qu'elle a partagées ne représentent absolument pas les valeurs de l'institution, ni les normes de discours que nous cherchons à promouvoir", a tweeté l'Université Carnegie Mellon.

Les tweets ignobles de Mme Anya ont également attiré l'attention du fondateur d'Amazon, Jeff Bezos.

"Est-ce quelqu'un qui travaille pour rendre le monde meilleur ?" a-t'il tweeté. "Je ne pense pas. Wow."

Les commentataires en ligne ne cessent depuis d'envahir la section de commentaires du tweet de l'université, appelant au licenciement de Mme Anya, soulignant qu'un condamnation ne suffirait pas et demandant des mesures de rétorsion contre le professeur.

L'utilisateur de Twitter @DavidWohl par exemple : "Ainsi, cette ignoble fauteuse de haine restera professeur titulaire, et continuera de recevoir son plein salaire sans aucune mesure disciplinaire, ni suspension, ni rien. Au cas où vous envisageriez d'envoyer vos enfants dans cette université dégénérée."

Un autre tweet, @InterestedObs13 indique : "La liberté d'expression est essentielle, mais la méchanceté de ce tweet ne reflète pas l'opinion réfléchie et rationnelle d'un leader pondéré. Colère et rancune comme celles-ci diminuent la légitimité de l'argument et au final la réputation de la personne qui le transmet."

Un autre @kristi_mccall a été plus explicite : "Si vous ne la virez pas, vous l'approuvez."

Et @chefjohnny84 a écrit: "Alors virez-la. Résilier son contrat. Cette femme ne devrait rien apprendre à personne. Elle devrait apprendre l'histoire, pas remplir le monde de haine."

Plus tôt cette année Mme Anya a indiqué à Carnegie Mellon qu'elle était née au Nigeria et avait déménagé aux États-Unis à l'âge de 10 ans., déplorant être en butte à "l'exclusion du système".

"En raison de l'exclusion systémique, ma voix est unique et fondamentale dans le domaine", expliquait Mme Anya dans l'interview de Carnegie Mellon. "Je suis le principal chercheur qui étudie la race et les expériences de la race noire dans l'apprentissage des langues et l'un des rares à examiner l'éducation des langages dans une perspective de justice sociale."

L'attaque de Mme Anya contre la reine Elizabeth correspond à sa profonde animosité, souvent exprimée, suite à la guerre civile nigériane (1967-1970). On estime que deux millions de personnes auraient été tuées par les troupes nigérianes lors d'une tentative du groupe ethnique Igbo de Mme Anya de se séparer du Nigéria à peine sept ans après l'indépendance.

"Si quelqu'un s'attend à ce que j'exprime autre chose que du mépris pour une monarque qui a supervisé le gouvernement qui a parrainé le génocide, a massacré et déplacé la moitié de ma famille avec des conséquences encore visibles aujourd'hui, vous pouvez continuer à rêver", a ajouté Mme Anya sur Twitter suite à la réprimande de Bezos.

La professeur, qui est d'origine Igbo dans l'est du Nigeria, a acquis cette notoriété sur Twitter après avoir incité à la haine ethnique, en particulier contre les populations haoussa et yoruba.

Il y a deux semaines, elle fut stigmatisée par certains Afro-Américains pour son utilisation d'une insulte de rue, "Akata", puisqu'elle affirmait que ce mot qui émane de la langue yoruba et que le peuple yoruba l'utilise pour décrire les Afro-Américains comme des animaux sauvages.

Son affirmation fut immédiatement démystifiée et présentée comme une tentative d'opposer les Afro-Américains aux personnes de l'ethnie Yoruba au Nigeria, à qui elle n'a jamais pardonné de s'être rangé du côté des troupes fédérales pour maintenir l'unité du Nigeria durant la guerre civile.

 

Auteur: Internet

Info: https://gazettengr.com/, 8 sept. 2022

[ polémique ] [ afrique ] [ usa ] [ Angleterre ] [ événement mondial ] [ deuil planétaire ] [ racisme ] [ communautarisme ] [ socio-linguistique ]

 
Commentaires: 1
Ajouté à la BD par miguel

singularité paramétrées

L’ANONYMAT DIGITAL N’EXISTE PAS, AUTANT LE SAVOIR UNE BONNE FOIS POUR TOUTES

Toutes les traces que nous générons, toutes les données nous concernant, que nous communiquons d’une manière ou d’une autre, même les plus anonymes et les plus incomplètes, toutes ces informations permettent… de nous identifier avec une quasi-certitude! Telle est la conclusion d’une recherche menée par Luc Rocher, aspirant FNRS au pôle en ingénierie mathématique de l’UClouvain.

Le doctorant a travaillé avec un spécialiste du domaine, le Pr Yves-Alexandre de Montjoye, désormais professeur assistant, responsable du Computational Privacy Group à l’Imperial College de Londres.

Les deux chercheurs, accompagnés par Julien Hendrickx (Icteam/UCLouvain) ont élaboré un algorithme qui permet d’estimer, avec grande précision, si des données anonymes, mais " réidentifiées ", appartiennent bien à une même personne ou non. L’algorithme évalue la probabilité pour une combinaison de caractéristiques connues d’être suffisamment précise pour décrire un seul individu parmi plusieurs milliards de personnes.

Une réidentification à 99,98%

En utilisant cette méthode, les chercheurs de l’UCLouvain et de l’Imperial College London ont montré que 99.98% des Américains seraient correctement réidentifiés dans n’importe quelle base de données en utilisant 15 attributs démographiques, avec des chiffres similaires à travers le monde (16 attributs en ajoutant la nationalité).

" Beaucoup de personnes vivant à New York sont des hommes et ont la trentaine. Parmi elles, beaucoup moins sont également nées le 5 janvier, conduisent une voiture de sport rouge, ont deux enfants et un chien ", précise Luc Rocher, dans un communiqué de l’UCLouvain. " Des informations plutôt standards, que les entreprises demandent régulièrement. Et qui permettent de réidentifier les individus ".

Après avoir appris quelles caractéristiques rendent les individus uniques, les algorithmes des chercheurs génèrent des populations synthétiques pour estimer si un individu peut se démarquer parmi des milliards de personnes.

" En Belgique, depuis 2017, certaines données médicales collectées par des hôpitaux sont revendues de manière anonyme. Le sont-elles vraiment ? C’est là tout l’intérêt du modèle développé par les chercheurs de l’UCLouvain et du Imperial College London, puisqu’il permet désormais de vérifier la réalité, ou non, de cet anonymat ", estime l’UCLouvain.

Tout le monde recueille des données

Voici un peu plus d’un an, l’ingénieur civil Yves-Alexandre de Montjoye, qui jongle avec les mathématiques appliquées et la protection de la vie privée avait déjà indiqué à Bruxelles, lors d’une conférence " Science & Cocktails ", qu’au départ de quelques bribes de données, il était possible d’identifier avec quasi certitude un individu.

À quoi peuvent servir les données d’un téléphone portable ? Comment utiliser en toute sécurité les données volumineuses tout en allant de l’avant ? Ces questions étaient au centre de cette rencontre avec un large public.

" Nous vivons à une époque où l’information sur la plupart de nos mouvements et de nos actions est recueillie et stockée en temps réel. Tout le monde recueille des données sur vous : vos recherches sur Google, vos commandes de nourriture en ligne, vos lieux de vacances et les profils d’autres personnes que vous consultez sur Facebook. Et la disponibilité d’un téléphone mobile à grande échelle, d’une carte de crédit, d’un historique de navigation, etc., augmente considérablement notre capacité à comprendre et potentiellement affecter le comportement des individus et des collectifs.

Toutefois, l’utilisation de ces données soulève des préoccupations légitimes en matière de protection de la vie privée. Lors de cet événement, Yves-Alexandre de Montjoye a expliqué comment les mécanismes traditionnels de protection des données ne parviennent pas à protéger la vie privée des personnes à l’ère des grandes données. Et il explique comment des informations sensibles peuvent souvent être déduites de données apparemment inoffensives.

Les mots de passe et la cryptographie n’y changent rien

Et pour celles et ceux qui pensent qu’avec quelques bons mots de passe et autres outils de cryptographie, il est possible de protéger durablement ses données… Mieux vaut tout de suite faire son deuil de cette idée.

" Qu’il s’agisse de messages, de photos de vacances ou de tout autre type d’informations personnelles transmises ou stockées sur internet: ces données sont absolument transparentes. Ou du moins, elles le seront dans un proche avenir ", martèle le scientifique québécois Gilles Brassard, spécialiste de la cryptographie quantique.

De passage à Bruxelles en début d’année dans le cadre de la chaire du Québec à l’Académie royale des Sciences, ce professeur au Département d’informatique et de recherche opérationnelle de l’Université de Montréal disait: " rien de ce que vous confiez en ligne n’est sûr. Ou plus exactement, rien de ce que vous avez confié ou transmis jusqu’à présent, et ce depuis les débuts de l’internet, n’est confidentiel "…

Auteur: Internet

Info: Daily mail, 24 Jjuily 2019, Christian Du Brulle

[ profils numériques ] [ éthique des métadonnées ]

 

Commentaires: 0

Ajouté à la BD par miguel

mathématification

La nature est chaotique. Les mathématiques aident.

La nature est complexe, imprévisible, parfois même chaotique . Chaque écosystème est un monde à part entière, un réseau d'interactions au sein des espèces et entre elles et leurs environnements. Les récifs coralliens regorgent de milliers d'espèces interdépendantes – des poissons et des palourdes aux algues et aux tortues – tandis que les forêts tempérées regorgent de pics, d'arbres et de champignons, et que le sol lui-même recèle un autre monde. Chaque forme de vie ou interaction au sein d'un écosystème est soumise à des règles et des contraintes. Les espèces sont imbriquées les unes dans les autres, et les écosystèmes le sont également, créant ainsi un réseau écologique mondial hautement dynamique et hyperconnecté.

Souvent, une perturbation de l'un de ces éléments peut avoir des effets en cascade. Des changements apparemment mineurs – concernant les nutriments, la météo ou une maladie – ou l'arrivée d'une nouvelle espèce peuvent se propager progressivement dans un écosystème. Ajoutez à cela les changements importants causés par l'homme, comme la déforestation, la pollution, les incendies de forêt et la sécheresse, et vous obtenez un paysage en constante évolution. La nature peut être si imprévisible qu'elle peut être difficile à comprendre, et encore moins à étudier. 

Dans certains cas, pour comprendre ces systèmes, il faut les simplifier – et c'est là que les mathématiques entrent en jeu. Les scientifiques utilisent des équations et des modèles pour distiller le chaos de la nature et deviner les règles fondamentales qui régissent les interactions et les espèces qui la composent. 

Ces modèles sont, par nature, des simplifications du monde réel ; ils ne rendent pas compte de toutes les nuances d'un écosystème réel. Néanmoins, ils constituent des outils importants que nous pouvons utiliser pour améliorer notre compréhension des systèmes naturels et contribuer à leur santé.

Quoi de neuf et d'intéressant

Un groupe de physiciens et de biologistes marins a décomposé les coraux en formes géométriques afin de décrire comment la croissance des polypes individuels forme collectivement des structures complexes. Ils ont imaginé chaque corail comme une forme conique s'étendant à partir d'une base à six arêtes, qu'ils ont appelée " hexacône ". Ils ont ensuite identifié des règles mathématiques simples pour créer un " modèle universel " capable d'expliquer pourquoi certains coraux se ramifient, d'autres se développent en dômes et d'autres encore en colonnes étroites. De tels modèles pourraient contribuer à préserver la vie des coraux face aux rapides changements climatiques qui modifient leur environnement.

 
Certains scientifiques prédisent que de nombreux écosystèmes sont proches d'un " point de basculement " qui, s'il est atteint suite à des perturbations telles que la déforestation, les incendies de forêt ou le changement climatique, pourrait les faire basculer dans de nouveaux états d'où ils ne pourraient plus revenir. Mais la modélisation des écosystèmes et de leurs points de basculement est extrêmement complexe et nécessite d'innombrables calculs. En 2022, un groupe d'écologistes a remplacé des milliers d'équations par une seule pour expliquer à quel point les écosystèmes sont proches de l'effondrement. " Avec une seule équation, nous savons tout ", a déclaré Jianxi Gao, spécialiste des réseaux à l'Institut polytechnique Rensselaer. " Avant, on avait une intuition. Maintenant, on a un chiffre. "

 
Bien qu'elles ne représentent que 3 % de la superficie terrestre, les tourbières, formées de végétation morte qui s'accumule pendant des centaines, voire des milliers d'années, stockent deux fois plus de carbone que tous les arbres de la planète. Cependant, prédire leur forme et leur taille souterraines – et donc la quantité de carbone qu'elles stockent – ​​s'est avéré difficile. Les chercheurs ont donc développé une équation simple pour calculer leur forme tridimensionnelle . Cette nouvelle équation permet d'estimer la profondeur d'une tourbière avec une précision surprenante grâce à deux mesures satellitaires : la forme de ses limites et sa hauteur relative. " C'est absolument incroyable d'avoir une forêt aussi complexe, impénétrable, difficile d'accès et décrite par une équation simple ", a déclaré Charles Harvey, ingénieur environnemental au Massachusetts Institute of Technology, qui a dirigé l'étude. " Je n'aurais pas imaginé que cela fonctionnerait aussi bien. "




 

Auteur: Internet

Info: Quanta Magazine, Yasemin Saplakoglu, juin 2025

[ Gaïa ] [ orthogenèse ] [ effets papillons ] [ méta-moteurs ] [ anthropocène ] [ méta-langage ] [ codage du réel ]

 

Commentaires: 0

Ajouté à la BD par miguel

ennui

L'opposé du déjà-vu existe, et c'est encore plus troublant

Le déjà-vu, ce sentiment étrange de revivre une situation, a désormais son opposé : le jamais-vu. Encore plus troublant, ce phénomène fait l'objet d'une étude récente récompensée. Que se passe-t-il dans notre cerveau lorsque le familier devient soudainement étranger ? Plongée dans les méandres passionnants de notre mémoire.

La mémoire humaine recèle encore bien des mystères. Si le déjà-vu est un phénomène relativement connu, son pendant opposé, le jamais-vu, reste largement méconnu du grand public. Pourtant, cette expérience cognitive intrigante pourrait nous en apprendre beaucoup sur le fonctionnement de notre cerveau. Une étude récente, publiée en septembre 2023, s'est penchée sur ce phénomène, offrant de nouvelles perspectives sur notre perception de la réalité.

Le jamais-vu se manifeste lorsqu'une situation ou un objet familier nous apparaît soudainement comme nouveau ou irréel. Contrairement au déjà-vu, qui nous donne l'impression d'avoir déjà vécu une situation inédite, le jamais-vu provoque une sensation d'étrangeté face à quelque chose que nous connaissons pourtant bien.

Ce phénomène peut se produire dans diverses situations 

- en regardant un visage familier qui semble soudain inconnu 

- en perdant momentanément ses repères dans un lieu pourtant habituel

- en écrivant un mot simple qui paraît tout à coup bizarre ou mal orthographié

L'expérience du jamais-vu est généralement décrite comme troublante et déstabilisante. Elle peut provoquer une sensation de dissociation temporaire avec la réalité, comme si notre cerveau perdait momentanément ses repères habituels.

Une étude révolutionnaire 

Les chercheurs Akira O'Connor de l'Université de St Andrews et Christopher Moulin de l'Université Grenoble Alpes ont mené une série d'expériences pour mieux comprendre le mécanisme du jamais vu. Leur travail, récompensé par un prix Ig Nobel* de littérature, a permis de mettre en lumière les conditions d'apparition de ce phénomène.

L'expérience principale consistait à faire écrire répétitivement un même mot à des participants. Les résultats sont éloquents :

Expérience      Participants      Taux de jamais vu      Nb moyen de répétitions

Mots variés            94                         70 %                                33

Mot "the"         non spécifié                55 %                                 27

Ces chiffres révèlent que le jamais-vu peut être facilement induit en laboratoire, même avec des mots très communs. Les participants ont rapporté des sensations allant de la perte de sens du mot à l'impression de perdre le contrôle de leur main.

Implications pour notre compréhension du cerveau

L'étude du jamais-vu ouvre de nouvelles perspectives sur le fonctionnement de notre mémoire et de notre perception. Les chercheurs proposent que ce phénomène serve de " signal d'alerte " pour notre cerveau, l'informant qu'une tâche est devenue trop automatique ou répétitive. 

Cette hypothèse pourrait avoir des implications importantes dans plusieurs domaines :

1. Psychologie cognitive : meilleure compréhension des mécanismes de la mémoire et de l'attention ;

2. Neurosciences : étude des processus cérébraux liés à la familiarité et à la nouveauté ;

3. Psychiatrie : potentielles applications dans la compréhension et le traitement de troubles comme le TOC.

Le jamais-vu pourrait ainsi être vu comme un " mécanisme de réinitialisation " de notre cerveau, nous permettant de rester flexibles et adaptables face à notre environnement. Cette découverte souligne l'importance de la variété et de la nouveauté dans nos activités quotidiennes pour maintenir un fonctionnement cognitif optimal.

Perspectives futures et questions en suspens

Bien que cette étude apporte un éclairage nouveau sur le jamais-vu, de nombreuses questions restent en suspens. Les chercheurs envisagent plusieurs pistes pour approfondir notre compréhension de ce phénomène :

- Imagerie cérébrale : observer l'activité du cerveau pendant l'expérience du jamais-vu pourrait révéler les régions impliquées dans ce processus. Des techniques comme l'IRM fonctionnelle pourraient être utilisées pour cartographier ces activations cérébrales spécifiques.

- Études longitudinales : suivre des individus sur le long terme permettrait de déterminer si certaines personnes sont plus susceptibles de vivre des expériences de jamais-vu, et si la fréquence de ces expériences évolue avec l'âge ou d'autres facteurs.

- Applications thérapeutiques : explorer le potentiel du jamais-vu dans le traitement de certains troubles psychologiques, comme les TOC, pourrait ouvrir de nouvelles voies thérapeutiques prometteuses.

Cette recherche innovante sur le jamais-vu nous rappelle que notre perception de la réalité est bien plus complexe et mystérieuse qu'il n'y paraît. En continuant à explorer ces phénomènes passionnants, nous pourrions bien percer de nouveaux secrets sur le fonctionnement de notre esprit.



 

Auteur: Internet

Info: https://www.futura-sciences.com/, 19 août 2024 *récompensent des découvertes scientifiques dont le sujet de recherche laisse perplexe. Aussi sérieux que les classiques prix Nobel, ils reconnaissent des travaux étonnants, quel que soit leur degré de loufoquerie.

[ monotonie ] [ fantaisie nécessaire ] [ dépaysement ] [ itérations ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

matérialogie

La plupart des matériaux semblent suivre une mystérieuse " règle de quatre ", que les chercheurs ne comprennent toujours pas 

La découverte de régularités et de corrélations dans des données enthousiasme généralement les scientifiques, du moins lorsqu’ils peuvent l’expliquer. Dans le cas contraire, il arrive d’estimer que les données présentent des biais ayant mené à l’apparition de telles corrélations, faisant de l’étude un véritable casse-tête. Ces défauts dans les données sont communément appelés " artefacts expérimentaux ". Récemment, des chercheurs de l’École Polytechnique Fédérale de Lausanne (EPFL), après avoir constaté que la structure de base de la majorité des matériaux inorganiques suit une étrange " règle de quatre ", n’ont pas réussi à trouver d’explication à ce schéma (impliquant une ou plusieurs corrélations inexpliquées).

Tout est parti de l’analyse de deux bases de données largement utilisées sur les structures électroniques (Materials Project et Materials Cloud3-Dimensional). Ces deux collections comprennent environ 80 000 structures électroniques de matériaux expérimentaux et prédits. En principe, tous les types de structures électroniques devraient être présentés de manière égale. Cependant, les résultats ont révélé que cela est loin d’être le cas.

Les scientifiques ont en effet constaté que 60 % des matériaux possèdent une cellule unitaire primitive (la cellule la plus petite dans une structure cristalline) constituée d’un multiple de 4 atomes. Cette récurrence est appelée " règle de quatre " par la communauté scientifique.

Des difficultés à trouver une explication définitive

Comme les scientifiques ont tendance à le faire, l’équipe de recherche en question (EPFL), dirigée par Nicola Marzari, a tenté de trouver des explications à ce schéma inattendu. Au départ, les chercheurs ont estimé que l’émergence d’un tel modèle signifiait qu’il y avait un biais quelque part dans les données.

Une première raison intuitive pourrait venir du fait que lorsqu’une cellule unitaire conventionnelle (une cellule plus grande que la cellule primitive, représentant la pleine symétrie du cristal) est transformée en cellule primitive, le nombre d’atomes est typiquement réduit de quatre fois ", a déclaré Elena Gazzarrini, ancienne chercheuse à l’EPFL et travaillant actuellement au CERN (Genève). " La première question que nous nous sommes posée visait à déterminer si le logiciel utilisé pour transformer en cellule primitive la cellule unitaire l’avait fait correctement, et la réponse était oui ", poursuit-elle.

Une fois la piste des erreurs évidentes écartée, les chercheurs ont effectué des analyses approfondies pour tenter d’expliquer la " règle de quatre ". L’équipe s’est alors interrogée si le facteur commun pouvait être le silicium, étant donné qu’il peut lier 4 atomes à son atome central. " Nous pourrions nous attendre à constater que tous les matériaux suivant cette règle de quatre incluent du silicium ", a expliqué Gazzarrini. Malheureusement, cela n’est pas le cas.

Gazzarrini et son équipe se sont alors basés sur les énergies de formation des composés. « Les matériaux les plus abondants dans la nature devraient être les plus énergétiquement favorisés, c’est-à-dire les plus stables, ceux avec une énergie de formation négative », explique Gazzarini. " Mais ce que nous avons constaté avec les méthodes informatiques classiques, c’est qu’il n’y avait aucune corrélation entre la règle de quatre et les énergies de formation négatives ".

En considérant ces constats, Gazzarrini a envisagé la possibilité qu’une analyse plus fine recherchant une corrélation entre les énergies de formation et les propriétés chimiques puisse fournir une explication à cette règle de quatre. Ainsi, l’équipe a fait appel à l’expertise de Rose Cernosky de l’Université du Wisconsin, experte en apprentissage automatique, pour créer un algorithme d’analyse plus puissant. L’algorithme en question regroupait notamment les structures en fonction de leurs propriétés atomiques. Ensemble, Cernosky et l’équipe de Gazzarrini ont ensuite examiné les énergies de formation au sein de classes de matériaux partageant certaines similitudes chimiques. Cependant, une fois de plus, cette nouvelle approche n’a pas permis de distinguer les matériaux conformes à la règle de quatre de ceux qui ne le sont pas.

Un mystère persistant, mais qui mène vers une découverte prometteuse

Bien que jusqu’à présent l’équipe n’a pas pu résoudre l’énigme de la règle de quatre, elle a toutefois fait une belle avancée : l’exclusion de plusieurs hypothèses logiques. Les chercheurs ont également fait une découverte prometteuse (la règle de quatre), qui pourrait servir à des études futures sur ce phénomène structurel.

En effet, avec un algorithme Random Forest, le groupe est en mesure de prédire avec 87 % de précision si un composé suit la règle de quatre ou non. " C’est intéressant, car l’algorithme utilise uniquement des descripteurs de symétrie locaux plutôt que globaux ", déclare Gazzarrini. " Ceci suggère qu’il pourrait y avoir de petits groupes chimiques dans les cellules (encore à découvrir) qui pourraient expliquer la règle de quatre ", a-t-elle conclu.



 

Auteur: Internet

Info: https://trustmyscience.com/ - Kareen Fontaine & J. Paiano·24 avril 2024 - Source : NPJ Computational materials

[ interrogation ] [ tétravalence ] [ physique appliquée ]

 

Commentaires: 0

Ajouté à la BD par miguel

épigénétique

De la biologie quantique dans la photosynthèse ? La biologie actuelle en est-elle au stade où était la physique classique avant la découverte de la physique quantique ? Certains le soupçonnent depuis quelques années, et une publication récente dans Nature Communications vient d'apporter de l'eau à leur moulin. Il y aurait bien des processus quantiques derrière l'efficacité de la photosynthèse.

(On note Ψ la fameuse fonction d'onde décrivant les amplitudes de probabilité en mécanique quantique depuis les travaux de Schrödinger sur sa célèbre équation. On a de nouvelles raisons de penser que la vie exploite les lois de la mécanique quantique pour rendre certains processus plus efficaces, en particulier la photosynthèse. © Engel Group, University of Chicago - En commentaire de la photo d'une feuille au soleil)

C'est un fait bien établi que l'existence des atomes, des molécules et des liaisons chimiques ne sont pas compréhensibles en dehors des lois de la mécanique quantique. En ce sens, la physique et la chimie d'un bloc de métal ou d'une cellule sont quantiques. Mais on sait bien que le comportement de ces objets ne manifeste pas directement la nature quantique de la matière, ils font partie du monde de la physique classique. Cependant, certains phénomènes comme la supraconductivité ou la superfluidité débordent du domaine quantique d'ordinaire réservé à la microphysique pour entrer dans le monde à notre échelle. Lorsque la nécessité de la physique quantique s'est révélée aux physiciens explorant la matière et la lumière, ce fut essentiellement avec deux phénomènes qui semblaient au départ être de simples anomalies bien localisées dans l'univers de la physique classique : le rayonnement du corps noir et l'effet photoélectrique. Nous savons aujourd'hui qu'ils étaient la pointe émergée du monde quantique et que, fondamentalement, le réel est fort différent de la vision du monde bâtie par les fondateurs de la science classique comme Galilée, Descartes et Newton.

La biologie quantique pour expliquer la photosynthèse
De nos jours, les biologistes qui réfléchissent sur le fonctionnement des cellules, de l'ADN ou des neurones considèrent que ces objets sont majoritairement décrits par les lois de la physique classique. Il n'est pas nécessaire d'utiliser l'équation de Schrödinger ou les amplitudes de probabilités qu'elle gouverne pour comprendre l'origine de la vie, les mutations, l'évolution ou l'apparition de la conscience dans un cerveau. Pourtant, ces dernières années, quelques résultats expérimentaux en biologie, notamment sur la photosynthèse, semblaient défier les lois de la physique classique.

Il était et il est encore bien trop tôt pour savoir si la photosynthèse finira par être, pour une éventuelle biologie quantique, ce que le rayonnement du corps noir a été pour la physique quantique. Toutefois, Alexandra Olaya-Castro et Edward O'Reilly, des chercheurs du célèbre University College de Londres, viennent de publier dans Nature Communications un article, également disponible en accès libre sur arxiv, dans lequel ils affirment que des macromolécules biologiques utilisent bel et bien des processus quantiques pour effectuer de la photosynthèse. Jusqu'à présent, le doute planait sur l'inadéquation des processus classiques pour décrire le comportement de chromophores attachés à des protéines qu'utilisent les cellules végétales pour capter et transporter l'énergie lumineuse.

Selon les deux physiciens, certains des états de vibrations moléculaires des chromophores facilitent le transfert d'énergie lors du processus de photosynthèse et contribuent à son efficacité. Ainsi, lorsque deux chromophores vibrent, il arrive que certaines énergies associées à ces vibrations collectives des deux molécules soient telles qu'elles correspondent à des transitions entre deux niveaux d'énergie électronique des molécules. Un phénomène de résonance se produit et un transfert d'énergie en découle entre les deux chromophores.

Distributions de probabilités quantiques négatives
Or, si le processus était purement classique, les mouvements et les positions des atomes dans les chromophores seraient toujours décrits par des distributions de probabilités positives. Alexandra Olaya-Castro et Edward O'Reilly ont découvert qu'il fallait employer des distributions négatives. C'est une signature indiscutable de l'occurrence de processus quantiques. Mieux, il s'agit dans le cas présent de la manifestation d'une superposition d'états quantiques à température ambiante assistant un transfert cohérent d'énergie. On retrouve ces vibrations collectives de macromolécules dans d'autres processus biologiques comme le transfert d'électrons dans les centres de réaction des systèmes photosynthétiques, le changement de structure d'un chromophore lors de l'absorption de photons (comme dans les phénomènes associés à la vision). Selon les chercheurs, il est donc plausible que des phénomènes quantiques assistant des processus biologiques que l'on croyait classiques soient assez répandus. Si tel est le cas, on peut s'attendre à découvrir d'autres manifestations hautement non triviales de la mécanique quantique en biologie. Cela n'aurait certainement pas surpris Werner Heisenberg, et encore moins Niels Bohr qui, il y a déjà plus de 60 ans, prédisaient que l'on pourrait bien rencontrer des limites de la physique classique avec les systèmes vivants.

Auteur: Internet

Info: https://www.futura-sciences.com/. Laurent Sacco. 20- 01-2014

[ biophysique ]

 

Commentaires: 0

Ajouté à la BD par miguel

particule élémentaire

Détection record : un neutrino ultra-énergétique ouvre une nouvelle ère en astrophysique

Le 13 février 2023, un neutrino d'une énergie record a été détecté par KM3NeT, un télescope immergé en Méditerranée. Publiée dans Nature le 12 février 2025, cette découverte marque une avancée majeure dans l'astronomie neutrino et l'étude des phénomènes cosmiques les plus extrêmes : trous noirs, sursauts gamma et rayons cosmiques ultra-énergétiques.

(Image : l'impact du neutrino avec un noyau d'atome produit un muon très énergétique. En se déplaçant plus vite que la vitesse de la lumière dans l'eau, celui-ci engendre un cône de lumière bleue détectée par les capteurs photosensibles du télescope.)

220 millions de milliards d'électrons-volts, ou encore 220 petaélectronvolts ! C’est l’énergie considérable que transportait un seul neutrino le 13 février 2023, lorsqu’il a été détecté par l'instrument Kilomètre cube (KM3NeT), immergé au large de la Sicile. C’est 30 fois plus que les neutrinos les plus énergétiques enregistrés jusqu’ici. La découverte, fruit d’une vaste collaboration internationale réunissant 350 scientifiques issus de 68 laboratoires, fait l’objet d’une publication dans la revue Nature le 12 février 2025.

Une traque de deux ans pour confirmer l’événement

Il aura donc fallu deux ans de travail pour identifier à coup sûr le passage de cette fugace particule, et mesurer son énergie. Evidemment, à notre échelle, 220 PeV, c’est l’énergie d’une balle de tennis à 4 km/h. Mais la masse d’une balle est d’environ 57 grammes. Alors que celle d’un neutrino est au moins un million de fois plus faible que celle d’un électron, déjà pas bien grosse (9,1*10^-31 kg). Qu’une particule aussi infime puisse transporter autant d’énergie est donc bien un événement.

"KM3NeT a commencé à sonder une gamme d’énergie et de sensibilité où les neutrinos détectés pourraient provenir de phénomènes astrophysiques extrêmes, commente dans un communiqué Paschal Coyle, porte-parole de KM3NeT, et chercheur au Centre de Physique des Particules de Marseille (CNRS). Cette première détection d’un neutrino de plusieurs centaines de PeV ouvre un nouveau chapitre dans l’astronomie des neutrinos et une nouvelle fenêtre d’observation sur l’Univers".

Pourquoi chercher des neutrinos au fond de l'eau ?

Bien que les neutrinos soient les particules les plus abondantes derrière les photons, leur faible interaction avec la matière rend leur détection difficile. Il faut des instruments gigantesques comme KM3NeT, qui n’est pas encore achevé, pour y parvenir. Le réseau de capteurs occupera un volume de l’ordre de kilomètre-cube, immergé par 3450 mètres de profondeur en Méditerranée. KM3NeT comprend un autre détecteur, ORCA, également en cours d’assemblage à 2450 mètres de profondeur au large de Toulon. Mais pourquoi aller chercher des neutrinos au fond de l’eau ? Parce que leur détection n’est pas directe et nécessite de ruser.

Lorsque par le plus grand des hasards (c’est le cas de le dire car les collisions sont très rares), un neutrino heurte un noyau d’atome, il produit un muon, une autre particule élémentaire. Si l’énergie du neutrino est suffisante, le muon est propulsé à très grande vitesse, dépassant celle de lumière dans l’eau (mais pas la vitesse de la lumière dans le vide, indépassable). Le muon supraluminique engendre alors un effet Cherenkov, une émission de lumière bleutée analogue au "bang" supersonique, mais dans l’optique. C’est cette lumière que vont capter les détecteurs de KM3NeT. Ensuite, tout est question de calculs…"Pour déterminer la direction et l’énergie de ce neutrino, il a fallu un calibrage précis du télescope et des algorithmes sophistiqués de reconstruction de trajectoire", détaille Aart Heijboer, responsable physique et logiciel de KM3NeT, et chercheur à l’Institut national de physique subatomique Nikhef, aux Pays-Bas.

Sur la piste d'un neutrino extragalactique

Cette détection a été réalisée avec seulement un dixième de la configuration finale du détecteur, ce qui est très encourageant pour la suite. L’astrophysique attend en effet beaucoup de ces messagers particuliers. Les neutrinos de très haute énergie sont produits par certains des phénomènes les plus violents de l’Univers, des "accélérateurs cosmiques naturels". Par exemple, les trous noirs supermassifs au centre des galaxies qui émettent des jets de particules, les sursauts gamma (GRB) résultant de la formation de trous noirs ou d’étoiles à neutrons, ou encore l’effondrement d’étoiles massives de type supernovæ…

Plus extraordinaire encore, ces neutrinos pourraient jaillir de collisions entre des rayons cosmiques (composés de noyaux d’atomes) très énergétiques et des photons issus du fond diffus cosmologique, la toute première lumière de l’Univers émise 380.000 ans après le Big Bang. Pour l’heure, avec un seul neutrino, les chercheurs ne peuvent pas encore conclure quant à son origine. Seul indice : sa direction indiquerait qu’il ne vient pas de notre galaxie, mais d’au-delà. Avec KM3NeT, c’est bien une nouvelle fenêtre d’observation des phénomènes extrêmes qui s’ouvre sur l’Univers...

Auteur: Internet

Info: https://www.sciencesetavenir.fr/, Fabrice Nicot, 12 février 2025

[ lepton ] [ nouvelle fenêtre ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

biologie

Les " épines " sont apparues 28 fois indépendamment au cours de l’évolution

Comme les roses, de nombreuses espèces végétales ont des épines, ou plus précisément des aiguillons. Cet attribut est un cas spectaculaire de convergence évolutive.

D’après le dicton, " il n’y a pas de rose sans épines " : rien n’est jamais parfait, rien n’est jamais simple. Pourtant, d’un point de vue scientifique, les roses n’ont pas d’épines, mais des aiguillons ! La différence paraît subtile, mais les épines sont des tiges ou des feuilles qui se sont spécialisées au cours de l’évolution, alors que les aiguillons sont des excroissances de l’épiderme. On peut facilement les détacher sans blesser la plante. Ainsi, les cactus et les aubépines ont des épines, tandis que les roses ont des aiguillons. Elles ne sont d’ailleurs pas les seules : on en observe par exemple chez certaines solanacées proches de l’aubergine.

Quand des espèces ont un ancêtre commun récent, elles partagent une part importante de leur génome, et il n’est donc pas étonnant de retrouver des traits communs. Mais dans le cas des espèces de plantes dotées d’aiguillons, certaines ont un ancêtre commun très éloigné dans le temps. Il est donc probable que les excroissances se sont développées de façon indépendante ; on parle alors de convergence évolutive. Or un consortium international coordonné par Zachary Lippman, du laboratoire de Cold Spring Harbor, aux États-Unis, et impliquant plusieurs équipes dont celle de Mohammed Bendahmane, directeur de recherche Inrae, à l’École normale supérieure de Lyon, vient d’identifier le volet génétique de cette convergence.

Lorsque différentes espèces partagent les mêmes pressions environnementales, leur évolution, au travers de la sélection naturelle, peut conduire à faire émerger des solutions similaires. Les exemples sont nombreux : les ailes des oiseaux, des insectes et des chauves-souris ; l’écholocalisation des cétacés et des chauves-souris. Dans le cas de la vision, les ocelles des insectes et les yeux des vertébrés et des céphalopodes sont apparus indépendamment, mais, dans les deux cas, le gène Pax6 joue un rôle majeur dans le contrôle de leur développement.

Comme les épines, les poils ou les trichomes (de fines excroissances sur les racines, tiges ou feuilles), les aiguillons procurent de nombreux avantages à la plante : ils la protègent de l’appétit des herbivores ou des insectes, et retiennent l’humidité. Il n’est donc pas étonnant que cet attribut soit apparu de façon indépendante au moins 28 fois depuis 150 millions d’années. Mais comme dans le cas de la vision, retrouve-t-on, chez les différentes espèces dotées d’aiguillons, un même gène qui en contrôle le développement ?

Dans le genre Solanum, où l’on retrouve les pommes de terre, les tomates ou encore les aubergines, près de la moitié des espèces ont des aiguillons. On y constate d’ailleurs un signe de domestication : l’espèce sauvage Solanum insalum, dotée d’aiguillons, a été domestiquée, probablement en Inde, et a donné l’aubergine (Solanum melongena) sélectionnée par les cultivateurs, car dépourvue de ces excroissances protectrices.

Zachary Lippman et ses collègues ont commencé leur étude en croisant ces deux espèces d’aubergine (sauvage et cultivée) afin de localiser le gène responsable de la croissance des aiguillons. Ils ont montré qu’il s’agit d’un gène de la famille LOG (Lonely Guy). Ce gène est impliqué dans la synthèse de la cytokinine, une hormone végétale qui participe à la prolifération cellulaire et au développement de la plante.

Chez l’aubergine cultivée, le gène LOG est présent, mais il présente une mutation qui le rend inopérant et explique l’absence d’aiguillons. Les chercheurs ont identifié en tout 16 mutations différentes qui éclaircissent la perte d’aiguillons dans différentes espèces du genre Solanum.

En explorant d’autres espèces portant ces excroissances, l’équipe de Mohammed Bendahmane a retrouvé ce même gène LOG chez les rosiers. " Nous avons montré que le développement des aiguillons chez le rosier utilise le même mécanisme génétique que celui observé chez le genre Solanum, souligne le chercheur. En effet, une diminution de l’expression du gène LOG chez le rosier conduit à l’absence des aiguillons, comme chez le genre Solanum. "

Zachary Lippman et ses partenaires ont ainsi montré qu’un même mécanisme génétique a été recruté et a mené à cette convergence évolutive. D’après eux, l’apparition fréquente des aiguillons aurait été facilitée par la simplicité de ces excroissances, qui n’appellent pas de caractère physiologique spécifique.

Ce qui est certain, c’est que les roses et leurs épines ont inspiré des générations de poètes, et maintenant des scientifiques. Mais une rose sans épines, ou plutôt sans aiguillons, serait-elle encore une rose ? Cette question inspire à Mohammed Bendahmane un proverbe marocain : " Si l’on veut du miel, il faut supporter les piqûres d’abeilles ; si l’on veut une rose, il faut supporter ses épines. " Ainsi, la réponse est peut-être du côté de l’amour inconditionnel du Petit Prince d’Antoine de Saint-Exupéry pour sa rose.



 

Auteur: Internet

Info: https://www.pourlascience.fr/, Sean Bailly, 25 septembre 2024

[ plantes à fleurs ] [ phénétique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

théorie du tout

Une nouvelle "loi de la nature" qui englobe le vivant, les planètes et les étoiles

(Photo) Ammonite irisée trouvée près de Calgary, Canada. La diversité biologique (biodiversité) entraîne la diversité minérale, et vice versa.


Selon une équipe composée de scientifiques et de philosophes, la théorie de l'évolution formulée par Charles Darwin au 19e siècle n'est qu'un "cas particulier" d'une loi de la nature qui engloberait le vivant mais aussi les minéraux, les planètes et les étoiles. Attention, débats en perspective !

Et si l'évolution ne se limitait pas à la vie sur Terre ? C'est ce que suggère une équipe de neuf scientifiques et philosophes américains dirigés par la Carnegie Institution for Science, à travers un nouvel article publié dans la revue Proceedings of the National Academy of Sciences.

La publication énonce la "loi de l'augmentation de l'information fonctionnelle", selon laquelle tous les "systèmes naturels complexes" – qu'il s'agisse de la vie sur Terre ou des atomes, des minéraux, des planètes et des étoiles – évoluent vers des états "plus structurés, plus diversifiés et plus complexes".

Vivant, atomes, étoiles…

Concrètement, qu'est-ce que cela signifie ? Juste avant d'en venir aux exemples, il faut définir en quelques mots ce que les auteurs entendent par "évolution". Un terme qu'il faut ici comprendre comme "sélection pour la fonction". Restez concentré, c'est tout simple !

Si le naturaliste du 19e siècle Charles Darwin avait globalement assimilé la "fonction" à la survie des êtres, c'est-à-dire à la capacité de vivre assez longtemps pour produire une progéniture fertile, les auteurs vont plus loin en reconnaissant également comme fonctions la "stabilité" (capacité à perdurer) et la "nouveauté" (nouvelles configurations).

Pour illustrer la sélection de la "nouveauté", l'article évoque à la fois des cas qui concernent le vivant, à l'instar de la photosynthèse, de la vie multicellulaire (quand les cellules ont "appris" à coopérer jusqu'à ne former plus qu'un organisme) et des comportements animaux. Mais aussi des exemples au sein du règne minéral !

Ainsi, les minéraux de la Terre, qui étaient au nombre d'une vingtaine à l'aube de notre système solaire, sont aujourd'hui près de 6 000. Et c'est à partir de seulement deux éléments majeurs – l'hydrogène et l'hélium – que se sont constituées, peu après le big bang, les premières étoiles, au sein desquelles se sont ensuite formés une vingtaine d'éléments chimiques plus lourds, avant que la génération suivante d'étoiles ne s'appuie sur cette diversité initiale pour produire près d'une centaine d'autres éléments.

"L'évolution est partout"

"Charles Darwin a décrit avec éloquence la façon dont les plantes et les animaux évoluent par sélection naturelle, avec de nombreuses variations et caractéristiques des individus et de nombreuses configurations différentes. Nous soutenons que la théorie darwinienne n'est qu'un cas très particulier et très important au sein d'un phénomène naturel beaucoup plus vaste", résume dans un communiqué le Pr Robert M. Hazen, de Carnegie, qui a supervisé les travaux.

Et son collègue Michael L. Wong, astrobiologiste à Carnegie et premier auteur de l'étude, de compléter : "l'univers génère de nouvelles combinaisons d'atomes, de molécules, de cellules, etc. Les combinaisons qui sont stables et qui peuvent engendrer encore plus de nouveauté continueront à évoluer."

"C'est ce qui fait de la vie l'exemple le plus frappant de l'évolution, mais l'évolution est partout."

Cette nouvelle "loi de la nature" qui décrit une complexité croissante n'est pas sans en rappeler une autre : le deuxième principe de la thermodynamique. Celui-ci stipule en effet que "l'entropie" (autrement dit, le désordre) d'un système isolé augmente avec le temps – raison pour laquelle la chaleur circule toujours des objets les plus chauds vers les objets les plus froids.

Discussion ouverte

Forces et mouvement, gravité, électromagnétisme, énergie… La plupart des "lois de la nature", décrivant et expliquant les phénomènes observés en permanence dans le monde naturel, ont été énoncées il y a plus de 150 ans.

Nul doute que la nouvelle "loi de la nature" énoncée par l'équipe américaine – formée de trois philosophes des sciences, de deux astrobiologistes, d'un spécialiste des données, d'un minéralogiste et d'un physicien théorique – suscitera moult réactions au sein de la communauté scientifique.

"À ce stade du développement de ces idées, un peu comme les premiers concepts au milieu du 19e siècle pour comprendre "l'énergie" et "l'entropie", une discussion ouverte et large est maintenant essentielle", a d'ailleurs commenté dans le communiqué Stuart Kauffman, chercheur à l'Institut de biologie des systèmes (Seattle).

Pour rappel, une théorie n'est "scientifique" que si les principes qui la constituent conduisent à au moins une prédiction suffisamment précise pour pouvoir être testée par une expérience (ou une mesure) susceptible de la réfuter…

Auteur: Internet

Info: https://www.geo.fr, Nastasia Michaels, 16/10/2023

[ panthéisme ] [ panpsychisme ] [ complexification ]

 

Commentaires: 0

Ajouté à la BD par miguel