Citation
Catégorie
Tag – étiquette
Auteur
Info
Rechercher par n'importe quelle lettre



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits... Recherche mots ou phrases tous azimuts... Outil de précision sémantique et de réflexion communautaire... Voir aussi la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats ... Lire la suite >>
Résultat(s): 5398
Temps de recherche: 0.0357s

prospective

Comment l'humain va-t-il évoluer ?

Sélectionnés, réparés, greffés, augmentés... comment les humains vont-ils évoluer ? C'est notre Question de lecteur de la semaine.

"Comment allons-nous évoluer ?", nous demande Kim Fontaine sur notre page Facebook.  

"Il est certain que l’Homme continuera d’évoluer"

Très grande, le front haut, un cerveau énorme et des yeux globuleux. C’est ainsi que la science-fiction représente souvent notre descendance après des centaines de milliers d’années d’évolution. Une autre école la voit, au contraire, inchangée physiquement, car sa puissance technologique l’aura totalement soustraite aux "pressions" de l’environnement. Les deux visions sont également fantasmatiques. "Parce qu’il est impossible de prévoir l’évolution de notre espèce sur des centaines de milliers d’années, insiste Anne-Marie Guihard- Costa, directrice de l’unité Dynamique de l’évolution humaine du CNRS. Sauf à posséder une boule de cristal et connaître les événements – climatiques, épidémiologiques, etc. – qui se produiront d’ici là !"

Depuis l’ère industrielle, les pressions de sélection se sont néanmoins "relâchées". "Elles sont en grande partie contrecarrées par les progrès techniques et médicaux, poursuit la bio-anthropologue, qui ont entraîné en particulier une chute drastique de la mortalité infantile. Mais il est certain que l’Homme continuera d’évoluer."

Quelles sont les tendances prévisibles ? Même si la taille moyenne des populations a augmenté depuis plusieurs siècles grâce à une meilleure hygiène, une alimentation diversifiée ainsi qu’aux vaccinations (les infections ralentissent la croissance), elle se stabilisera sans doute autour de 1,85 mètre pour l’homme. Soumise à des contraintes mécaniques et osseuses, la stature devient en effet un handicap au-delà d’un certain seuil. Il est très peu probable, par ailleurs, que la taille de notre cerveau croisse de façon importante, parce qu’elle est étroitement liée à cette stature et que la bipédie contraint la largeur du bassin : les femmes ne pourraient accoucher de bébés à la trop grande boîte crânienne.

"Nous courons aussi le risque de continuer à grossir"

La taille des mâchoires devrait en revanche se réduire en raison d’une alimentation plus molle. L’augmentation des chevauchements dentaires et le fait qu’un tiers de l’humanité naît sans dents de sagesse résultent déjà de ces changements. "Nous courons aussi le risque de continuer à grossir, souligne Anne-Marie Guihard-Costa. Et pas seulement en raison d’une alimentation trop riche. On sait, à présent, que la pollution joue un rôle dans l’obésité, à travers des perturbateurs endocriniens qui modifieraient le métabolisme hormonal."

Tout aussi attendu, l’accroissement de la longévité. Au milieu des années 1970, l’espérance de vie moyenne était de 75 ans en Europe, avec des phénomènes de vieillissement qui commençaient vers 60 ans. Elle est aujourd’hui de 80 ans, avec une sénescence débutant autour de 75 ans. "La longévité continuera à croître, annonce ainsi Charles Susanne, professeur d’anthropologie et de génétique humaine à l’Université libre de Bruxelles, pour atteindre un pic estimé à 125 ans."

Certains tenants du "transhumanisme", courant de pensée très vivace aux États-Unis, estiment néanmoins que la convergence des nano et biotechnologies, de l’intelligence artificielle et des sciences cognitives permettra de modifier la nature humaine… et même d’échapper à notre condition de mortel ! "Sans tomber dans ce type d’utopie, note Charles Susanne, les avancées technologiques laissent entrevoir un Homme de plus en plus sélectionné génétiquement par la procréation médicalement assistée qui permet d’éliminer les embryons porteurs de maladies. Mais aussi de plus en plus augmenté, réparé, avec une pléiade de greffes et d’organes artificiels connectés entre eux."



 



 

Auteur: Internet

Info: https://www.sciencesetavenir.fr/ -  Franck Daninos, 12 mai 2025

[ homme futur ]

 

Commentaires: 0

Ajouté à la BD par miguel

écologie

La pompe biotique est un phénomène naturel qui a été mis en évidence par des chercheurs. L'étude la plus complète concernant la pompe biotique est celle conduite par une équipe scientifique russe, animée par  Anastassia Makarieva  et  Victor Gorshkov .

Le principe de ce phénomène  tient au mécanisme suivant :

1 Les espaces forestiers ont capables d'augmenter la capacité des sols à absorber l'eau de pluie en comparaison de surfaces faiblement végétalisées ou de simples surfaces agricoles. Les systèmes racinaires des arbres et la matière organique des sols forestiers permettent la pénétration de l'eau dans les terrains qui peuvent alors stocker plus. Dans un champ sans culture (comme souvent en hiver en France) l'eau après une forte pluie s'infiltre moins facilement dans le sol, reste en surface et s'évapore ou ruisselle plus rapidement vers les cours d'eau.

2 Les arbres régulent ensuite le retour de l'eau vers l'atmosphère par évapotranspiration. C'est le résultat d'un processus physico-chimique de la photosynthèse, qui absorbe le gaz carbonique et l'eau pour produire de l'oxygène et les matières organiques de l'arbre, bois et feuillages. Une partie de cette eau pompée du sol échappe à la photosynthèse et retourne à l'atmosphère par les stomates des feuilles ou des épines de résineux.

3 L'évaporation dans l'atmosphère au-dessus des massifs forestiers accentue les phénomènes de condensation et de restitution de la chaleur. Cet effet par conséquent peut créer une zone dépressionnaire sur les massifs.

4 Si le massif forestier se trouve proche d'une façade maritime, la dépression peut être plus importante qu'au-dessus de la mer et engendre donc une circulation de la mer vers l'intérieur des terres, qui peut aller au-delà de la simple brise de mer, phénomène diurne.

5 Si le massif forestier est très étendu, ou si plusieurs massifs forestiers se jouxtent vers l'intérieur des continents, le flux d'air chargé en eau se propage vers l'intérieur des continents, favorisant ainsi le transport de l'eau depuis les mers et océans.

6 Même en cas de masses d'air circulant naturellement des mers vers les terres, les forêts ont cette capacité de recharger l'atmosphère en eau pour la transporter plus loin.

L'ensemble de ce processus est  appelé pompe biotique .

Lorsque l'on procède à de vastes déforestations comme en Amazonie, on désamorce la pompe biotique, les prélèvements diminuent et on peut créer des zones désertiques. C'est ce que l'on observe en Amazonie, ou une diminution du rythme des prélèvements suite à l'abattage à grande échelle de la forêt.

On voit ainsi que la forêt peut influencer le climat en accompagnant le cycle de l'eau et en favorisant les prélèvements.  

 

Auteur: Internet

Info: https://www.terre-du-futur.fr/pompe-biotique-definition/

[ interdépendance ] [ rivières volantes ] [ gaïa ] [ aqua simplex ] [ mécanisme météorologique vertical ] [ refroidissement terrestre ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

stimulation psy

De très faibles doses de LSD pourraient booster le cerveau

Les participants ont profité des avantages de cette drogue sans en percevoir les inconvénients.

(image : Les chercheurs affirment " qu'une complexité neuronale accrue n'est pas nécessaire, ou du moins pas suffisante pour altérer les états de conscience." )

Une nouvelle étude récente suggère que la prise régulière de psychédéliques en très faibles quantités pourrait procurer de nombreux avantages au cerveau, tant au niveau de la humeur que de la puissance cérébrale. Dans leurs recherches publiées dans la revue Neuropsychopharmacology le 29 janvier 2024, des scientifiques américains et allemands ont tenté des expériences de microdosages sur un groupe de vingt-et-un adultes en bonne santé.

Science Altert rappelle que le LSD, qui a été créé accidentellement dans les années 1930, est toujours une drogue interdite. On sait aujourd'hui que le LSD active certains récepteurs de sérotonine dans le cerveau, ce qui complexifie l'activité cérébrale. Cependant, les risques d'altération de la conscience obligent les scientifiques à un jeu d'équilibriste pour parvenir à une solution thérapeutique efficace. L'objectif est d'obtenir les effets positifs en s'affranchissant des problèmes de sécurité et d'éthique associés aux états de conscience altérés que provoquent les psychédéliques. Dans ce cas précis, les résultats ont montré que de faibles doses peuvent améliorer le bien-être à certains égards, notamment en diminuant la perception de la douleur.

Pour leur expérience, les chercheurs ont administré aux participants trois types de microdoses: soit un placebo, soit treize microgrammes de LSD, soit vingt-six microgrammes de LSD. En théorie, aucun de ces dosages n'est censé entraîner d'effets hallucinatoires sur le consommateur.

L'activité cérébrale des participants a ensuite été testée grâce à l'électroencéphalographie, au moment où les effets des drogues étaient censés être les plus forts. Les participants ont également dû remplir un questionnaire pour évaluer s'ils avaient ressenti des changements sur leur niveau de conscience.

Les résultats montrent que la microdose de vingt-six microgrammes de LSD augmentait la complexité neuronale du cerveau d'environ 12% par rapport à un placebo, le tout sans que la conscience des participants ne soit altérée. Ces derniers ont toutefois fait mention de légères augmentations de l'anxiété et d'excitation dans leurs ressentis.

Une expérience répétée sur d'autres drogues

Les chercheurs ont répété l'expérience dans deux autres groupes, en remplaçant les microdoses de LSD par des microdoses de THC dans l'un, et de méthamphétamine dans l'autre. Dans ces expériences, le THC a affecté la conscience des participants, ce qui n'était pas le cas de la méthamphétamine. Toutefois, et même si le THC a modifié le niveau de conscience, la complexité neuronale est restée inchangée. Dans leur rapport, les chercheurs expliquent que ces données permettent de prouver " qu'une complexité neuronale accrue n'est pas nécessaire, ou du moins pas suffisante pour altérer les états de conscience ".

En revanche, il est encore trop tôt pour arriver à une mesure précise et définitive des effets psychédéliques. L'étude en question repose sur un échantillon très restreint, et le neurologue Robin Carhart-Harris avance que des expériences de plus grande envergure sont nécessaires. Selon lui, il est encore trop tôt pour affirmer que des microdoses n'ont aucun impact sur la conscience de chacun. De plus, les risques liés à la consommation de LSD, même s'il s'agit de vingt-six microgrammes, sont encore difficiles à définir avec précision.

Conor Murray, qui a dirigé l'étude, estime aussi que des recherches supplémentaires sont nécessaires. Il espère qu'à l'avenir, l'augmentation de la complexité neuronale que lui et son équipe ont observée puisse se traduire par des solutions thérapeutiques adaptées aux personnes souffrant de troubles cognitifs et comportementaux.



 

Auteur: Internet

Info: https://www.slate.fr/ , Félix Didier - 28 février 2024

[ désinhibition ] [ déverrouillage ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine pensante

Cette IA de Deepmind pourrait révolutionner les maths et " repousser les frontières de la connaissance humaine "

DeepMind vient de frapper un grand coup : le laboratoire d'IA de Google a annoncé en janvier avoir développé AlphaGeometry, une intelligence artificielle révolutionnaire capable de rivaliser avec les médaillés d'or des Olympiades internationales dans la résolution de problèmes de géométrie. Si cela ne vous parle pas, sachez que les médailles Fields - Terence Tao, Maryam Mirzakhani et Grigori Perelman - ont tous les trois été médaillés d'or lors de cette compétition annuelle de mathématiques qui fait s'affronter les meilleurs collégiens et lycéens du monde. Or, AlphaGeometry a résolu avec succès 25 des 30 problèmes de géométrie de l'Olympiade, se rapprochant ainsi du score moyen des médaillés d'or humains. C'est 15 de plus que son prédécesseur. Mais comment les scientifiques de DeepMind ont-ils accompli un tel exploit ?

L'approche neuro-symbolique, la petite révolution de l'IA

AlphaGeometry est le fruit d'une approche neuro-symbolique, combinant un modèle de langage neuronal (MLN) et un moteur de déduction symbolique (MDS).

Les MLN sont des réseaux de neurones artificiels entraînés sur de vastes ensembles de données textuelles. Ils sont capables d'apprendre et de reconnaître des schémas et des structures dans les données textuelles, ce qui leur permet de générer du texte cohérent et de comprendre le langage naturel. Les MDS sont, pour leur part, particulièrement efficaces pour traiter des problèmes qui nécessitent une manipulation formelle des symboles et des règles logiques.

L'approche neuro-symbolique permet de faire travailler ces deux composantes en tandem : dans le cadre d'AlphaGeometry, le MLN prédit des constructions géométriques potentiellement utiles, puis le MDS utilise ces prédictions pour guider la résolution du problème. Cette combinaison offre à l'IA les capacités intuitives des réseaux de neurones et la rigueur logique des moteurs de déduction symbolique, ce qui lui permet de résoudre efficacement des problèmes de géométrie complexes.

Pour surmonter le manque de problèmes mathématiques de niveau Olympiades qui auraient dû servir de données d'entraînement à AlphaGeometry, les chercheurs ont développé une méthode innovante de génération de données synthétiques à grande échelle, permettant au génial bébé de DeepMind de s'entraîner sur un ensemble de 100 millions d'exemples uniques.

(Image : Alphageometry résoud un problème simple...) 

Mission : repousser les frontières de la connaissance

Cette réalisation marque une avancée significative dans le développement de systèmes d'IA capables de raisonner et de résoudre des problèmes mathématiques complexes, rapportent les chercheurs de DeepMind dans un article paru dans Nature en février dernier. Bien que présentant des résultats impressionnants, AlphaGeometry se heurte tout de même à quelques défis, notamment celui de s'adapter à des scénarios mathématiques de plus en plus complexes et à mobiliser ses compétences dans des domaines mathématiques autres que la géométrie. 

Malgré tout, cette avancée ouvre la voie à d'extraordinaires possibilités dans les domaines des mathématiques, des sciences et de l'IA. Ses créateurs ne cachent d'ailleurs pas leur ambition : " Notre objectif à long terme reste de construire des IA capables de transférer leurs compétences et leurs connaissances dans tous les domaines mathématiques en développant la résolution de problèmes et le raisonnement sophistiqués dont dépendront les systèmes d'IA généraux ", assènent Trieu Trinh et Thang Luong, les responsables du projet dans un communiqué. 

Le ton est donné : autrement dit, les systèmes d'IA développés par DeepMind doivent acquérir des capacités de résolution de problèmes sophistiquées et de raisonnement, ce qui implique la capacité à identifier des schémas, à formuler des hypothèses, à déduire des conclusions et à prendre des décisions logiques dans des contextes variés. Le tout en " repoussant les frontières de la connaissance humaine ". Très ambitieux, mais peut-être pas impossible.

Auteur: Internet

Info: https://www.futura-sciences.com/ - mars 2024

[ robot intelligent ] [ historique ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

astrophysique

Une exoplanète tout juste découverte stupéfie les astronomes : "Le système le plus bizarre de tous les temps"

Elle s'appelle 2M1510 (AB) b et son nom n'est pas le seul élément étonnant de cette découverte purement fortuite.

(Image : En bleu, les trajectoires des deux étoiles du système. En orange, la trajectoire de la planète en question.)

On en connaît certaines avec des vents supersoniques, d’autres en forme de ballon de rugby, voire régulièrement arrosées de pluie de verre à l’horizontale (oui oui). Mais cette fois, les chercheurs des universités de Birmingham, Cambridge, Paris et Coimbra ont découvert une exoplanète " d’un genre inconnu ", comme ils le disent eux-mêmes. 

Nommée 2M1510 (AB) b, elle regroupe plusieurs caractéristiques extrêmement rares. Couplées, cela donne un cocktail encore jamais vu par l’être humain. L’observatoire européen austral (ESO), n’hésite pas à qualifier la découverte de « système planétaire le plus bizarre de tous les temps ». 

De surprises en surprises

Contrairement à la Terre, qui ne dispose que d’une étoile (notre Soleil), 2M1510 (AB) b orbite autour de deux étoiles, comme Tatooine dans Star Wars. Ce n’est pas inédit en soi, mais c’est assez rare pour être signalé : on a à peine confirmé l’existence d’une vingtaine de planètes à double étoiles dans tout ce qui a déjà été observé.

De plus, les deux étoiles en question, 2M1510 A et 2M1510 B, sont des naines brunes. Il s’agit d’objets plus grands que des planètes géantes gazeuses comme Jupiter, mais trop petits pour être des étoiles proprement dites comme notre Soleil.

En résumé : elles ne produisent que très peu de chaleur (toutes proportions gardées) et n’émettent pas beaucoup de lumière. Vulgairement, on peut parfois les qualifier d’étoiles " ratées ". Même avec deux " soleils ", pas de flamboyant double lever du jour sur 2M1510 (AB) b.

D’ailleurs, regardées depuis la Terre, les deux naines brunes s’éclipsent régulièrement l’une l’autre, formant ainsi ce que les astronomes appellent une binaire à éclipses. 

Dit comme ça, cela paraît très technique. Et ça l’est. Eh bien si, en plus, on vous disait qu’il y a une troisième caractéristique quasiment jamais vue par l’être humain. 

On le sait, la Terre tourne autour du Soleil sur un axe quasi horizontal, l’équateur. C’est le cas de la plupart des planètes et exoplanètes découvertes à ce jour. 

Eh bien 2M1510 (AB) b, elle, orbite plus ou moins à la verticale. On parle d’orbite " polaire ", et c’est la première fois qu’une exoplanète avec une telle orbite est observée autour d’un système binaire de naines brunes.

Ce système est incroyablement rare : il s'agit seulement de la deuxième paire de naines brunes à éclipses connue à ce jour, et il contient la première exoplanète jamais découverte sur une trajectoire perpendiculaire à l'orbite de ses deux étoiles hôtes. Les auteurs de Evidence for a polar circumbinary exoplanet orbiting a pair of eclipsing brown dwarfsDans le communiqué de presse de l'ESO, observatoire européen austral

Découverte fortuite 

" Une planète en orbite non seulement autour d’un système binaire, mais d’un système binaire composé de deux naines brunes, et qui plus est sur une orbite polaire, c’est vraiment incroyable et passionnant ", s’enthousiasme Amaury Triaud, co-auteur de l’étude et professeur à l’Université de Birmingham.

Enthousiasme d’autant plus compréhensible quand on sait que la découverte a été faite de manière fortuite, alors que les scientifiques ne cherchaient pas du tout une telle planète ou une telle configuration orbitale.

Reste maintenant à étudier toutes les données possibles pour mieux comprendre ce système d’un nouveau genre.

Auteur: Internet

Info: https://actu.fr/, Martin Leduc, 16 avril 2025

[ autre monde ] [ insolite ] [ sérendipité ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

dépassements des savoirs

Les expériences de pensée (ou Gedankenexperimente) sont des dispositifs intellectuels mobilisant l'imagination pour explorer des hypothèses, tester des théories ou révéler des paradoxes. Elles s'appuient sur des scénarios fictifs, souvent contre-intuitifs, pour éprouver la cohérence interne des concepts ou anticiper les implications d'une théorie. Leur objectif n'est pas de produire des données empiriques, mais de clarifier des raisonnements ou d'exposer des contradictions cachées.

Origines et évolution historique

1  Antiquité :

- Platon utilise des récits mythiques (comme l'allégorie de la caverne) pour illustrer des idées abstraites.

- Aristote imagine des situations hypothétiques pour discuter du mouvement ou du vide.

2  Renaissance et révolution scientifique :

- Galilée formalise des expériences de pensée pour contourner les limites technologiques de son époque. Exemple : Sa célèbre démonstration sur la chute des corps (deux masses liées tombant dans le vide) invalide la physique aristotélicienne.

- Newton et Descartes recourent à des scénarios imaginaires pour expliquer l'inertie ou l'infini.

3  Époque moderne et contemporaine :

- Einstein utilise des expériences de pensée pour conceptualiser la relativité (ex. : l'ascenseur en accélération).

- Philosophie analytique : Les penseurs comme Hilary Putnam (expérience de la Terre Jumelle sur la sémantique) ou John Searle (chambre chinoise sur l'intelligence artificielle) en font un outil central.

Fonctions épistémologiques

Les expériences de pensée remplissent plusieurs rôles selon les contextes :

1 Critique interne : Détecter des incohérences dans une théorie (ex. : le dilemme de l'âne de Buridan).

2 Exploration conceptuelle : Clarifier des notions complexes (ex. : le vaste de cerveau de Hilary Putnam pour discuter du réalisme).

3 Argument rhétorique : Rendre tangible une idée abstraite (ex. : le violoniste de Judith Jarvis Thomson en éthique).

4 Innovation théorique : Stimuler de nouvelles hypothèses (ex. : le chat de Schrödinger en mécanique quantique).

Exemples emblématiques

Domaine                             Expérience                                 Enjeu

Physique                             Ascenseur d'Einstein                   Relativité générale

Philosophie de l'esprit         Zombies de Chalmers                 Hard problem de la conscience

Éthique                               Trolley de Foot/Thomson             Moralité des choix utilitaristes

Métaphysique                     Navette de Teletransportation      Identité personnelle et continuité du soi

SémantiqueTerre                Jumelle (Putnam)                         Externalisme linguistique

Débats contemporains

1 Validité épistémique :

Les critiques (comme Kathleen Wilkes) soulignent leur dépendance à des intuitions culturellement biaisées.

Les défenseurs (comme James Robert Brown) insistent sur leur rôle heuristique irremplaçable.

2 Définition :

Faut-il limiter les expériences de pensée aux sciences a priori (mathématiques, logique) ?

Comment distinguer les expériences de pensée des fictions philosophiques ou des paraboles ?

3 Interdisciplinarité :

Utilisation en économie (ex. : main invisible de Smith), en droit (ex. : voile d'ignorance de Rawls), ou en psychologie morale.

Conclusion

Les expériences de pensée demeurent un outil fondamental pour la philosophie et les sciences, malgré leurs limites. Elles illustrent la puissance de l'abstraction et de l'imagination rationnelle, tout en suscitant des questions sur la nature de la connaissance et des concepts. Leur étude invite à une réflexion métaphilosophique sur les méthodes de la pensée critique.



 

Auteur: Internet

Info: https://encyclo-philo.fr/experiences-de-pensee-a - synthèse par Deepseek et Mg.

[ histoire des sciences ] [ paliers ] [ classification ] [ expérience de pensée ] [ élargissement ] [ échelles mélangées ] [ superpositions ] [ distanciation ]

 

Commentaires: 0

Ajouté à la BD par miguel

médecine

Des cancers peuvent être induits par des modifications épigénétiques, sans mutations de l’ADN 

Des chercheurs français ont montré chez des drosophiles que des facteurs épigénétiques peuvent provoquer des cancers, sans mutation de l’ADN. Leurs travaux sont publiés dans la revue Nature.

L’épigénétique est l’étude des mécanismes qui permettent à une même séquence d’ADN d’avoir une expression génique différente et de transmettre ces états fonctionnels différentiels aux cellules filles.

" Dans notre laboratoire, nous étudions comment des facteurs épigénétiques interagissent dans le développement et comment ils contribuent à maintenir un organisme en bonne santé ", indique Giacomo Cavalli, directeur de recherche au CNRS, à l’institut de génétique humaine de Montpellier.

Son équipe s’est notamment penchée sur l’étude de cancers chez la drosophile, un modèle animal qui détient la plupart des gènes importants chez l’humain.

Depuis plus de 30 ans, la théorie communément admise suppose que les cancers sont dus à des mutations de l’ADN. Mais ces 15 dernières années, les chercheurs se sont rendus compte qu’il était parfois difficile voire impossible de trouver des mutations à qui la cause du cancer pouvait être attribuée, en particulier pour les métastases. Ils se sont donc intéressés à d’autres causes, notamment aux mutations épigénétiques.

Des facteurs de transcription s’activent, activent la transcription des gènes et cela crée une sorte de spirale qui ne s’arrête plus

Pas besoin de mutation de l’ADN pour induire un cancer

" Nous nous sommes demandés si, en l’absence de mutation de l’ADN, il n’y aurait jamais de tumeurs. Chez l’insecte, nous pouvons induire des mutations et réduire ou augmenter les niveaux d’expression d’un facteur souhaité. Nous l’avons fait avec des protéines connues pour jouer un rôle de suppresseur de tumeurs, comme les protéines appelées " Polycomb ", détaille le chercheur.

Son équipe a réduit pendant 24 heures les niveaux d’expression de ces facteurs à un stade donné de développement et dans un tissu donné, le tissu précurseur de l’œil. " Lorsqu’on retire ces facteurs, même pendant un temps court, on constate déjà que des gènes sont déréglés. Ce sont les mêmes qui sont déréglés dans les tumeurs. Nous avons alors regardé ce qui se passait si on établissait à nouveau les niveaux normaux de protéines Polycomb dans les cellules : beaucoup de gènes déréglés sont revenus à leur état normal, mais une partie est restée surexprimée de manière irréversible, même si les protéines répressives étaient revenues ", développe-t-il.

Cela ouvre des perspectives de traitements, si on peut inhiber les facteurs qu’on aura identifiés comme la cause de ces cancers

Perspectives de traitements

En étudiant de plus près les raisons de ce phénomène, les chercheurs ont observé que ces gènes mettaient en place un circuit d’activation qui s’auto-maintenait. " Des facteurs de transcription s’activent, activent la transcription des gènes et cela crée une sorte de spirale qui ne s’arrête plus ", commente Giacomo Cavalli.

"Nous avons ainsi montré qu’il n’y avait pas besoin de mutation de l’ADN pour induire un cancer ".

Les scientifiques vont désormais poursuivre leurs recherches en menant des expériences similaires avec des cellules de rongeurs ou humaines en culture et en continuant les études chez l’insecte pour observer la naissance de ces cancers épigénétiques.

* Nous pouvons mener des études très fines, en isolant de toutes petites quantités de cellules qui commencent à proliférer. On peut ensuite étudier les gènes qui se surexpriment pour mettre en lumière toute la chaîne des mécanismes moléculaires qui est déréglée. Cela ouvre des perspectives de traitements, si on peut inhiber les facteurs qu’on aura identifiés comme la cause de ces cancers ", espère-t-il.

Auteur: Internet

Info: https://francais.medscape.com/ - Anne-Gaëlle Moulun, 2 mai 2024

[ cause-effet ] [ amorçage ] [ début ] [ déclic ] [ épithéliome ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-machine

L'IA n'a rien à voir avec un cerveau, et c'est normal

L’étonnante diversité cellulaire et la complexité du réseau du cerveau pourraient montrer comment améliorer l’IA.

L’intelligence artificielle (IA) fascine, tant elle semble incarner le rêve prométhéen de reproduire la pensée humaine. Pourtant, à l’aune des dernières découvertes, il apparaît que l’IA n’est en rien le miroir fidèle du cerveau, et que cette divergence n’est pas un défaut, mais une promesse.


La complexité vivante du cerveau

Le cerveau, ce prodige d’ingénierie biologique, se compose d’une mosaïque de neurones dont la diversité confine à l’infini. Chacun, unique dans sa forme, sa fonction, sa chimie, tisse un réseau où l’information circule sous des formes multiples : signaux électriques, fréquences, forces, analogies subtiles. Là où une simple extension du corps d’un ver active une centaine d’entrées et de sorties pour exprimer la nuance d’une sensation, le cerveau humain orchestre, à travers cent mille milliards de connexions, la mémoire, l’émotion, le mouvement, le rêve, la veille et la régulation du corps tout entier. Cette symphonie se joue à toutes les échelles, du neurone isolé jusqu’aux réseaux qui embrassent l’organisme, modulée par des substances chimiques qui adaptent en permanence l’état du système à l’environnement, à l’émotion, au stress, à la faim.

La caricature numérique de l’IA

Face à cette luxuriance, l’IA oppose la simplicité de ses " neurones " artificiels, qui ne sont que des abstractions mathématiques, des nœuds d’un réseau où l’information se réduit à des 1 et des 0, à des poids ajustés par l’apprentissage. Si le perceptron, ancêtre des réseaux neuronaux, a permis à la machine d’apprendre, il demeure une caricature du vivant : il ne connaît ni la diversité, ni la plasticité, ni la profondeur du cerveau. Les réseaux modernes, même les plus profonds, ne sont que des empilements d’opérations algébriques, dépourvus de la dynamique organique et de la capacité d’adaptation continue du cerveau humain.

Des inspirations croisées, mais des mondes séparés

Certes, l’IA s’est nourrie des avancées en neurosciences : la découverte des couches successives du cortex visuel a inspiré les réseaux convolutifs, capables de reconnaître des formes dans les images. Mais là où le cerveau apprend en interaction avec le monde, intégrant expérience, émotion, et sens, l’IA apprend par ingestion massive de données, sans compréhension réelle, sans conscience, sans subjectivité. Elle excelle dans des tâches précises - reconnaître un visage, battre un champion d’échecs - mais demeure incapable de raisonner, de généraliser, d’inventer comme le ferait un enfant ou même un animal simple.

Vers une hybridation féconde ?

Pourtant, l’écart n’est pas une impasse. Certains chercheurs tentent d’introduire dans l’IA des éléments de diversité, de plasticité, ou de modulation inspirés de la biologie, espérant ainsi améliorer la capacité d’apprentissage ou l’efficacité énergétique des machines. D’autres, à rebours, utilisent l’IA comme modèle pour comprendre le cerveau, dans un jeu de miroirs où chaque système éclaire l’autre, malgré leurs différences fondamentales.

Conclusion : deux intelligences, deux promesses

En définitive, IA et cerveau ne sont pas les deux faces d’une même pièce, mais deux architectures de l’intelligence, chacune avec ses forces et ses limites. L’IA, loin d’être un cerveau de silicium, est un nouvel objet de pensée, un outil qui prolonge nos capacités sans jamais les égaler ni les imiter parfaitement. Accepter cette altérité, c’est ouvrir la voie à une compréhension plus fine du vivant comme de la machine, et à une coévolution fertile entre biologie et technologie.

Auteur: Internet

Info: Quanta Magazine, Yasemin Saplakoglu, 30 avril 2025

[ comparaison ]

 

Commentaires: 0

Ajouté à la BD par miguel

neuroscience

On sait enfin pourquoi le cerveau consomme autant d'énergie

La faute a des petites pompes "cachées". 

Les scientifiques le savent: le cerveau humain est une véritable machine insatiable en énergie. Au total, il en engloutit jusqu'à 10 fois plus que le reste du corps. Et même lorsque nous nous reposons, 20% de notre consommation de carburant est directement utilisé pour son fonctionnement. Un phénomène inexpliqué sur lequel nombre de scientifiques se sont cassés les dents. Jusqu'à aujourd'hui.

Publiée dans la revue Science Advances, une nouvelle étude explique l'origine du processus. Un processus qui se déroule dans ce que l'on appelle les vésicules synaptiques.

Entre deux neurones se trouve une synapse, zone qui assure la transmission des informations entre ces deux cellules nerveuses. Quand un signal est envoyé d'un neurone à un autre, un groupe de vésicules aspire les neurotransmetteurs à l'intérieur du premier neurone, au bout de sa queue. Le message est ainsi bien enveloppé, comme une lettre prête à être postée.

L'information est ensuite amenée jusqu'au bord du neurone, où elles fusionne avec la membrane, avant de relâcher les neurotransmetteurs dans la fameuse synapse. Dans cette zone, les neurotransmetteurs finissent leur course en entrant en contact avec les récepteurs du deuxième neurone. Et hop! Le message est passé.

Facile direz-vous. Certes, mais tout ceci nécessite beaucoup d'énergie cérébrale, ont découvert les scientifiques. Et ce, que le cerveau soit pleinement actif ou non.

En effectuant plusieurs expériences sur les terminaisons nerveuses, les membres de l'étude ont observé le comportement de la synapse lorsqu'elle est active ou non. Résultat: même quand les terminaisons nerveuses ne sont pas stimulées, les vésicules synaptiques, elles, ont toujours besoin de carburant. La faute à une sorte de petite pompe "cachée" qui est notamment en charge de pousser les protons hors de la vésicule. Chargée de pousser les protons hors de la vésicule et d'aspirer ainsi les neurotransmetteurs elle ne semble jamais se reposer et a donc besoin d'un flux constant d'énergie. En fait, cette pompe "cachée" est responsable de la moitié de la consommation métabolique de la synapse au repos.

Selon les chercheurs, cela s'explique par le fait que cette pompe a tendance à avoir des fuites. Ainsi, les vésicules synaptiques déversent constamment des protons via leurs pompes, même si elles sont déjà pleines de neurotransmetteurs et si le neurone est inactif.

Étant donné le grand nombre de synapses dans le cerveau humain et la présence de centaines de vésicules synaptiques à chacune de ces terminaisons nerveuses, ce coût métabolique caché, qui consiste à conserver les synapses dans un état de "disponibilité", se fait au prix d'une importante dépense d'énergie présynaptique et de carburant, ce qui contribue probablement de manière significative aux exigences métaboliques du cerveau et à sa vulnérabilité métabolique", concluent les auteurs.

Des recherches supplémentaires sont nécessaires pour déterminer comment les différents types de neurones peuvent être affectés par des charges métaboliques aussi élevées, car ils ne réagissent pas tous de la même manière.

Certains neurones du cerveau, par exemple, peuvent être plus vulnérables à la perte d'énergie, et comprendre pourquoi pourrait nous permettre de préserver ces messagers, même lorsqu'ils sont privés d'oxygène ou de sucre.

"Ces résultats nous aident à mieux comprendre pourquoi le cerveau humain est si vulnérable à l'interruption ou à l'affaiblissement de son approvisionnement en carburant", explique le biochimiste Timothy Ryan, de la clinique Weill Cornell Medicine à New York.

"Si nous avions un moyen de diminuer en toute sécurité cette fuite d'énergie et donc de ralentir le métabolisme cérébral, cela pourrait avoir un impact clinique très important." 

Auteur: Internet

Info: Science Advances, 3 déc 2021

[ cervelle énergivore ]

 

Commentaires: 0

Ajouté à la BD par miguel

exomonde

Cassini livre de nouvelles informations sur l’océan liquide de Titan

(Photo : La plus grande lune de Saturne, Titan, visible aux côtés de la planète et de ses anneaux.")

Lancée en 1997, la sonde spatiale Cassini-Huygens de la NASA a passé 20 ans à explorer le système saturnien avant de plonger dans l’atmosphère de la géante gazeuse en 2017. Bien que terminée, la mission continue de fournir des données cruciales sur Saturne et ses lunes. Les informations recueillies sur Titan, la plus grande lune de Saturne, révèlent notamment de nouveaux détails sur ses océans d’hydrocarbures.

Un monde fascinant

Titan, la plus grande lune de Saturne, est un monde unique dans notre système solaire. Avec un diamètre d’environ 5 150 kilomètres, elle est plus grande que la planète Mercure et est la seule lune connue à posséder une atmosphère dense. Cette dernière est composée principalement d’azote, avec une petite quantité de méthane. Elle réunit des conditions météorologiques semblables à celles de la Terre, avec des vents et des pluies, mais à base de méthane.

Titan est particulièrement intéressante pour les scientifiques en raison de ses vastes lacs et mers d’hydrocarbures principalement composés de méthane et d’éthane, ainsi que de ses possibilités de chimie prébiotique qui pourrait fournir des indices sur les origines de la vie.

Grâce aux données radar collectées par Cassini il y a plusieurs années, une équipe d’astronomes de l’Université Cornell a récemment analysé ces réserves d’hydrocarbures.

Dans le détail, grâce à un " radar balistique ", l’équipe de Cassini avait dirigé un faisceau radio vers Titan qui avait ensuite été réfléchi vers la Terre. Ces opérations, réalisées lors de quatre survols entre 2014 et 2016, avaient alors permis de collecter des données précieuses sur l’océan polaire de cette lune de Saturne. Plus précisément, en examinant les réflexions de surface lorsque Cassini s’approchait et s’éloignait de Titan, les chercheurs ont pu déduire la composition et la rugosité des mers.

Des mers calmes de méthane

Les données collectées lors de cette opération ont aujourd’hui révélé que les mers de Titan, notamment Kraken Mare, Ligeia Mare et Punga Mare, sont étonnamment calmes avec des vagues ne dépassant pas 5,2 millimètres.

Cette tranquillité, que les examens antérieurs n’avaient pas révélée, ouvre de nouvelles perspectives sur la dynamique des mers d’hydrocarbures de Titan. De plus, les observations ont montré que la composition des couches superficielles des mers varie en fonction de la latitude et de l’emplacement. Par exemple, les données radar ont indiqué que les régions méridionales de Kraken Mare réfléchissent particulièrement bien les signaux radar, ce qui pourrait être dû à des variations dans la composition chimique ou à des différences dans la rugosité de la surface.

Les données montrent également que les rivières qui alimentent les mers de Titan sont composées de méthane pur jusqu’à leur embouchure, où elles se mélangent à l’éthane des mers. Ce phénomène est similaire à celui observé sur Terre, où les rivières d’eau douce se mélangent à l’eau salée des océans.

Ces découvertes confirment enfin les modèles météorologiques de Titan qui prédisent des pluies principalement composées de méthane avec de petites quantités d’éthane et d’autres hydrocarbures.

L’équipe de Cornell continue de travailler avec les vastes données collectées par Cassini au cours de ses treize années d’étude sur Titan, ce qui promet de nouvelles découvertes à venir.

Les informations recueillies pourraient également avoir des implications pour la recherche de vie extraterrestre. Les océans d’hydrocarbures de Titan offrent en effet un environnement unique pour étudier les processus chimiques et les conditions qui pourraient soutenir la vie.



 

Auteur: Internet

Info: https://sciencepost.fr/, Brice Louvet, 22 juillet 2024

[ exoplanète ] [ exo-monde ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste