Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après une recherche complexe. Et utilisez le nuage de corrélats !!!!.....
Lire la suite >>
Résultat(s): 5201
Temps de recherche: 0.0422s
homme-machine
Comment utiliser la théorie des jeux au profit de la collaboration entre l'humain et le robot ?
Et si les robots pouvaient travailler avec nous afin de nous permettre d'effectuer des activités, telles qu'un entraînement sportif ou une rééducation physique ? Afin de nous aider à atteindre nos objectifs, ils auraient besoin de comprendre nos actions et d'adapter leur comportement en conséquence. Même si les robots sont de plus en plus utilisés dans plusieurs domaines, en allant de la fabrication à la chirurgie médicale, ils ne peuvent pas réagir de manière optimale aux utilisateurs individuels.
Partiellement soutenus par le projet CoglMon financé par l'UE des scientifiques ont répondu à ce défi en adaptant la théorie des jeux pour analyser l'interaction physique entre un robot et un humain. Leur recherche a été récemment publiée dans la revue "Nature Machine Intelligence". Un article de l'Imperial College London résume le cadre théorique de cette étude: "Pour appliquer avec succès la théorie des jeux à leur interaction les chercheurs ont dû résoudre le fait que le robot ne puisse pas prédire les intentions de l'humain seulement par le raisonnement."
Apprendre le comportement humain
L'équipe de recherche a examiné de quelle manière "devrait être contrôlé un robot de contact pour apporter une réponse stable et adaptée à un utilisateur au comportement inconnu qui effectue des mouvements au cours d'activités, telles que l'entraînement sportif, la rééducation physique ou le covoiturage." Il est déclaré dans l'article de l'Imperial College London que l'équipe s'est intéressée à "la différence entre ses mouvements attendus et ses mouvements réels pour estimer la stratégie humaine comment l'humain utilise les erreurs dans une tâche pour générer de nouvelles actions." Et il est ajouté que: "Par exemple, si la stratégie de l'humain ne leur permet pas d'accomplir cette tâche, le robot peut fournir davantage d'efforts pour les aider. Apprendre au robot à prédire la stratégie de l'humain lui fait changer sa propre stratégie en retour."
Les scientifiques ont testé leur cadre dans des simulations et des expérimentations avec des sujets humains. Ils ont démontré "que le robot peut s'adapter quand la stratégie de l'humain change lentement, comme si l'humain récupérait de la force, et quand la stratégie de l'humain change et est incohérente, comme après une blessure", selon le même article.
Le projet CogIMon (Cognitive Interaction in Motion) a été mis en place pour modifier "la façon dont les robots interagissent avec les humains en introduisant des robots plus faciles à utiliser, qui sont plus flexibles et plus dociles, et qui apprennent davantage", comme expliqué sur le site web du projet. "Le projet CoglMon vise un changement par étape dans l'interaction entre le robot et l'humain vers une intégration systémique de capacités d'interaction robustes et fiables pour des équipes d'humains et de robots dociles, en particulier l'humanoïde docile COMAN."
Il est également indiqué que, pour atteindre son objectif, le projet utilise "des démonstrations évoluées, en situation réelle, de prise et de lancer dociles interactifs, faites par un robot, une interaction avec COMANS sous le changement de contact et de composition de l'équipe, et dans un modèle entièrement porté par l'ingénierie de manipulation à multi-bras."
Le robot COmpliant HuMANoid Platform (COMAN) a été mis au point dans le cadre du projet FP7 AMARSi (Adaptive Modular Architecture for Rich Motor Skills) qui s'est déroulé entre 2010 et 2014. Grâce à sa robustesse physique il peut marcher et garder l'équilibre et il est entièrement autonome d'un point de vue énergétique comme expliqué sur le site web du projet AMARSi.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://www.techno-science.net, Redbran, 04/03/2019
[
dialogue
]
[
intelligence artificielle
]
proto-eucaryote
Des scientifiques découvrent "par hasard" que la vie sur Terre est beaucoup plus ancienne qu'on ne le pensait auparavant
Une rencontre fortuite dans une région reculée de l'Australie et des années d'analyse minutieuse ont permis de repousser de 750 millions d'années les preuves de l'apparition d'une vie complexe sur la planète.
Le Dr Erica Barlow, géobiologiste à l'université de Nouvelle-Galles du Sud (UNSW), a découvert une nouvelle façon de comprendre comment la vie s'est formée sur la planète en analysant une roche qu'elle avait posée sur son bureau.
Barlow a trouvé cette roche lors d'une excursion dans l'arrière-pays de l'Australie occidentale il y a une dizaine d'années.
Elle a étudié les stromatolites dans le cadre de son projet de recherche de premier cycle et a passé ses journées dans la région de Pilbara à cartographier la zone et à analyser les structures rocheuses. Barlow rentrait au camp lorsqu'une petite pierre noire et brillante reflétant la lumière du soleil a attiré son attention. Elle se détachait du paysage rouge et il l'a ramassée en souvenir de son voyage.
La roche mystérieuse cache des secrets.
La roche est restée sur le bureau de Mme Barlow au Centre australien d'astrobiologie pendant plusieurs mois, alors qu'elle travaillait sur son projet sur les stromatolithes. Son superviseur à l'UNSW, le professeur associé Martin Van Kranendonk, a vu la roche - connue sous le nom de chert noir - et l'a encouragée à rechercher des microfossiles à l'intérieur. Ce qu'Erica a vu l'a choquée.
La plupart des microfossiles ont la forme de longs filaments, mais ce fossile était rond.
"Le microfossile que j'ai trouvé n'existait pas dans les archives géologiques", explique Barlow. "Il s'agissait d'un type de vie totalement nouveau".
Le grand événement d'oxydation et le développement de la vie sur Terre
La datation indépendante des couches rocheuses entourant le chert noir encastré suggère que les microfossiles ont environ 2,4 milliards d'années.
Cette estimation de l'âge coïncide avec le "Grand événement d'oxydation" : un tournant volatil dans l'histoire de la Terre au cours duquel les niveaux d'oxygène à la surface de la planète ont augmenté de façon spectaculaire et irréversible.
Barlow explique que l'augmentation soudaine et unique de l'oxygène a été théoriquement liée au développement de toute vie complexe sur Terre, mais que rien dans les archives fossiles ne prouvait cette théorie - jusqu'à aujourd'hui...
La seule forme de vie connue qui existait avant le Grand Événement d'Oxydation était " procaryotique " : des organismes simples, unicellulaires et sans noyau, comme les bactéries.
Cependant, la forme relativement complexe et la grande taille du fossile découvert par le Dr Barlow suggèrent que sa forme de vie pourrait avoir été une première étape vers une forme de vie " eucaryote ", c'est-à-dire une forme de vie complexe, généralement multicellulaire, dotée d'un noyau.
"Nous avons montré la première preuve fossile directe reliant l'évolution de l'environnement pendant la Grande Oxydation à une augmentation de la complexité de la vie", déclare Barlow. "Cela montre une avancée dans l'organisation de la vie à cette époque".
Cet événement est parfois appelé la " catastrophe de l'oxygène ", catastrophique pour de nombreuses formes de vie à l'époque, qui avaient besoin d'environnements pauvres en oxygène pour survivre.
Si les recherches futures confirment cette théorie, ce fossile serait la plus ancienne preuve connue d'une vie complexe sur Terre, mais il faudra sans doute attendre un certain temps avant que la technologie ne permette de l'évaluer.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://www.tameteo.com/,Joana Campos, 11. 7. 2024
[
palier
]
[
abiotique
]
[
biotique
]
[
proto-vie
]
[
changement phylétique
]
[
radiations adaptatives
]
[
pressions de sélection
]
data élagage
IA : Cette technique oubliée du 18e siècle rend le Deep Learning inutile
Et si le deep learning devenait inutile au développement de l’intelligence artificielle ? Cette technique oubliée du 18e siècle pourrait le remplacer.
Jusqu’à maintenant, le deep learning ou l’apprentissage profond est présenté comme un processus essentiel au développement de l’intelligence artificielle. Il consiste à entraîner les grands modèles de langage (LLM) avec un énorme volume de données. Mais des chercheurs finlandais avancent que le deep learning pourrait devenir inutile.
Ces chercheurs font partie d’une équipe de l’université de Jyväskylä qui effectue des travaux sur les techniques de développement de l’intelligence artificielle. Ils ont publié le mois dernier, dans la revue Neurocomputing, un papier intéressant sur une ancienne méthode mathématique du 18e siècle.
Cette technique est plus simple et plus performante que l’apprentissage profond, défendent les auteurs dans leur papier. Notons que cette conclusion constitue l’aboutissement de six années de recherche.
Il faut que le deep learning devienne inutile…
Le deep learning s’apparente aux techniques d’intelligence artificielle exploitant massivement des données et des ressources informatiques. Celles-ci servent à entraîner des réseaux neuronaux pour avoir des LLM. Rappelons que ces derniers se trouvent au cœur des IA génératives comme le populaire Chat-GPT.
Mais il ne faut pas croire que l’apprentissage profond est infaillible. Le volume des données à traiter en fait une méthode complexe et souvent sujette à des erreurs. Cela impacte significativement les performances des modèles génératifs obtenus.
En effet, la complexité du deep learning se retrouve dans la structure d’un LLM (large miodèle de langage). Cela peut instaurer une boîte noire sur le mécanisme du modèle IA. Dans la mesure où son fonctionnement n’est pas maîtrisé, les performances ne seront pas au rendez-vous. L’opacité du mécanisme IA peut même exposer à des risques.
Des modèles IA performants sans deep learning
L’équipe de l’université de Jyväskylä travaille ainsi depuis six ans sur l’amélioration des procédés d’apprentissage profond. Leurs travaux consistaient notamment à explorer la piste de la réduction des données. L’objectif est de trouver un moyen pratique pour alimenter les LLM sans pour autant les noyer de données.
Les auteurs de la recherche pensent avoir trouvé la solution dans les applications linéaire et non-linéaire. Il s’agit d’un concept mathématique dont le perfectionnement a eu lieu du 17e au 18e siècle. Celui-ci s’appuie principalement sur la combinaison des fonctions et des équations différentielles.
Les applications linéaire et non-linéaire permettent ainsi de générer un nouvel ordre de modèles de langage. Il en résulte des LLM avec une structure beaucoup moins complexe. Par ailleurs, son fonctionnement ne requiert pas un énorme volume de données. Cela n’a pourtant aucun impact négatif sur la performance.
Les mathématiques du 18e siècle pour moderniser l’IA…
L’importance de l’intelligence artificielle dans la technologie moderne augmente rapidement. La compréhension et la vraie maîtrise des grands modèles de langage deviennent indispensables. Les chercheurs finlandais pensent que leur nouvelle méthode peut résoudre certains problèmes en lien avec le développement de l’intelligence artificielle.
En effet, plus le développement de l’IA sera simple et transparent, il sera davantage facile d’envisager son utilisation éthique. L’accent est également mis sur la dimension écologique du nouveau procédé. Des LLM plus simples requièrent beaucoup moins de ressources informatiques et sont moins énergivores.
Néanmoins, les chercheurs craignent le scepticisme des actuels principaux acteurs de l’IA. "Le deep learning occupe une place si importante dans la recherche, le développement de l’intelligence artificielle (…) Même si la science progresse, la communauté elle-même peut se montrer réticente au changement", explique l’un des auteurs de la recherche.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://www.lebigdata.fr/, Magloire 12 octobre 2023
[
limitation de la force brute
]
[
vectorisation sémantique
]
[
émondage taxonomique
]
écologie
La pompe biotique est un phénomène naturel qui a été mis en évidence par des chercheurs. L'étude la plus complète concernant la pompe biotique est celle conduite par une équipe scientifique russe, animée par Anastassia Makarieva et Victor Gorshkov .
Le principe de ce phénomène tient au mécanisme suivant :
1 Les espaces forestiers ont capables d'augmenter la capacité des sols à absorber l'eau de pluie en comparaison de surfaces faiblement végétalisées ou de simples surfaces agricoles. Les systèmes racinaires des arbres et la matière organique des sols forestiers permettent la pénétration de l'eau dans les terrains qui peuvent alors stocker plus. Dans un champ sans culture (comme souvent en hiver en France) l'eau après une forte pluie s'infiltre moins facilement dans le sol, reste en surface et s'évapore ou ruisselle plus rapidement vers les cours d'eau.
2 Les arbres régulent ensuite le retour de l'eau vers l'atmosphère par évapotranspiration. C'est le résultat d'un processus physico-chimique de la photosynthèse, qui absorbe le gaz carbonique et l'eau pour produire de l'oxygène et les matières organiques de l'arbre, bois et feuillages. Une partie de cette eau pompée du sol échappe à la photosynthèse et retourne à l'atmosphère par les stomates des feuilles ou des épines de résineux.
3 L'évaporation dans l'atmosphère au-dessus des massifs forestiers accentue les phénomènes de condensation et de restitution de la chaleur. Cet effet par conséquent peut créer une zone dépressionnaire sur les massifs.
4 Si le massif forestier se trouve proche d'une façade maritime, la dépression peut être plus importante qu'au-dessus de la mer et engendre donc une circulation de la mer vers l'intérieur des terres, qui peut aller au-delà de la simple brise de mer, phénomène diurne.
5 Si le massif forestier est très étendu, ou si plusieurs massifs forestiers se jouxtent vers l'intérieur des continents, le flux d'air chargé en eau se propage vers l'intérieur des continents, favorisant ainsi le transport de l'eau depuis les mers et océans.
6 Même en cas de masses d'air circulant naturellement des mers vers les terres, les forêts ont cette capacité de recharger l'atmosphère en eau pour la transporter plus loin.
L'ensemble de ce processus est appelé pompe biotique .
Lorsque l'on procède à de vastes déforestations comme en Amazonie, on désamorce la pompe biotique, les prélèvements diminuent et on peut créer des zones désertiques. C'est ce que l'on observe en Amazonie, ou une diminution du rythme des prélèvements suite à l'abattage à grande échelle de la forêt.
On voit ainsi que la forêt peut influencer le climat en accompagnant le cycle de l'eau et en favorisant les prélèvements.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://www.terre-du-futur.fr/pompe-biotique-definition/
[
interdépendance
]
[
rivières volantes
]
[
gaïa
]
[
aqua simplex
]
[
mécanisme météorologique vertical
]
[
refroidissement terrestre
]
stimulation psy
De très faibles doses de LSD pourraient booster le cerveau
Les participants ont profité des avantages de cette drogue sans en percevoir les inconvénients.
(image : Les chercheurs affirment " qu'une complexité neuronale accrue n'est pas nécessaire, ou du moins pas suffisante pour altérer les états de conscience." )
Une nouvelle étude récente suggère que la prise régulière de psychédéliques en très faibles quantités pourrait procurer de nombreux avantages au cerveau, tant au niveau de la humeur que de la puissance cérébrale. Dans leurs recherches publiées dans la revue Neuropsychopharmacology le 29 janvier 2024, des scientifiques américains et allemands ont tenté des expériences de microdosages sur un groupe de vingt-et-un adultes en bonne santé.
Science Altert rappelle que le LSD, qui a été créé accidentellement dans les années 1930, est toujours une drogue interdite. On sait aujourd'hui que le LSD active certains récepteurs de sérotonine dans le cerveau, ce qui complexifie l'activité cérébrale. Cependant, les risques d'altération de la conscience obligent les scientifiques à un jeu d'équilibriste pour parvenir à une solution thérapeutique efficace. L'objectif est d'obtenir les effets positifs en s'affranchissant des problèmes de sécurité et d'éthique associés aux états de conscience altérés que provoquent les psychédéliques. Dans ce cas précis, les résultats ont montré que de faibles doses peuvent améliorer le bien-être à certains égards, notamment en diminuant la perception de la douleur.
Pour leur expérience, les chercheurs ont administré aux participants trois types de microdoses: soit un placebo, soit treize microgrammes de LSD, soit vingt-six microgrammes de LSD. En théorie, aucun de ces dosages n'est censé entraîner d'effets hallucinatoires sur le consommateur.
L'activité cérébrale des participants a ensuite été testée grâce à l'électroencéphalographie, au moment où les effets des drogues étaient censés être les plus forts. Les participants ont également dû remplir un questionnaire pour évaluer s'ils avaient ressenti des changements sur leur niveau de conscience.
Les résultats montrent que la microdose de vingt-six microgrammes de LSD augmentait la complexité neuronale du cerveau d'environ 12% par rapport à un placebo, le tout sans que la conscience des participants ne soit altérée. Ces derniers ont toutefois fait mention de légères augmentations de l'anxiété et d'excitation dans leurs ressentis.
Une expérience répétée sur d'autres drogues
Les chercheurs ont répété l'expérience dans deux autres groupes, en remplaçant les microdoses de LSD par des microdoses de THC dans l'un, et de méthamphétamine dans l'autre. Dans ces expériences, le THC a affecté la conscience des participants, ce qui n'était pas le cas de la méthamphétamine. Toutefois, et même si le THC a modifié le niveau de conscience, la complexité neuronale est restée inchangée. Dans leur rapport, les chercheurs expliquent que ces données permettent de prouver " qu'une complexité neuronale accrue n'est pas nécessaire, ou du moins pas suffisante pour altérer les états de conscience ".
En revanche, il est encore trop tôt pour arriver à une mesure précise et définitive des effets psychédéliques. L'étude en question repose sur un échantillon très restreint, et le neurologue Robin Carhart-Harris avance que des expériences de plus grande envergure sont nécessaires. Selon lui, il est encore trop tôt pour affirmer que des microdoses n'ont aucun impact sur la conscience de chacun. De plus, les risques liés à la consommation de LSD, même s'il s'agit de vingt-six microgrammes, sont encore difficiles à définir avec précision.
Conor Murray, qui a dirigé l'étude, estime aussi que des recherches supplémentaires sont nécessaires. Il espère qu'à l'avenir, l'augmentation de la complexité neuronale que lui et son équipe ont observée puisse se traduire par des solutions thérapeutiques adaptées aux personnes souffrant de troubles cognitifs et comportementaux.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://www.slate.fr/ , Félix Didier - 28 février 2024
[
désinhibition
]
[
déverrouillage
]
machine pensante
Cette IA de Deepmind pourrait révolutionner les maths et " repousser les frontières de la connaissance humaine "
DeepMind vient de frapper un grand coup : le laboratoire d'IA de Google a annoncé en janvier avoir développé AlphaGeometry, une intelligence artificielle révolutionnaire capable de rivaliser avec les médaillés d'or des Olympiades internationales dans la résolution de problèmes de géométrie. Si cela ne vous parle pas, sachez que les médailles Fields - Terence Tao, Maryam Mirzakhani et Grigori Perelman - ont tous les trois été médaillés d'or lors de cette compétition annuelle de mathématiques qui fait s'affronter les meilleurs collégiens et lycéens du monde. Or, AlphaGeometry a résolu avec succès 25 des 30 problèmes de géométrie de l'Olympiade, se rapprochant ainsi du score moyen des médaillés d'or humains. C'est 15 de plus que son prédécesseur. Mais comment les scientifiques de DeepMind ont-ils accompli un tel exploit ?
L'approche neuro-symbolique, la petite révolution de l'IA
AlphaGeometry est le fruit d'une approche neuro-symbolique, combinant un modèle de langage neuronal (MLN) et un moteur de déduction symbolique (MDS).
Les MLN sont des réseaux de neurones artificiels entraînés sur de vastes ensembles de données textuelles. Ils sont capables d'apprendre et de reconnaître des schémas et des structures dans les données textuelles, ce qui leur permet de générer du texte cohérent et de comprendre le langage naturel. Les MDS sont, pour leur part, particulièrement efficaces pour traiter des problèmes qui nécessitent une manipulation formelle des symboles et des règles logiques.
L'approche neuro-symbolique permet de faire travailler ces deux composantes en tandem : dans le cadre d'AlphaGeometry, le MLN prédit des constructions géométriques potentiellement utiles, puis le MDS utilise ces prédictions pour guider la résolution du problème. Cette combinaison offre à l'IA les capacités intuitives des réseaux de neurones et la rigueur logique des moteurs de déduction symbolique, ce qui lui permet de résoudre efficacement des problèmes de géométrie complexes.
Pour surmonter le manque de problèmes mathématiques de niveau Olympiades qui auraient dû servir de données d'entraînement à AlphaGeometry, les chercheurs ont développé une méthode innovante de génération de données synthétiques à grande échelle, permettant au génial bébé de DeepMind de s'entraîner sur un ensemble de 100 millions d'exemples uniques.
(Image : Alphageometry résoud un problème simple...)
Mission : repousser les frontières de la connaissance
Cette réalisation marque une avancée significative dans le développement de systèmes d'IA capables de raisonner et de résoudre des problèmes mathématiques complexes, rapportent les chercheurs de DeepMind dans un article paru dans Nature en février dernier. Bien que présentant des résultats impressionnants, AlphaGeometry se heurte tout de même à quelques défis, notamment celui de s'adapter à des scénarios mathématiques de plus en plus complexes et à mobiliser ses compétences dans des domaines mathématiques autres que la géométrie.
Malgré tout, cette avancée ouvre la voie à d'extraordinaires possibilités dans les domaines des mathématiques, des sciences et de l'IA. Ses créateurs ne cachent d'ailleurs pas leur ambition : " Notre objectif à long terme reste de construire des IA capables de transférer leurs compétences et leurs connaissances dans tous les domaines mathématiques en développant la résolution de problèmes et le raisonnement sophistiqués dont dépendront les systèmes d'IA généraux ", assènent Trieu Trinh et Thang Luong, les responsables du projet dans un communiqué.
Le ton est donné : autrement dit, les systèmes d'IA développés par DeepMind doivent acquérir des capacités de résolution de problèmes sophistiquées et de raisonnement, ce qui implique la capacité à identifier des schémas, à formuler des hypothèses, à déduire des conclusions et à prendre des décisions logiques dans des contextes variés. Le tout en " repoussant les frontières de la connaissance humaine ". Très ambitieux, mais peut-être pas impossible.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://www.futura-sciences.com/ - mars 2024
[
robot intelligent
]
[
historique
]
médecine
Des cancers peuvent être induits par des modifications épigénétiques, sans mutations de l’ADN
Des chercheurs français ont montré chez des drosophiles que des facteurs épigénétiques peuvent provoquer des cancers, sans mutation de l’ADN. Leurs travaux sont publiés dans la revue Nature.
L’épigénétique est l’étude des mécanismes qui permettent à une même séquence d’ADN d’avoir une expression génique différente et de transmettre ces états fonctionnels différentiels aux cellules filles.
" Dans notre laboratoire, nous étudions comment des facteurs épigénétiques interagissent dans le développement et comment ils contribuent à maintenir un organisme en bonne santé ", indique Giacomo Cavalli, directeur de recherche au CNRS, à l’institut de génétique humaine de Montpellier.
Son équipe s’est notamment penchée sur l’étude de cancers chez la drosophile, un modèle animal qui détient la plupart des gènes importants chez l’humain.
Depuis plus de 30 ans, la théorie communément admise suppose que les cancers sont dus à des mutations de l’ADN. Mais ces 15 dernières années, les chercheurs se sont rendus compte qu’il était parfois difficile voire impossible de trouver des mutations à qui la cause du cancer pouvait être attribuée, en particulier pour les métastases. Ils se sont donc intéressés à d’autres causes, notamment aux mutations épigénétiques.
Des facteurs de transcription s’activent, activent la transcription des gènes et cela crée une sorte de spirale qui ne s’arrête plus
Pas besoin de mutation de l’ADN pour induire un cancer
" Nous nous sommes demandés si, en l’absence de mutation de l’ADN, il n’y aurait jamais de tumeurs. Chez l’insecte, nous pouvons induire des mutations et réduire ou augmenter les niveaux d’expression d’un facteur souhaité. Nous l’avons fait avec des protéines connues pour jouer un rôle de suppresseur de tumeurs, comme les protéines appelées " Polycomb ", détaille le chercheur.
Son équipe a réduit pendant 24 heures les niveaux d’expression de ces facteurs à un stade donné de développement et dans un tissu donné, le tissu précurseur de l’œil. " Lorsqu’on retire ces facteurs, même pendant un temps court, on constate déjà que des gènes sont déréglés. Ce sont les mêmes qui sont déréglés dans les tumeurs. Nous avons alors regardé ce qui se passait si on établissait à nouveau les niveaux normaux de protéines Polycomb dans les cellules : beaucoup de gènes déréglés sont revenus à leur état normal, mais une partie est restée surexprimée de manière irréversible, même si les protéines répressives étaient revenues ", développe-t-il.
Cela ouvre des perspectives de traitements, si on peut inhiber les facteurs qu’on aura identifiés comme la cause de ces cancers
Perspectives de traitements
En étudiant de plus près les raisons de ce phénomène, les chercheurs ont observé que ces gènes mettaient en place un circuit d’activation qui s’auto-maintenait. " Des facteurs de transcription s’activent, activent la transcription des gènes et cela crée une sorte de spirale qui ne s’arrête plus ", commente Giacomo Cavalli.
"Nous avons ainsi montré qu’il n’y avait pas besoin de mutation de l’ADN pour induire un cancer ".
Les scientifiques vont désormais poursuivre leurs recherches en menant des expériences similaires avec des cellules de rongeurs ou humaines en culture et en continuant les études chez l’insecte pour observer la naissance de ces cancers épigénétiques.
* Nous pouvons mener des études très fines, en isolant de toutes petites quantités de cellules qui commencent à proliférer. On peut ensuite étudier les gènes qui se surexpriment pour mettre en lumière toute la chaîne des mécanismes moléculaires qui est déréglée. Cela ouvre des perspectives de traitements, si on peut inhiber les facteurs qu’on aura identifiés comme la cause de ces cancers ", espère-t-il.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://francais.medscape.com/ - Anne-Gaëlle Moulun, 2 mai 2024
[
cause-effet
]
[
amorçage
]
[
début
]
[
déclic
]
[
épithéliome
]
neuroscience
On sait enfin pourquoi le cerveau consomme autant d'énergie
La faute a des petites pompes "cachées".
Les scientifiques le savent: le cerveau humain est une véritable machine insatiable en énergie. Au total, il en engloutit jusqu'à 10 fois plus que le reste du corps. Et même lorsque nous nous reposons, 20% de notre consommation de carburant est directement utilisé pour son fonctionnement. Un phénomène inexpliqué sur lequel nombre de scientifiques se sont cassés les dents. Jusqu'à aujourd'hui.
Publiée dans la revue Science Advances, une nouvelle étude explique l'origine du processus. Un processus qui se déroule dans ce que l'on appelle les vésicules synaptiques.
Entre deux neurones se trouve une synapse, zone qui assure la transmission des informations entre ces deux cellules nerveuses. Quand un signal est envoyé d'un neurone à un autre, un groupe de vésicules aspire les neurotransmetteurs à l'intérieur du premier neurone, au bout de sa queue. Le message est ainsi bien enveloppé, comme une lettre prête à être postée.
L'information est ensuite amenée jusqu'au bord du neurone, où elles fusionne avec la membrane, avant de relâcher les neurotransmetteurs dans la fameuse synapse. Dans cette zone, les neurotransmetteurs finissent leur course en entrant en contact avec les récepteurs du deuxième neurone. Et hop! Le message est passé.
Facile direz-vous. Certes, mais tout ceci nécessite beaucoup d'énergie cérébrale, ont découvert les scientifiques. Et ce, que le cerveau soit pleinement actif ou non.
En effectuant plusieurs expériences sur les terminaisons nerveuses, les membres de l'étude ont observé le comportement de la synapse lorsqu'elle est active ou non. Résultat: même quand les terminaisons nerveuses ne sont pas stimulées, les vésicules synaptiques, elles, ont toujours besoin de carburant. La faute à une sorte de petite pompe "cachée" qui est notamment en charge de pousser les protons hors de la vésicule. Chargée de pousser les protons hors de la vésicule et d'aspirer ainsi les neurotransmetteurs elle ne semble jamais se reposer et a donc besoin d'un flux constant d'énergie. En fait, cette pompe "cachée" est responsable de la moitié de la consommation métabolique de la synapse au repos.
Selon les chercheurs, cela s'explique par le fait que cette pompe a tendance à avoir des fuites. Ainsi, les vésicules synaptiques déversent constamment des protons via leurs pompes, même si elles sont déjà pleines de neurotransmetteurs et si le neurone est inactif.
Étant donné le grand nombre de synapses dans le cerveau humain et la présence de centaines de vésicules synaptiques à chacune de ces terminaisons nerveuses, ce coût métabolique caché, qui consiste à conserver les synapses dans un état de "disponibilité", se fait au prix d'une importante dépense d'énergie présynaptique et de carburant, ce qui contribue probablement de manière significative aux exigences métaboliques du cerveau et à sa vulnérabilité métabolique", concluent les auteurs.
Des recherches supplémentaires sont nécessaires pour déterminer comment les différents types de neurones peuvent être affectés par des charges métaboliques aussi élevées, car ils ne réagissent pas tous de la même manière.
Certains neurones du cerveau, par exemple, peuvent être plus vulnérables à la perte d'énergie, et comprendre pourquoi pourrait nous permettre de préserver ces messagers, même lorsqu'ils sont privés d'oxygène ou de sucre.
"Ces résultats nous aident à mieux comprendre pourquoi le cerveau humain est si vulnérable à l'interruption ou à l'affaiblissement de son approvisionnement en carburant", explique le biochimiste Timothy Ryan, de la clinique Weill Cornell Medicine à New York.
"Si nous avions un moyen de diminuer en toute sécurité cette fuite d'énergie et donc de ralentir le métabolisme cérébral, cela pourrait avoir un impact clinique très important."
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
Science Advances, 3 déc 2021
[
cervelle énergivore
]
exomonde
Cassini livre de nouvelles informations sur l’océan liquide de Titan
(Photo : La plus grande lune de Saturne, Titan, visible aux côtés de la planète et de ses anneaux.")
Lancée en 1997, la sonde spatiale Cassini-Huygens de la NASA a passé 20 ans à explorer le système saturnien avant de plonger dans l’atmosphère de la géante gazeuse en 2017. Bien que terminée, la mission continue de fournir des données cruciales sur Saturne et ses lunes. Les informations recueillies sur Titan, la plus grande lune de Saturne, révèlent notamment de nouveaux détails sur ses océans d’hydrocarbures.
Un monde fascinant
Titan, la plus grande lune de Saturne, est un monde unique dans notre système solaire. Avec un diamètre d’environ 5 150 kilomètres, elle est plus grande que la planète Mercure et est la seule lune connue à posséder une atmosphère dense. Cette dernière est composée principalement d’azote, avec une petite quantité de méthane. Elle réunit des conditions météorologiques semblables à celles de la Terre, avec des vents et des pluies, mais à base de méthane.
Titan est particulièrement intéressante pour les scientifiques en raison de ses vastes lacs et mers d’hydrocarbures principalement composés de méthane et d’éthane, ainsi que de ses possibilités de chimie prébiotique qui pourrait fournir des indices sur les origines de la vie.
Grâce aux données radar collectées par Cassini il y a plusieurs années, une équipe d’astronomes de l’Université Cornell a récemment analysé ces réserves d’hydrocarbures.
Dans le détail, grâce à un " radar balistique ", l’équipe de Cassini avait dirigé un faisceau radio vers Titan qui avait ensuite été réfléchi vers la Terre. Ces opérations, réalisées lors de quatre survols entre 2014 et 2016, avaient alors permis de collecter des données précieuses sur l’océan polaire de cette lune de Saturne. Plus précisément, en examinant les réflexions de surface lorsque Cassini s’approchait et s’éloignait de Titan, les chercheurs ont pu déduire la composition et la rugosité des mers.
Des mers calmes de méthane
Les données collectées lors de cette opération ont aujourd’hui révélé que les mers de Titan, notamment Kraken Mare, Ligeia Mare et Punga Mare, sont étonnamment calmes avec des vagues ne dépassant pas 5,2 millimètres.
Cette tranquillité, que les examens antérieurs n’avaient pas révélée, ouvre de nouvelles perspectives sur la dynamique des mers d’hydrocarbures de Titan. De plus, les observations ont montré que la composition des couches superficielles des mers varie en fonction de la latitude et de l’emplacement. Par exemple, les données radar ont indiqué que les régions méridionales de Kraken Mare réfléchissent particulièrement bien les signaux radar, ce qui pourrait être dû à des variations dans la composition chimique ou à des différences dans la rugosité de la surface.
Les données montrent également que les rivières qui alimentent les mers de Titan sont composées de méthane pur jusqu’à leur embouchure, où elles se mélangent à l’éthane des mers. Ce phénomène est similaire à celui observé sur Terre, où les rivières d’eau douce se mélangent à l’eau salée des océans.
Ces découvertes confirment enfin les modèles météorologiques de Titan qui prédisent des pluies principalement composées de méthane avec de petites quantités d’éthane et d’autres hydrocarbures.
L’équipe de Cornell continue de travailler avec les vastes données collectées par Cassini au cours de ses treize années d’étude sur Titan, ce qui promet de nouvelles découvertes à venir.
Les informations recueillies pourraient également avoir des implications pour la recherche de vie extraterrestre. Les océans d’hydrocarbures de Titan offrent en effet un environnement unique pour étudier les processus chimiques et les conditions qui pourraient soutenir la vie.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://sciencepost.fr/, Brice Louvet, 22 juillet 2024
[
exoplanète
]
[
exo-monde
]
système Gaïa
Les fleuves atmosphériques migrent vers les pôles, transformant le climat mondial
(Photo : Un satellite capture une vue du Pacifique avec des nuages illustrant le mouvement de la rivière atmosphérique " Pineapple Express " se dirigeant vers la côte ouest des États-Unis. )
Les fleuves atmosphériques, de puissants courants de vapeur d’eau en suspension dans l’atmosphère, se déplacent de façon inattendue depuis plusieurs décennies, modifiant ainsi les régimes de précipitations et le climat à l’échelle mondiale.
Qu’est-ce qu’un fleuve atmosphérique ?
Ce sont de vastes courants de vapeur d’eau qui circulent dans l’atmosphère et transportent des quantités d’humidité comparables aux plus grands fleuves terrestres, comme le Mississippi. Ces rivières célestes peuvent s’étendre sur plusieurs milliers de kilomètres de long et jusqu’à quelques centaines de kilomètres de large, concentrant l’humidité sur des bandes étroites de l’atmosphère.
Ces structures atmosphériques jouent un rôle essentiel dans la redistribution de l’eau autour de la planète. En effet, elles captent l’humidité au-dessus des océans tropicaux et la transportent vers des régions terrestres situées à des latitudes plus élevées. Lorsque ces flux d’humidité entrent en contact avec une barrière naturelle telle qu’une chaîne de montagnes ou une zone côtière, ils se condensent et libèrent alors leur humidité sous forme de pluie ou de neige. En agissant comme une pompe naturelle, les rivières atmosphériques contribuent ainsi non seulement à alimenter les sols et les rivières, mais influencent aussi les écosystèmes locaux et les pratiques agricoles, tout en régulant les niveaux d’eau souterraine et les ressources disponibles pour les habitants.
En raison de leur impact majeur sur la répartition des précipitations, un changement dans leur trajectoire ou leur intensité pourrait avoir des conséquences profondes sur les écosystèmes et les sociétés qui en dépendent, ce qui nous ramène à cette étude.
Un changement de trajectoire inattendu
Dans le cadre de travaux récents, des chercheurs de l’Université de Californie à Santa Barbara ont analysé les données des quarante dernières années et ont observé un déplacement de ces rivières vers les pôles d’environ six à dix degrés dans chaque hémisphère. Cela signifie que les zones habituellement traversées par ces courants de vapeur d’eau se situent maintenant plus au nord dans l’hémisphère nord et plus au sud dans l’hémisphère sud.
Les scientifiques estiment que le refroidissement du Pacifique tropical oriental, constaté sur la même période, pourrait être une des causes de ce déplacement, bien que les mécanismes précis derrière ce phénomène restent encore largement inconnus.
Quels impacts pour notre climat ?
Le changement de trajectoire des rivières atmosphériques pourrait avoir des effets profonds sur les régimes de précipitations mondiaux. En déplaçant leurs trajets vers les pôles, les régions traditionnellement alimentées en eau par ces structures pourraient connaître une diminution des précipitations, tandis que d’autres régions plus au nord ou plus au sud pourraient voir leurs précipitations augmenter de manière significative.
L’effet de ces rivières atmosphériques n’est également pas limité aux terres : les chercheurs indiquent en effet que ces changements pourraient aussi modifier les océans. La redistribution des précipitations et des courants d’air pourrait notamment affecter la température de l’eau et les courants marins qui jouent un rôle clé dans la régulation du climat mondial. Cela pourrait avoir des répercussions imprévues sur la biodiversité marine et même sur les écosystèmes terrestres qui dépendent des courants océaniques pour leur climat local.
Ce changement de trajectoire des fleuves atmosphériques est un phénomène complexe et encore largement méconnu. Les chercheurs s’efforcent encore d’en comprendre les causes et les conséquences à long terme. Étudier le comportement de ces structures sera essentiel pour mieux anticiper les variations climatiques et préparer les communautés aux impacts de ce déplacement.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
Brice Louvet, 28 octobre 2024
[
rivières volantes
]
[
pompe biotique
]