Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 5169
Temps de recherche: 0.0443s

homme-animal

Les mouches auraient-elles des émotions ?
Les insectes seraient-ils des êtres sensibles comme les autres ? Des chercheurs ont en tout cas prouvé que des mouches présentaient tous les signes de la peur.
Les drosophiles ouvrent de nouvelles perspectives sur les sentiments ou leurs ébauches chez les non-mammifères.Les drosophiles ouvrent de nouvelles perspectives sur les sentiments ou leurs ébauches chez les non-mammifères.
C'est au coeur des comportements des mammifères que nous cherchons bien souvent émotions et sentiments. Tristesse, peur, bonheur, amitié… sont autant de noms qui quand ils s'appliquent aux animaux non-humains soulèvent des débats passionnés. L'affaire devient encore plus brûlante quand on touche à ces bêtes que l'on écrase sans remords et avec lesquels nous livrons un bras de fer à base d'armes chimiques : les insectes. Nous faudra-t-il accepter que même ces petits êtres sont doués d'émotions, voire de sentiments ? C'est ce qu'ont voulu savoir des chercheurs de l'université de Pasadena (États-unis) en observant la drosophile (Drosophila sp.), une petite mouche des fruits très étudiée en génétique.
Pister les traces de la peur
L'équipe de William T. Gibson a cherché chez l'insecte des traces d’émotions, aussi appelées émotions primitives. Trois de celles-ci ont été étudiées :
• l’évolutivité, le fait que la réponse de l'animal, face au danger, est graduelle et augmente avec le nombre d'éléments menaçants ;
• la valence, l'impact négatif ou positif sur l'organisme de l'émotion et la persistance ;
• la présence de reliquats d'émotions une fois l'alerte passée.
10 mouches ont été soumises à un stimulus effrayant : une ombre qui survolait la boîte les contenant. Elle passait plus ou moins souvent et à des intervalles plus ou moins longs, déterminés par les chercheurs. Puis, les mouches ont été testées individuellement. Tout cela sous l'œil attentif d'une caméra vidéo.
Au passage de l'ombre, les drosophiles s'agitaient subitement. Lors d'assombrissements répétés espacés d'une seconde, la réponse des mouches (les envols) augmentait progressivement avec le nombre d'épisodes d'obscurité. Cependant cet effet cumulatif disparaissait quand ces derniers étaient plus espacés. À 3 secondes d'intervalle, les mouvements que généraient la menace étaient bien moindre qu'à 1 seconde. Un autre facteur influait sur l'envol : le nombre d'individus présents. Isolées, les drosophiles ont en effet montré une plus grande sensibilité à l'alerte qu'en groupe. La mouche seule fuyait dès le premier passage ombrageux (ce qui n'était pas le cas en présence de 9 autres individus) ; ou adoptait une posture figée qualifiée de "freezing" conservée pendant le passage de l'ombre et après plusieurs secondes. Dans les deux cas, 20 secondes environ étaient nécessaires pour que le comportement des mouches retourne à la normale.
Les émotions primitives sont bien là
Dans une dernière expérience, les chercheurs ont proposé de la nourriture à des mouches ayant subi une diète de 24 à 60 heures. Tout cela dans une boîte elle aussi survolée par une ombre. Les mouches ont difficilement déserté la zone de nourrissage mais l'ont d'autant plus évacuée que les ombres se multipliaient. Le besoin de se sustenter rentre donc en compétition avec celui de fuir.
Que peut-on en conclure ? Persistance, évolutivité, valence négative de l'émotion suscitée par un danger... Les émotions primitives sont bien présentes chez les drosophiles. Et si la crainte de l’anthropomorphisme retient les chercheurs d’assimiler leur comportement à de la peur ou de l'anxiété, les résultats de Gibson et ses collègues ouvrent malgré tout une nouvelle voie : celle de l’étude des émotions chez les insectes. Nos conceptions n’attendent que d’être bousculées.

Auteur: Internet

Info: Horvath Louise, 22.05.2015 à 14h30

[ bouleversement ] [ émoi ]

 

Commentaires: 0

animal domestique

Oscar, le petit chat, arrive devant la chambre 313. La porte est ouverte, il entre. Mme K. est allongée paisiblement sur son lit et respire doucement. Autour d'elle, les photos de ses petits-enfants et une de son mariage. Malgré ces souvenirs, elle est seule. Oscar saute sur le lit, renifle l'air et marque une pause, histoire de considérer la situation. Sans plus hésiter, il fait alors deux tours sur lui-même pour se lover contre Mme K. Une heure passe. Oscar attend. Une infirmière entre, vérifie l'état de la malade et note la présence d'Oscar. Préoccupée, elle sort et commence à passer des coups de téléphone. La famille arrive, le prêtre est appelé pour les derniers sacrements. Le matou ne bouge toujours pas. Le petit-fils de Mme K. demande alors :" Mais que fait le chat ici ?* Sa mère, maîtrisant ses larmes, lui répond : " Il est là pour aider grand-mère à arriver au paradis... * Trente minutes plus tard, Mme K. pousse son dernier soupir. Oscar se lève, sort à pas de velours, sans que personne ne le remarque..."
Oscar, présente la particularité incroyable d'identifier les patients dont la mort est imminente. La prestigieuse revue médicale américaine The New England Journal of Medicine, dans son dernier numéro, loin de ses articles austères, a choisi de publier l'histoire vraie et touchante d'un petit chat pas comme les autres. Recueilli dans une unité pour malades d'Alzheimer à Rhode Island aux États-Unis, il présente la particularité incroyable d'identifier les patients dont la mort est imminente et de se blottir alors contre eux pour leur apporter un ultime réconfort. Il s'intéresse à chaque patient, mais ne s'installe sur leur lit que lorsque le moment fatal est arrivé. Le docteur David Dosa, gériatre à l'hôpital Rhode Island de Providence, travaillant dans cette unité, décrit avec précision dans le New England comment ce chat a transformé les pratiques de fin de vie, en prévoyant les décès, permettant d'organiser l'appel aux familles et les derniers offices religieux. "Un indicateur quasi certain"
L'animal, âgé de deux ans, tigré et blanc, a été adopté par le personnel de l'unité de soins spécialisés dans la maladie d'Alzheimer situé au troisième étage. Selon David Dosa, Oscar fait des rondes régulières, observe les patients, les renifle avant de passer son chemin ou de s'installer pour un dernier câlin. Il lui est arrivé d'accompagner jusqu'à leur ultime demeure des mourants qui, faute de famille, seraient morts tout seul.
Ses prévisions se sont révélées jusqu'à présent si exactes que, dès qu'il se blottit contre un patient, les soignants contactent les proches. "Personne ne meurt au troisième étage sans avoir reçu la visite d'Oscar, écrit David Dosa. Sa seule présence au chevet d'un patient est perçue par les médecins et les soignants comme un indicateur quasi certain d'un décès imminent." Jusqu'ici, il a supervisé la mort de plus de 25 pensionnaires, selon David Dosa, qui a précisé de ne pas pouvoir fournir d'explication aux capacités divinatoires du chat. Oscar a-t-il des dons particuliers ? Cette histoire permet de méditer en tout cas sur l'impact des animaux de compagnie dans certaines structures destinées aux personnes âgées.
Les chats, animaux particulièrement affectueux, pourraient jouer un rôle de réconfort pour ces malades atteints d'Alzheimer que la démence éloigne du monde rationnel. L'agence d'hospitalisation locale, en tout cas, a pris la mesure du rôle d'Oscar puisqu'elle a fait graver ces quelques mots sur le mur du service : "Cette plaque récompense Oscar le chat pour ses soins dignement compassionnels."

Auteur: Internet

Info: N.O.T. lundi 30 juillet 2007

[ sixième sens ] [ 6e sens ]

 

Commentaires: 0

homme-machine

Comment utiliser la théorie des jeux au profit de la collaboration entre l'humain et le robot ?

Et si les robots pouvaient travailler avec nous afin de nous permettre d'effectuer des activités, telles qu'un entraînement sportif ou une rééducation physique ? Afin de nous aider à atteindre nos objectifs, ils auraient besoin de comprendre nos actions et d'adapter leur comportement en conséquence. Même si les robots sont de plus en plus utilisés dans plusieurs domaines, en allant de la fabrication à la chirurgie médicale, ils ne peuvent pas réagir de manière optimale aux utilisateurs individuels.

Partiellement soutenus par le projet CoglMon financé par l'UE des scientifiques ont répondu à ce défi en adaptant la théorie des jeux pour analyser l'interaction physique entre un robot et un humain. Leur recherche a été récemment publiée dans la revue "Nature Machine Intelligence". Un article de l'Imperial College London résume le cadre théorique de cette étude: "Pour appliquer avec succès la théorie des jeux à leur interaction les chercheurs ont dû résoudre le fait que le robot ne puisse pas prédire les intentions de l'humain seulement par le raisonnement."
Apprendre le comportement humain
L'équipe de recherche a examiné de quelle manière "devrait être contrôlé un robot de contact pour apporter une réponse stable et adaptée à un utilisateur au comportement inconnu qui effectue des mouvements au cours d'activités, telles que l'entraînement sportif, la rééducation physique ou le covoiturage." Il est déclaré dans l'article de l'Imperial College London que l'équipe s'est intéressée à "la différence entre ses mouvements attendus et ses mouvements réels pour estimer la stratégie humaine – comment l'humain utilise les erreurs dans une tâche pour générer de nouvelles actions." Et il est ajouté que: "Par exemple, si la stratégie de l'humain ne leur permet pas d'accomplir cette tâche, le robot peut fournir davantage d'efforts pour les aider. Apprendre au robot à prédire la stratégie de l'humain lui fait changer sa propre stratégie en retour."

Les scientifiques ont testé leur cadre dans des simulations et des expérimentations avec des sujets humains. Ils ont démontré "que le robot peut s'adapter quand la stratégie de l'humain change lentement, comme si l'humain récupérait de la force, et quand la stratégie de l'humain change et est incohérente, comme après une blessure", selon le même article.

Le projet CogIMon (Cognitive Interaction in Motion) a été mis en place pour modifier "la façon dont les robots interagissent avec les humains en introduisant des robots plus faciles à utiliser, qui sont plus flexibles et plus dociles, et qui apprennent davantage", comme expliqué sur le site web du projet. "Le projet CoglMon vise un changement par étape dans l'interaction entre le robot et l'humain vers une intégration systémique de capacités d'interaction robustes et fiables pour des équipes d'humains et de robots dociles, en particulier l'humanoïde docile COMAN."

Il est également indiqué que, pour atteindre son objectif, le projet utilise "des démonstrations évoluées, en situation réelle, de prise et de lancer dociles interactifs, faites par un robot, une interaction avec COMANS sous le changement de contact et de composition de l'équipe, et dans un modèle entièrement porté par l'ingénierie de manipulation à multi-bras."

Le robot COmpliant HuMANoid Platform (COMAN) a été mis au point dans le cadre du projet FP7 AMARSi (Adaptive Modular Architecture for Rich Motor Skills) qui s'est déroulé entre 2010 et 2014. Grâce à sa robustesse physique il peut marcher et garder l'équilibre et il est entièrement autonome d'un point de vue énergétique comme expliqué sur le site web du projet AMARSi.

Auteur: Internet

Info: https://www.techno-science.net, Redbran, 04/03/2019

[ dialogue ] [ intelligence artificielle ]

 

Commentaires: 0

proto-eucaryote

Des scientifiques découvrent "par hasard" que la vie sur Terre est beaucoup plus ancienne qu'on ne le pensait auparavant

Une rencontre fortuite dans une région reculée de l'Australie et des années d'analyse minutieuse ont permis de repousser de 750 millions d'années les preuves de l'apparition d'une vie complexe sur la planète.

Le Dr Erica Barlow, géobiologiste à l'université de Nouvelle-Galles du Sud (UNSW), a découvert une nouvelle façon de comprendre comment la vie s'est formée sur la planète en analysant une roche qu'elle avait posée sur son bureau.

Barlow a trouvé cette roche lors d'une excursion dans l'arrière-pays de l'Australie occidentale il y a une dizaine d'années.

Elle a étudié les stromatolites dans le cadre de son projet de recherche de premier cycle et a passé ses journées dans la région de Pilbara à cartographier la zone et à analyser les structures rocheuses. Barlow rentrait au camp lorsqu'une petite pierre noire et brillante reflétant la lumière du soleil a attiré son attention. Elle se détachait du paysage rouge et il l'a ramassée en souvenir de son voyage.

La roche mystérieuse cache des secrets.

La roche est restée sur le bureau de Mme Barlow au Centre australien d'astrobiologie pendant plusieurs mois, alors qu'elle travaillait sur son projet sur les stromatolithes. Son superviseur à l'UNSW, le professeur associé Martin Van Kranendonk, a vu la roche - connue sous le nom de chert noir - et l'a encouragée à rechercher des microfossiles à l'intérieur. Ce qu'Erica a vu l'a choquée.

La plupart des microfossiles ont la forme de longs filaments, mais ce fossile était rond.

"Le microfossile que j'ai trouvé n'existait pas dans les archives géologiques", explique Barlow. "Il s'agissait d'un type de vie totalement nouveau".

Le grand événement d'oxydation et le développement de la vie sur Terre

La datation indépendante des couches rocheuses entourant le chert noir encastré suggère que les microfossiles ont environ 2,4 milliards d'années.

Cette estimation de l'âge coïncide avec le "Grand événement d'oxydation" : un tournant volatil dans l'histoire de la Terre au cours duquel les niveaux d'oxygène à la surface de la planète ont augmenté de façon spectaculaire et irréversible.

Barlow explique que l'augmentation soudaine et unique de l'oxygène a été théoriquement liée au développement de toute vie complexe sur Terre, mais que rien dans les archives fossiles ne prouvait cette théorie - jusqu'à aujourd'hui...

La seule forme de vie connue qui existait avant le Grand Événement d'Oxydation était " procaryotique " : des organismes simples, unicellulaires et sans noyau, comme les bactéries.

Cependant, la forme relativement complexe et la grande taille du fossile découvert par le Dr Barlow suggèrent que sa forme de vie pourrait avoir été une première étape vers une forme de vie " eucaryote ", c'est-à-dire une forme de vie complexe, généralement multicellulaire, dotée d'un noyau.

"Nous avons montré la première preuve fossile directe reliant l'évolution de l'environnement pendant la Grande Oxydation à une augmentation de la complexité de la vie", déclare Barlow. "Cela montre une avancée dans l'organisation de la vie à cette époque".

Cet événement est parfois appelé la " catastrophe de l'oxygène ", catastrophique pour de nombreuses formes de vie à l'époque, qui avaient besoin d'environnements pauvres en oxygène pour survivre.

Si les recherches futures confirment cette théorie, ce fossile serait la plus ancienne preuve connue d'une vie complexe sur Terre, mais il faudra sans doute attendre un certain temps avant que la technologie ne permette de l'évaluer.



 

Auteur: Internet

Info: https://www.tameteo.com/,Joana Campos, 11. 7. 2024

[ palier ] [ abiotique ] [ biotique ] [ proto-vie ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

data élagage

IA : Cette technique oubliée du 18e siècle rend le Deep Learning inutile

Et si le deep learning devenait inutile au développement de l’intelligence artificielle ? Cette technique oubliée du 18e siècle pourrait le remplacer.

Jusqu’à maintenant, le deep learning ou l’apprentissage profond est présenté comme un processus essentiel au développement de l’intelligence artificielle. Il consiste à entraîner les grands modèles de langage (LLM) avec un énorme volume de données. Mais des chercheurs finlandais avancent que le deep learning pourrait devenir inutile.

Ces chercheurs font partie d’une équipe de l’université de Jyväskylä qui effectue des travaux sur les techniques de développement de l’intelligence artificielle. Ils ont publié le mois dernier, dans la revue Neurocomputing, un papier intéressant sur une ancienne méthode mathématique du 18e siècle.

Cette technique est plus simple et plus performante que l’apprentissage profond, défendent les auteurs dans leur papier. Notons que cette conclusion constitue l’aboutissement de six années de recherche.

Il faut que le deep learning devienne inutile…

Le deep learning s’apparente aux techniques d’intelligence artificielle exploitant massivement des données et des ressources informatiques. Celles-ci servent à entraîner des réseaux neuronaux pour avoir des LLM. Rappelons que ces derniers se trouvent au cœur des IA génératives comme le populaire Chat-GPT.

Mais il ne faut pas croire que l’apprentissage profond est infaillible. Le volume des données à traiter en fait une méthode complexe et souvent sujette à des erreurs. Cela impacte significativement les performances des modèles génératifs obtenus.

En effet, la complexité du deep learning se retrouve dans la structure d’un LLM (large miodèle de langage). Cela peut instaurer une boîte noire sur le mécanisme du modèle IA. Dans la mesure où son fonctionnement n’est pas maîtrisé, les performances ne seront pas au rendez-vous. L’opacité du mécanisme IA peut même exposer à des risques.

Des modèles IA performants sans deep learning

L’équipe de l’université de Jyväskylä travaille ainsi depuis six ans sur l’amélioration des procédés d’apprentissage profond. Leurs travaux consistaient notamment à explorer la piste de la réduction des données. L’objectif est de trouver un moyen pratique pour alimenter les LLM sans pour autant les noyer de données.

Les auteurs de la recherche pensent avoir trouvé la solution dans les applications linéaire et non-linéaire. Il s’agit d’un concept mathématique dont le perfectionnement a eu lieu du 17e au 18e siècle. Celui-ci s’appuie principalement sur la combinaison des fonctions et des équations différentielles.

Les applications linéaire et non-linéaire permettent ainsi de générer un nouvel ordre de modèles de langage. Il en résulte des LLM avec une structure beaucoup moins complexe. Par ailleurs, son fonctionnement ne requiert pas un énorme volume de données. Cela n’a pourtant aucun impact négatif sur la performance.

Les mathématiques du 18e siècle pour moderniser l’IA…

L’importance de l’intelligence artificielle dans la technologie moderne augmente rapidement. La compréhension et la vraie maîtrise des grands modèles de langage deviennent indispensables. Les chercheurs finlandais pensent que leur nouvelle méthode peut résoudre certains problèmes en lien avec le développement de l’intelligence artificielle.

En effet, plus le développement de l’IA sera simple et transparent, il sera davantage facile d’envisager son utilisation éthique. L’accent est également mis sur la dimension écologique du nouveau procédé. Des LLM plus simples requièrent beaucoup moins de ressources informatiques et sont moins énergivores.

Néanmoins, les chercheurs craignent le scepticisme des actuels principaux acteurs de l’IA. "Le deep learning occupe une place si importante dans la recherche, le développement de l’intelligence artificielle (…) Même si la science progresse, la communauté elle-même peut se montrer réticente au changement", explique l’un des auteurs de la recherche.

Auteur: Internet

Info: https://www.lebigdata.fr/, Magloire 12 octobre 2023

[ limitation de la force brute ] [ vectorisation sémantique ] [ émondage taxonomique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

stimulation psy

De très faibles doses de LSD pourraient booster le cerveau

Les participants ont profité des avantages de cette drogue sans en percevoir les inconvénients.

(image : Les chercheurs affirment " qu'une complexité neuronale accrue n'est pas nécessaire, ou du moins pas suffisante pour altérer les états de conscience." )

Une nouvelle étude récente suggère que la prise régulière de psychédéliques en très faibles quantités pourrait procurer de nombreux avantages au cerveau, tant au niveau de la humeur que de la puissance cérébrale. Dans leurs recherches publiées dans la revue Neuropsychopharmacology le 29 janvier 2024, des scientifiques américains et allemands ont tenté des expériences de microdosages sur un groupe de vingt-et-un adultes en bonne santé.

Science Altert rappelle que le LSD, qui a été créé accidentellement dans les années 1930, est toujours une drogue interdite. On sait aujourd'hui que le LSD active certains récepteurs de sérotonine dans le cerveau, ce qui complexifie l'activité cérébrale. Cependant, les risques d'altération de la conscience obligent les scientifiques à un jeu d'équilibriste pour parvenir à une solution thérapeutique efficace. L'objectif est d'obtenir les effets positifs en s'affranchissant des problèmes de sécurité et d'éthique associés aux états de conscience altérés que provoquent les psychédéliques. Dans ce cas précis, les résultats ont montré que de faibles doses peuvent améliorer le bien-être à certains égards, notamment en diminuant la perception de la douleur.

Pour leur expérience, les chercheurs ont administré aux participants trois types de microdoses: soit un placebo, soit treize microgrammes de LSD, soit vingt-six microgrammes de LSD. En théorie, aucun de ces dosages n'est censé entraîner d'effets hallucinatoires sur le consommateur.

L'activité cérébrale des participants a ensuite été testée grâce à l'électroencéphalographie, au moment où les effets des drogues étaient censés être les plus forts. Les participants ont également dû remplir un questionnaire pour évaluer s'ils avaient ressenti des changements sur leur niveau de conscience.

Les résultats montrent que la microdose de vingt-six microgrammes de LSD augmentait la complexité neuronale du cerveau d'environ 12% par rapport à un placebo, le tout sans que la conscience des participants ne soit altérée. Ces derniers ont toutefois fait mention de légères augmentations de l'anxiété et d'excitation dans leurs ressentis.

Une expérience répétée sur d'autres drogues

Les chercheurs ont répété l'expérience dans deux autres groupes, en remplaçant les microdoses de LSD par des microdoses de THC dans l'un, et de méthamphétamine dans l'autre. Dans ces expériences, le THC a affecté la conscience des participants, ce qui n'était pas le cas de la méthamphétamine. Toutefois, et même si le THC a modifié le niveau de conscience, la complexité neuronale est restée inchangée. Dans leur rapport, les chercheurs expliquent que ces données permettent de prouver " qu'une complexité neuronale accrue n'est pas nécessaire, ou du moins pas suffisante pour altérer les états de conscience ".

En revanche, il est encore trop tôt pour arriver à une mesure précise et définitive des effets psychédéliques. L'étude en question repose sur un échantillon très restreint, et le neurologue Robin Carhart-Harris avance que des expériences de plus grande envergure sont nécessaires. Selon lui, il est encore trop tôt pour affirmer que des microdoses n'ont aucun impact sur la conscience de chacun. De plus, les risques liés à la consommation de LSD, même s'il s'agit de vingt-six microgrammes, sont encore difficiles à définir avec précision.

Conor Murray, qui a dirigé l'étude, estime aussi que des recherches supplémentaires sont nécessaires. Il espère qu'à l'avenir, l'augmentation de la complexité neuronale que lui et son équipe ont observée puisse se traduire par des solutions thérapeutiques adaptées aux personnes souffrant de troubles cognitifs et comportementaux.



 

Auteur: Internet

Info: https://www.slate.fr/ , Félix Didier - 28 février 2024

[ désinhibition ] [ déverrouillage ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine pensante

Cette IA de Deepmind pourrait révolutionner les maths et " repousser les frontières de la connaissance humaine "

DeepMind vient de frapper un grand coup : le laboratoire d'IA de Google a annoncé en janvier avoir développé AlphaGeometry, une intelligence artificielle révolutionnaire capable de rivaliser avec les médaillés d'or des Olympiades internationales dans la résolution de problèmes de géométrie. Si cela ne vous parle pas, sachez que les médailles Fields - Terence Tao, Maryam Mirzakhani et Grigori Perelman - ont tous les trois été médaillés d'or lors de cette compétition annuelle de mathématiques qui fait s'affronter les meilleurs collégiens et lycéens du monde. Or, AlphaGeometry a résolu avec succès 25 des 30 problèmes de géométrie de l'Olympiade, se rapprochant ainsi du score moyen des médaillés d'or humains. C'est 15 de plus que son prédécesseur. Mais comment les scientifiques de DeepMind ont-ils accompli un tel exploit ?

L'approche neuro-symbolique, la petite révolution de l'IA

AlphaGeometry est le fruit d'une approche neuro-symbolique, combinant un modèle de langage neuronal (MLN) et un moteur de déduction symbolique (MDS).

Les MLN sont des réseaux de neurones artificiels entraînés sur de vastes ensembles de données textuelles. Ils sont capables d'apprendre et de reconnaître des schémas et des structures dans les données textuelles, ce qui leur permet de générer du texte cohérent et de comprendre le langage naturel. Les MDS sont, pour leur part, particulièrement efficaces pour traiter des problèmes qui nécessitent une manipulation formelle des symboles et des règles logiques.

L'approche neuro-symbolique permet de faire travailler ces deux composantes en tandem : dans le cadre d'AlphaGeometry, le MLN prédit des constructions géométriques potentiellement utiles, puis le MDS utilise ces prédictions pour guider la résolution du problème. Cette combinaison offre à l'IA les capacités intuitives des réseaux de neurones et la rigueur logique des moteurs de déduction symbolique, ce qui lui permet de résoudre efficacement des problèmes de géométrie complexes.

Pour surmonter le manque de problèmes mathématiques de niveau Olympiades qui auraient dû servir de données d'entraînement à AlphaGeometry, les chercheurs ont développé une méthode innovante de génération de données synthétiques à grande échelle, permettant au génial bébé de DeepMind de s'entraîner sur un ensemble de 100 millions d'exemples uniques.

(Image : Alphageometry résoud un problème simple...) 

Mission : repousser les frontières de la connaissance

Cette réalisation marque une avancée significative dans le développement de systèmes d'IA capables de raisonner et de résoudre des problèmes mathématiques complexes, rapportent les chercheurs de DeepMind dans un article paru dans Nature en février dernier. Bien que présentant des résultats impressionnants, AlphaGeometry se heurte tout de même à quelques défis, notamment celui de s'adapter à des scénarios mathématiques de plus en plus complexes et à mobiliser ses compétences dans des domaines mathématiques autres que la géométrie. 

Malgré tout, cette avancée ouvre la voie à d'extraordinaires possibilités dans les domaines des mathématiques, des sciences et de l'IA. Ses créateurs ne cachent d'ailleurs pas leur ambition : " Notre objectif à long terme reste de construire des IA capables de transférer leurs compétences et leurs connaissances dans tous les domaines mathématiques en développant la résolution de problèmes et le raisonnement sophistiqués dont dépendront les systèmes d'IA généraux ", assènent Trieu Trinh et Thang Luong, les responsables du projet dans un communiqué. 

Le ton est donné : autrement dit, les systèmes d'IA développés par DeepMind doivent acquérir des capacités de résolution de problèmes sophistiquées et de raisonnement, ce qui implique la capacité à identifier des schémas, à formuler des hypothèses, à déduire des conclusions et à prendre des décisions logiques dans des contextes variés. Le tout en " repoussant les frontières de la connaissance humaine ". Très ambitieux, mais peut-être pas impossible.

Auteur: Internet

Info: https://www.futura-sciences.com/ - mars 2024

[ robot intelligent ] [ historique ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

médecine

Des cancers peuvent être induits par des modifications épigénétiques, sans mutations de l’ADN 

Des chercheurs français ont montré chez des drosophiles que des facteurs épigénétiques peuvent provoquer des cancers, sans mutation de l’ADN. Leurs travaux sont publiés dans la revue Nature.

L’épigénétique est l’étude des mécanismes qui permettent à une même séquence d’ADN d’avoir une expression génique différente et de transmettre ces états fonctionnels différentiels aux cellules filles.

" Dans notre laboratoire, nous étudions comment des facteurs épigénétiques interagissent dans le développement et comment ils contribuent à maintenir un organisme en bonne santé ", indique Giacomo Cavalli, directeur de recherche au CNRS, à l’institut de génétique humaine de Montpellier.

Son équipe s’est notamment penchée sur l’étude de cancers chez la drosophile, un modèle animal qui détient la plupart des gènes importants chez l’humain.

Depuis plus de 30 ans, la théorie communément admise suppose que les cancers sont dus à des mutations de l’ADN. Mais ces 15 dernières années, les chercheurs se sont rendus compte qu’il était parfois difficile voire impossible de trouver des mutations à qui la cause du cancer pouvait être attribuée, en particulier pour les métastases. Ils se sont donc intéressés à d’autres causes, notamment aux mutations épigénétiques.

Des facteurs de transcription s’activent, activent la transcription des gènes et cela crée une sorte de spirale qui ne s’arrête plus

Pas besoin de mutation de l’ADN pour induire un cancer

" Nous nous sommes demandés si, en l’absence de mutation de l’ADN, il n’y aurait jamais de tumeurs. Chez l’insecte, nous pouvons induire des mutations et réduire ou augmenter les niveaux d’expression d’un facteur souhaité. Nous l’avons fait avec des protéines connues pour jouer un rôle de suppresseur de tumeurs, comme les protéines appelées " Polycomb ", détaille le chercheur.

Son équipe a réduit pendant 24 heures les niveaux d’expression de ces facteurs à un stade donné de développement et dans un tissu donné, le tissu précurseur de l’œil. " Lorsqu’on retire ces facteurs, même pendant un temps court, on constate déjà que des gènes sont déréglés. Ce sont les mêmes qui sont déréglés dans les tumeurs. Nous avons alors regardé ce qui se passait si on établissait à nouveau les niveaux normaux de protéines Polycomb dans les cellules : beaucoup de gènes déréglés sont revenus à leur état normal, mais une partie est restée surexprimée de manière irréversible, même si les protéines répressives étaient revenues ", développe-t-il.

Cela ouvre des perspectives de traitements, si on peut inhiber les facteurs qu’on aura identifiés comme la cause de ces cancers

Perspectives de traitements

En étudiant de plus près les raisons de ce phénomène, les chercheurs ont observé que ces gènes mettaient en place un circuit d’activation qui s’auto-maintenait. " Des facteurs de transcription s’activent, activent la transcription des gènes et cela crée une sorte de spirale qui ne s’arrête plus ", commente Giacomo Cavalli.

"Nous avons ainsi montré qu’il n’y avait pas besoin de mutation de l’ADN pour induire un cancer ".

Les scientifiques vont désormais poursuivre leurs recherches en menant des expériences similaires avec des cellules de rongeurs ou humaines en culture et en continuant les études chez l’insecte pour observer la naissance de ces cancers épigénétiques.

* Nous pouvons mener des études très fines, en isolant de toutes petites quantités de cellules qui commencent à proliférer. On peut ensuite étudier les gènes qui se surexpriment pour mettre en lumière toute la chaîne des mécanismes moléculaires qui est déréglée. Cela ouvre des perspectives de traitements, si on peut inhiber les facteurs qu’on aura identifiés comme la cause de ces cancers ", espère-t-il.

Auteur: Internet

Info: https://francais.medscape.com/ - Anne-Gaëlle Moulun, 2 mai 2024

[ cause-effet ] [ amorçage ] [ début ] [ déclic ] [ épithéliome ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

neuroscience

On sait enfin pourquoi le cerveau consomme autant d'énergie

La faute a des petites pompes "cachées". 

Les scientifiques le savent: le cerveau humain est une véritable machine insatiable en énergie. Au total, il en engloutit jusqu'à 10 fois plus que le reste du corps. Et même lorsque nous nous reposons, 20% de notre consommation de carburant est directement utilisé pour son fonctionnement. Un phénomène inexpliqué sur lequel nombre de scientifiques se sont cassés les dents. Jusqu'à aujourd'hui.

Publiée dans la revue Science Advances, une nouvelle étude explique l'origine du processus. Un processus qui se déroule dans ce que l'on appelle les vésicules synaptiques.

Entre deux neurones se trouve une synapse, zone qui assure la transmission des informations entre ces deux cellules nerveuses. Quand un signal est envoyé d'un neurone à un autre, un groupe de vésicules aspire les neurotransmetteurs à l'intérieur du premier neurone, au bout de sa queue. Le message est ainsi bien enveloppé, comme une lettre prête à être postée.

L'information est ensuite amenée jusqu'au bord du neurone, où elles fusionne avec la membrane, avant de relâcher les neurotransmetteurs dans la fameuse synapse. Dans cette zone, les neurotransmetteurs finissent leur course en entrant en contact avec les récepteurs du deuxième neurone. Et hop! Le message est passé.

Facile direz-vous. Certes, mais tout ceci nécessite beaucoup d'énergie cérébrale, ont découvert les scientifiques. Et ce, que le cerveau soit pleinement actif ou non.

En effectuant plusieurs expériences sur les terminaisons nerveuses, les membres de l'étude ont observé le comportement de la synapse lorsqu'elle est active ou non. Résultat: même quand les terminaisons nerveuses ne sont pas stimulées, les vésicules synaptiques, elles, ont toujours besoin de carburant. La faute à une sorte de petite pompe "cachée" qui est notamment en charge de pousser les protons hors de la vésicule. Chargée de pousser les protons hors de la vésicule et d'aspirer ainsi les neurotransmetteurs elle ne semble jamais se reposer et a donc besoin d'un flux constant d'énergie. En fait, cette pompe "cachée" est responsable de la moitié de la consommation métabolique de la synapse au repos.

Selon les chercheurs, cela s'explique par le fait que cette pompe a tendance à avoir des fuites. Ainsi, les vésicules synaptiques déversent constamment des protons via leurs pompes, même si elles sont déjà pleines de neurotransmetteurs et si le neurone est inactif.

Étant donné le grand nombre de synapses dans le cerveau humain et la présence de centaines de vésicules synaptiques à chacune de ces terminaisons nerveuses, ce coût métabolique caché, qui consiste à conserver les synapses dans un état de "disponibilité", se fait au prix d'une importante dépense d'énergie présynaptique et de carburant, ce qui contribue probablement de manière significative aux exigences métaboliques du cerveau et à sa vulnérabilité métabolique", concluent les auteurs.

Des recherches supplémentaires sont nécessaires pour déterminer comment les différents types de neurones peuvent être affectés par des charges métaboliques aussi élevées, car ils ne réagissent pas tous de la même manière.

Certains neurones du cerveau, par exemple, peuvent être plus vulnérables à la perte d'énergie, et comprendre pourquoi pourrait nous permettre de préserver ces messagers, même lorsqu'ils sont privés d'oxygène ou de sucre.

"Ces résultats nous aident à mieux comprendre pourquoi le cerveau humain est si vulnérable à l'interruption ou à l'affaiblissement de son approvisionnement en carburant", explique le biochimiste Timothy Ryan, de la clinique Weill Cornell Medicine à New York.

"Si nous avions un moyen de diminuer en toute sécurité cette fuite d'énergie et donc de ralentir le métabolisme cérébral, cela pourrait avoir un impact clinique très important." 

Auteur: Internet

Info: Science Advances, 3 déc 2021

[ cervelle énergivore ]

 

Commentaires: 0

Ajouté à la BD par miguel

exomonde

Cassini livre de nouvelles informations sur l’océan liquide de Titan

(Photo : La plus grande lune de Saturne, Titan, visible aux côtés de la planète et de ses anneaux.")

Lancée en 1997, la sonde spatiale Cassini-Huygens de la NASA a passé 20 ans à explorer le système saturnien avant de plonger dans l’atmosphère de la géante gazeuse en 2017. Bien que terminée, la mission continue de fournir des données cruciales sur Saturne et ses lunes. Les informations recueillies sur Titan, la plus grande lune de Saturne, révèlent notamment de nouveaux détails sur ses océans d’hydrocarbures.

Un monde fascinant

Titan, la plus grande lune de Saturne, est un monde unique dans notre système solaire. Avec un diamètre d’environ 5 150 kilomètres, elle est plus grande que la planète Mercure et est la seule lune connue à posséder une atmosphère dense. Cette dernière est composée principalement d’azote, avec une petite quantité de méthane. Elle réunit des conditions météorologiques semblables à celles de la Terre, avec des vents et des pluies, mais à base de méthane.

Titan est particulièrement intéressante pour les scientifiques en raison de ses vastes lacs et mers d’hydrocarbures principalement composés de méthane et d’éthane, ainsi que de ses possibilités de chimie prébiotique qui pourrait fournir des indices sur les origines de la vie.

Grâce aux données radar collectées par Cassini il y a plusieurs années, une équipe d’astronomes de l’Université Cornell a récemment analysé ces réserves d’hydrocarbures.

Dans le détail, grâce à un " radar balistique ", l’équipe de Cassini avait dirigé un faisceau radio vers Titan qui avait ensuite été réfléchi vers la Terre. Ces opérations, réalisées lors de quatre survols entre 2014 et 2016, avaient alors permis de collecter des données précieuses sur l’océan polaire de cette lune de Saturne. Plus précisément, en examinant les réflexions de surface lorsque Cassini s’approchait et s’éloignait de Titan, les chercheurs ont pu déduire la composition et la rugosité des mers.

Des mers calmes de méthane

Les données collectées lors de cette opération ont aujourd’hui révélé que les mers de Titan, notamment Kraken Mare, Ligeia Mare et Punga Mare, sont étonnamment calmes avec des vagues ne dépassant pas 5,2 millimètres.

Cette tranquillité, que les examens antérieurs n’avaient pas révélée, ouvre de nouvelles perspectives sur la dynamique des mers d’hydrocarbures de Titan. De plus, les observations ont montré que la composition des couches superficielles des mers varie en fonction de la latitude et de l’emplacement. Par exemple, les données radar ont indiqué que les régions méridionales de Kraken Mare réfléchissent particulièrement bien les signaux radar, ce qui pourrait être dû à des variations dans la composition chimique ou à des différences dans la rugosité de la surface.

Les données montrent également que les rivières qui alimentent les mers de Titan sont composées de méthane pur jusqu’à leur embouchure, où elles se mélangent à l’éthane des mers. Ce phénomène est similaire à celui observé sur Terre, où les rivières d’eau douce se mélangent à l’eau salée des océans.

Ces découvertes confirment enfin les modèles météorologiques de Titan qui prédisent des pluies principalement composées de méthane avec de petites quantités d’éthane et d’autres hydrocarbures.

L’équipe de Cornell continue de travailler avec les vastes données collectées par Cassini au cours de ses treize années d’étude sur Titan, ce qui promet de nouvelles découvertes à venir.

Les informations recueillies pourraient également avoir des implications pour la recherche de vie extraterrestre. Les océans d’hydrocarbures de Titan offrent en effet un environnement unique pour étudier les processus chimiques et les conditions qui pourraient soutenir la vie.



 

Auteur: Internet

Info: https://sciencepost.fr/, Brice Louvet, 22 juillet 2024

[ exoplanète ] [ exo-monde ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste