Citation
Catégorie
Tag – étiquette
Auteur
Info
Rechercher par n'importe quelle lettre



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits... Recherche mots ou phrases tous azimuts... Outil de précision sémantique et de réflexion communautaire... Voir aussi la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats ... Lire la suite >>
Résultat(s): 5423
Temps de recherche: 0.045s

data élagage

IA : Cette technique oubliée du 18e siècle rend le Deep Learning inutile

Et si le deep learning devenait inutile au développement de l’intelligence artificielle ? Cette technique oubliée du 18e siècle pourrait le remplacer.

Jusqu’à maintenant, le deep learning ou l’apprentissage profond est présenté comme un processus essentiel au développement de l’intelligence artificielle. Il consiste à entraîner les grands modèles de langage (LLM) avec un énorme volume de données. Mais des chercheurs finlandais avancent que le deep learning pourrait devenir inutile.

Ces chercheurs font partie d’une équipe de l’université de Jyväskylä qui effectue des travaux sur les techniques de développement de l’intelligence artificielle. Ils ont publié le mois dernier, dans la revue Neurocomputing, un papier intéressant sur une ancienne méthode mathématique du 18e siècle.

Cette technique est plus simple et plus performante que l’apprentissage profond, défendent les auteurs dans leur papier. Notons que cette conclusion constitue l’aboutissement de six années de recherche.

Il faut que le deep learning devienne inutile…

Le deep learning s’apparente aux techniques d’intelligence artificielle exploitant massivement des données et des ressources informatiques. Celles-ci servent à entraîner des réseaux neuronaux pour avoir des LLM. Rappelons que ces derniers se trouvent au cœur des IA génératives comme le populaire Chat-GPT.

Mais il ne faut pas croire que l’apprentissage profond est infaillible. Le volume des données à traiter en fait une méthode complexe et souvent sujette à des erreurs. Cela impacte significativement les performances des modèles génératifs obtenus.

En effet, la complexité du deep learning se retrouve dans la structure d’un LLM (large miodèle de langage). Cela peut instaurer une boîte noire sur le mécanisme du modèle IA. Dans la mesure où son fonctionnement n’est pas maîtrisé, les performances ne seront pas au rendez-vous. L’opacité du mécanisme IA peut même exposer à des risques.

Des modèles IA performants sans deep learning

L’équipe de l’université de Jyväskylä travaille ainsi depuis six ans sur l’amélioration des procédés d’apprentissage profond. Leurs travaux consistaient notamment à explorer la piste de la réduction des données. L’objectif est de trouver un moyen pratique pour alimenter les LLM sans pour autant les noyer de données.

Les auteurs de la recherche pensent avoir trouvé la solution dans les applications linéaire et non-linéaire. Il s’agit d’un concept mathématique dont le perfectionnement a eu lieu du 17e au 18e siècle. Celui-ci s’appuie principalement sur la combinaison des fonctions et des équations différentielles.

Les applications linéaire et non-linéaire permettent ainsi de générer un nouvel ordre de modèles de langage. Il en résulte des LLM avec une structure beaucoup moins complexe. Par ailleurs, son fonctionnement ne requiert pas un énorme volume de données. Cela n’a pourtant aucun impact négatif sur la performance.

Les mathématiques du 18e siècle pour moderniser l’IA…

L’importance de l’intelligence artificielle dans la technologie moderne augmente rapidement. La compréhension et la vraie maîtrise des grands modèles de langage deviennent indispensables. Les chercheurs finlandais pensent que leur nouvelle méthode peut résoudre certains problèmes en lien avec le développement de l’intelligence artificielle.

En effet, plus le développement de l’IA sera simple et transparent, il sera davantage facile d’envisager son utilisation éthique. L’accent est également mis sur la dimension écologique du nouveau procédé. Des LLM plus simples requièrent beaucoup moins de ressources informatiques et sont moins énergivores.

Néanmoins, les chercheurs craignent le scepticisme des actuels principaux acteurs de l’IA. "Le deep learning occupe une place si importante dans la recherche, le développement de l’intelligence artificielle (…) Même si la science progresse, la communauté elle-même peut se montrer réticente au changement", explique l’un des auteurs de la recherche.

Auteur: Internet

Info: https://www.lebigdata.fr/, Magloire 12 octobre 2023

[ limitation de la force brute ] [ vectorisation sémantique ] [ émondage taxonomique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

prospective

Comment l'humain va-t-il évoluer ?

Sélectionnés, réparés, greffés, augmentés... comment les humains vont-ils évoluer ? C'est notre Question de lecteur de la semaine.

"Comment allons-nous évoluer ?", nous demande Kim Fontaine sur notre page Facebook.  

"Il est certain que l’Homme continuera d’évoluer"

Très grande, le front haut, un cerveau énorme et des yeux globuleux. C’est ainsi que la science-fiction représente souvent notre descendance après des centaines de milliers d’années d’évolution. Une autre école la voit, au contraire, inchangée physiquement, car sa puissance technologique l’aura totalement soustraite aux "pressions" de l’environnement. Les deux visions sont également fantasmatiques. "Parce qu’il est impossible de prévoir l’évolution de notre espèce sur des centaines de milliers d’années, insiste Anne-Marie Guihard- Costa, directrice de l’unité Dynamique de l’évolution humaine du CNRS. Sauf à posséder une boule de cristal et connaître les événements – climatiques, épidémiologiques, etc. – qui se produiront d’ici là !"

Depuis l’ère industrielle, les pressions de sélection se sont néanmoins "relâchées". "Elles sont en grande partie contrecarrées par les progrès techniques et médicaux, poursuit la bio-anthropologue, qui ont entraîné en particulier une chute drastique de la mortalité infantile. Mais il est certain que l’Homme continuera d’évoluer."

Quelles sont les tendances prévisibles ? Même si la taille moyenne des populations a augmenté depuis plusieurs siècles grâce à une meilleure hygiène, une alimentation diversifiée ainsi qu’aux vaccinations (les infections ralentissent la croissance), elle se stabilisera sans doute autour de 1,85 mètre pour l’homme. Soumise à des contraintes mécaniques et osseuses, la stature devient en effet un handicap au-delà d’un certain seuil. Il est très peu probable, par ailleurs, que la taille de notre cerveau croisse de façon importante, parce qu’elle est étroitement liée à cette stature et que la bipédie contraint la largeur du bassin : les femmes ne pourraient accoucher de bébés à la trop grande boîte crânienne.

"Nous courons aussi le risque de continuer à grossir"

La taille des mâchoires devrait en revanche se réduire en raison d’une alimentation plus molle. L’augmentation des chevauchements dentaires et le fait qu’un tiers de l’humanité naît sans dents de sagesse résultent déjà de ces changements. "Nous courons aussi le risque de continuer à grossir, souligne Anne-Marie Guihard-Costa. Et pas seulement en raison d’une alimentation trop riche. On sait, à présent, que la pollution joue un rôle dans l’obésité, à travers des perturbateurs endocriniens qui modifieraient le métabolisme hormonal."

Tout aussi attendu, l’accroissement de la longévité. Au milieu des années 1970, l’espérance de vie moyenne était de 75 ans en Europe, avec des phénomènes de vieillissement qui commençaient vers 60 ans. Elle est aujourd’hui de 80 ans, avec une sénescence débutant autour de 75 ans. "La longévité continuera à croître, annonce ainsi Charles Susanne, professeur d’anthropologie et de génétique humaine à l’Université libre de Bruxelles, pour atteindre un pic estimé à 125 ans."

Certains tenants du "transhumanisme", courant de pensée très vivace aux États-Unis, estiment néanmoins que la convergence des nano et biotechnologies, de l’intelligence artificielle et des sciences cognitives permettra de modifier la nature humaine… et même d’échapper à notre condition de mortel ! "Sans tomber dans ce type d’utopie, note Charles Susanne, les avancées technologiques laissent entrevoir un Homme de plus en plus sélectionné génétiquement par la procréation médicalement assistée qui permet d’éliminer les embryons porteurs de maladies. Mais aussi de plus en plus augmenté, réparé, avec une pléiade de greffes et d’organes artificiels connectés entre eux."



 



 

Auteur: Internet

Info: https://www.sciencesetavenir.fr/ -  Franck Daninos, 12 mai 2025

[ homme futur ]

 

Commentaires: 0

Ajouté à la BD par miguel

écologie

La pompe biotique est un phénomène naturel qui a été mis en évidence par des chercheurs. L'étude la plus complète concernant la pompe biotique est celle conduite par une équipe scientifique russe, animée par  Anastassia Makarieva  et  Victor Gorshkov .

Le principe de ce phénomène  tient au mécanisme suivant :

1 Les espaces forestiers ont capables d'augmenter la capacité des sols à absorber l'eau de pluie en comparaison de surfaces faiblement végétalisées ou de simples surfaces agricoles. Les systèmes racinaires des arbres et la matière organique des sols forestiers permettent la pénétration de l'eau dans les terrains qui peuvent alors stocker plus. Dans un champ sans culture (comme souvent en hiver en France) l'eau après une forte pluie s'infiltre moins facilement dans le sol, reste en surface et s'évapore ou ruisselle plus rapidement vers les cours d'eau.

2 Les arbres régulent ensuite le retour de l'eau vers l'atmosphère par évapotranspiration. C'est le résultat d'un processus physico-chimique de la photosynthèse, qui absorbe le gaz carbonique et l'eau pour produire de l'oxygène et les matières organiques de l'arbre, bois et feuillages. Une partie de cette eau pompée du sol échappe à la photosynthèse et retourne à l'atmosphère par les stomates des feuilles ou des épines de résineux.

3 L'évaporation dans l'atmosphère au-dessus des massifs forestiers accentue les phénomènes de condensation et de restitution de la chaleur. Cet effet par conséquent peut créer une zone dépressionnaire sur les massifs.

4 Si le massif forestier se trouve proche d'une façade maritime, la dépression peut être plus importante qu'au-dessus de la mer et engendre donc une circulation de la mer vers l'intérieur des terres, qui peut aller au-delà de la simple brise de mer, phénomène diurne.

5 Si le massif forestier est très étendu, ou si plusieurs massifs forestiers se jouxtent vers l'intérieur des continents, le flux d'air chargé en eau se propage vers l'intérieur des continents, favorisant ainsi le transport de l'eau depuis les mers et océans.

6 Même en cas de masses d'air circulant naturellement des mers vers les terres, les forêts ont cette capacité de recharger l'atmosphère en eau pour la transporter plus loin.

L'ensemble de ce processus est  appelé pompe biotique .

Lorsque l'on procède à de vastes déforestations comme en Amazonie, on désamorce la pompe biotique, les prélèvements diminuent et on peut créer des zones désertiques. C'est ce que l'on observe en Amazonie, ou une diminution du rythme des prélèvements suite à l'abattage à grande échelle de la forêt.

On voit ainsi que la forêt peut influencer le climat en accompagnant le cycle de l'eau et en favorisant les prélèvements.  

 

Auteur: Internet

Info: https://www.terre-du-futur.fr/pompe-biotique-definition/

[ interdépendance ] [ rivières volantes ] [ gaïa ] [ aqua simplex ] [ mécanisme météorologique vertical ] [ refroidissement terrestre ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

stimulation psy

De très faibles doses de LSD pourraient booster le cerveau

Les participants ont profité des avantages de cette drogue sans en percevoir les inconvénients.

(image : Les chercheurs affirment " qu'une complexité neuronale accrue n'est pas nécessaire, ou du moins pas suffisante pour altérer les états de conscience." )

Une nouvelle étude récente suggère que la prise régulière de psychédéliques en très faibles quantités pourrait procurer de nombreux avantages au cerveau, tant au niveau de la humeur que de la puissance cérébrale. Dans leurs recherches publiées dans la revue Neuropsychopharmacology le 29 janvier 2024, des scientifiques américains et allemands ont tenté des expériences de microdosages sur un groupe de vingt-et-un adultes en bonne santé.

Science Altert rappelle que le LSD, qui a été créé accidentellement dans les années 1930, est toujours une drogue interdite. On sait aujourd'hui que le LSD active certains récepteurs de sérotonine dans le cerveau, ce qui complexifie l'activité cérébrale. Cependant, les risques d'altération de la conscience obligent les scientifiques à un jeu d'équilibriste pour parvenir à une solution thérapeutique efficace. L'objectif est d'obtenir les effets positifs en s'affranchissant des problèmes de sécurité et d'éthique associés aux états de conscience altérés que provoquent les psychédéliques. Dans ce cas précis, les résultats ont montré que de faibles doses peuvent améliorer le bien-être à certains égards, notamment en diminuant la perception de la douleur.

Pour leur expérience, les chercheurs ont administré aux participants trois types de microdoses: soit un placebo, soit treize microgrammes de LSD, soit vingt-six microgrammes de LSD. En théorie, aucun de ces dosages n'est censé entraîner d'effets hallucinatoires sur le consommateur.

L'activité cérébrale des participants a ensuite été testée grâce à l'électroencéphalographie, au moment où les effets des drogues étaient censés être les plus forts. Les participants ont également dû remplir un questionnaire pour évaluer s'ils avaient ressenti des changements sur leur niveau de conscience.

Les résultats montrent que la microdose de vingt-six microgrammes de LSD augmentait la complexité neuronale du cerveau d'environ 12% par rapport à un placebo, le tout sans que la conscience des participants ne soit altérée. Ces derniers ont toutefois fait mention de légères augmentations de l'anxiété et d'excitation dans leurs ressentis.

Une expérience répétée sur d'autres drogues

Les chercheurs ont répété l'expérience dans deux autres groupes, en remplaçant les microdoses de LSD par des microdoses de THC dans l'un, et de méthamphétamine dans l'autre. Dans ces expériences, le THC a affecté la conscience des participants, ce qui n'était pas le cas de la méthamphétamine. Toutefois, et même si le THC a modifié le niveau de conscience, la complexité neuronale est restée inchangée. Dans leur rapport, les chercheurs expliquent que ces données permettent de prouver " qu'une complexité neuronale accrue n'est pas nécessaire, ou du moins pas suffisante pour altérer les états de conscience ".

En revanche, il est encore trop tôt pour arriver à une mesure précise et définitive des effets psychédéliques. L'étude en question repose sur un échantillon très restreint, et le neurologue Robin Carhart-Harris avance que des expériences de plus grande envergure sont nécessaires. Selon lui, il est encore trop tôt pour affirmer que des microdoses n'ont aucun impact sur la conscience de chacun. De plus, les risques liés à la consommation de LSD, même s'il s'agit de vingt-six microgrammes, sont encore difficiles à définir avec précision.

Conor Murray, qui a dirigé l'étude, estime aussi que des recherches supplémentaires sont nécessaires. Il espère qu'à l'avenir, l'augmentation de la complexité neuronale que lui et son équipe ont observée puisse se traduire par des solutions thérapeutiques adaptées aux personnes souffrant de troubles cognitifs et comportementaux.



 

Auteur: Internet

Info: https://www.slate.fr/ , Félix Didier - 28 février 2024

[ désinhibition ] [ déverrouillage ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine pensante

Cette IA de Deepmind pourrait révolutionner les maths et " repousser les frontières de la connaissance humaine "

DeepMind vient de frapper un grand coup : le laboratoire d'IA de Google a annoncé en janvier avoir développé AlphaGeometry, une intelligence artificielle révolutionnaire capable de rivaliser avec les médaillés d'or des Olympiades internationales dans la résolution de problèmes de géométrie. Si cela ne vous parle pas, sachez que les médailles Fields - Terence Tao, Maryam Mirzakhani et Grigori Perelman - ont tous les trois été médaillés d'or lors de cette compétition annuelle de mathématiques qui fait s'affronter les meilleurs collégiens et lycéens du monde. Or, AlphaGeometry a résolu avec succès 25 des 30 problèmes de géométrie de l'Olympiade, se rapprochant ainsi du score moyen des médaillés d'or humains. C'est 15 de plus que son prédécesseur. Mais comment les scientifiques de DeepMind ont-ils accompli un tel exploit ?

L'approche neuro-symbolique, la petite révolution de l'IA

AlphaGeometry est le fruit d'une approche neuro-symbolique, combinant un modèle de langage neuronal (MLN) et un moteur de déduction symbolique (MDS).

Les MLN sont des réseaux de neurones artificiels entraînés sur de vastes ensembles de données textuelles. Ils sont capables d'apprendre et de reconnaître des schémas et des structures dans les données textuelles, ce qui leur permet de générer du texte cohérent et de comprendre le langage naturel. Les MDS sont, pour leur part, particulièrement efficaces pour traiter des problèmes qui nécessitent une manipulation formelle des symboles et des règles logiques.

L'approche neuro-symbolique permet de faire travailler ces deux composantes en tandem : dans le cadre d'AlphaGeometry, le MLN prédit des constructions géométriques potentiellement utiles, puis le MDS utilise ces prédictions pour guider la résolution du problème. Cette combinaison offre à l'IA les capacités intuitives des réseaux de neurones et la rigueur logique des moteurs de déduction symbolique, ce qui lui permet de résoudre efficacement des problèmes de géométrie complexes.

Pour surmonter le manque de problèmes mathématiques de niveau Olympiades qui auraient dû servir de données d'entraînement à AlphaGeometry, les chercheurs ont développé une méthode innovante de génération de données synthétiques à grande échelle, permettant au génial bébé de DeepMind de s'entraîner sur un ensemble de 100 millions d'exemples uniques.

(Image : Alphageometry résoud un problème simple...) 

Mission : repousser les frontières de la connaissance

Cette réalisation marque une avancée significative dans le développement de systèmes d'IA capables de raisonner et de résoudre des problèmes mathématiques complexes, rapportent les chercheurs de DeepMind dans un article paru dans Nature en février dernier. Bien que présentant des résultats impressionnants, AlphaGeometry se heurte tout de même à quelques défis, notamment celui de s'adapter à des scénarios mathématiques de plus en plus complexes et à mobiliser ses compétences dans des domaines mathématiques autres que la géométrie. 

Malgré tout, cette avancée ouvre la voie à d'extraordinaires possibilités dans les domaines des mathématiques, des sciences et de l'IA. Ses créateurs ne cachent d'ailleurs pas leur ambition : " Notre objectif à long terme reste de construire des IA capables de transférer leurs compétences et leurs connaissances dans tous les domaines mathématiques en développant la résolution de problèmes et le raisonnement sophistiqués dont dépendront les systèmes d'IA généraux ", assènent Trieu Trinh et Thang Luong, les responsables du projet dans un communiqué. 

Le ton est donné : autrement dit, les systèmes d'IA développés par DeepMind doivent acquérir des capacités de résolution de problèmes sophistiquées et de raisonnement, ce qui implique la capacité à identifier des schémas, à formuler des hypothèses, à déduire des conclusions et à prendre des décisions logiques dans des contextes variés. Le tout en " repoussant les frontières de la connaissance humaine ". Très ambitieux, mais peut-être pas impossible.

Auteur: Internet

Info: https://www.futura-sciences.com/ - mars 2024

[ robot intelligent ] [ historique ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

astrophysique

Une exoplanète tout juste découverte stupéfie les astronomes : "Le système le plus bizarre de tous les temps"

Elle s'appelle 2M1510 (AB) b et son nom n'est pas le seul élément étonnant de cette découverte purement fortuite.

(Image : En bleu, les trajectoires des deux étoiles du système. En orange, la trajectoire de la planète en question.)

On en connaît certaines avec des vents supersoniques, d’autres en forme de ballon de rugby, voire régulièrement arrosées de pluie de verre à l’horizontale (oui oui). Mais cette fois, les chercheurs des universités de Birmingham, Cambridge, Paris et Coimbra ont découvert une exoplanète " d’un genre inconnu ", comme ils le disent eux-mêmes. 

Nommée 2M1510 (AB) b, elle regroupe plusieurs caractéristiques extrêmement rares. Couplées, cela donne un cocktail encore jamais vu par l’être humain. L’observatoire européen austral (ESO), n’hésite pas à qualifier la découverte de « système planétaire le plus bizarre de tous les temps ». 

De surprises en surprises

Contrairement à la Terre, qui ne dispose que d’une étoile (notre Soleil), 2M1510 (AB) b orbite autour de deux étoiles, comme Tatooine dans Star Wars. Ce n’est pas inédit en soi, mais c’est assez rare pour être signalé : on a à peine confirmé l’existence d’une vingtaine de planètes à double étoiles dans tout ce qui a déjà été observé.

De plus, les deux étoiles en question, 2M1510 A et 2M1510 B, sont des naines brunes. Il s’agit d’objets plus grands que des planètes géantes gazeuses comme Jupiter, mais trop petits pour être des étoiles proprement dites comme notre Soleil.

En résumé : elles ne produisent que très peu de chaleur (toutes proportions gardées) et n’émettent pas beaucoup de lumière. Vulgairement, on peut parfois les qualifier d’étoiles " ratées ". Même avec deux " soleils ", pas de flamboyant double lever du jour sur 2M1510 (AB) b.

D’ailleurs, regardées depuis la Terre, les deux naines brunes s’éclipsent régulièrement l’une l’autre, formant ainsi ce que les astronomes appellent une binaire à éclipses. 

Dit comme ça, cela paraît très technique. Et ça l’est. Eh bien si, en plus, on vous disait qu’il y a une troisième caractéristique quasiment jamais vue par l’être humain. 

On le sait, la Terre tourne autour du Soleil sur un axe quasi horizontal, l’équateur. C’est le cas de la plupart des planètes et exoplanètes découvertes à ce jour. 

Eh bien 2M1510 (AB) b, elle, orbite plus ou moins à la verticale. On parle d’orbite " polaire ", et c’est la première fois qu’une exoplanète avec une telle orbite est observée autour d’un système binaire de naines brunes.

Ce système est incroyablement rare : il s'agit seulement de la deuxième paire de naines brunes à éclipses connue à ce jour, et il contient la première exoplanète jamais découverte sur une trajectoire perpendiculaire à l'orbite de ses deux étoiles hôtes. Les auteurs de Evidence for a polar circumbinary exoplanet orbiting a pair of eclipsing brown dwarfsDans le communiqué de presse de l'ESO, observatoire européen austral

Découverte fortuite 

" Une planète en orbite non seulement autour d’un système binaire, mais d’un système binaire composé de deux naines brunes, et qui plus est sur une orbite polaire, c’est vraiment incroyable et passionnant ", s’enthousiasme Amaury Triaud, co-auteur de l’étude et professeur à l’Université de Birmingham.

Enthousiasme d’autant plus compréhensible quand on sait que la découverte a été faite de manière fortuite, alors que les scientifiques ne cherchaient pas du tout une telle planète ou une telle configuration orbitale.

Reste maintenant à étudier toutes les données possibles pour mieux comprendre ce système d’un nouveau genre.

Auteur: Internet

Info: https://actu.fr/, Martin Leduc, 16 avril 2025

[ autre monde ] [ insolite ] [ sérendipité ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

dépassements des savoirs

Les expériences de pensée (ou Gedankenexperimente) sont des dispositifs intellectuels mobilisant l'imagination pour explorer des hypothèses, tester des théories ou révéler des paradoxes. Elles s'appuient sur des scénarios fictifs, souvent contre-intuitifs, pour éprouver la cohérence interne des concepts ou anticiper les implications d'une théorie. Leur objectif n'est pas de produire des données empiriques, mais de clarifier des raisonnements ou d'exposer des contradictions cachées.

Origines et évolution historique

1  Antiquité :

- Platon utilise des récits mythiques (comme l'allégorie de la caverne) pour illustrer des idées abstraites.

- Aristote imagine des situations hypothétiques pour discuter du mouvement ou du vide.

2  Renaissance et révolution scientifique :

- Galilée formalise des expériences de pensée pour contourner les limites technologiques de son époque. Exemple : Sa célèbre démonstration sur la chute des corps (deux masses liées tombant dans le vide) invalide la physique aristotélicienne.

- Newton et Descartes recourent à des scénarios imaginaires pour expliquer l'inertie ou l'infini.

3  Époque moderne et contemporaine :

- Einstein utilise des expériences de pensée pour conceptualiser la relativité (ex. : l'ascenseur en accélération).

- Philosophie analytique : Les penseurs comme Hilary Putnam (expérience de la Terre Jumelle sur la sémantique) ou John Searle (chambre chinoise sur l'intelligence artificielle) en font un outil central.

Fonctions épistémologiques

Les expériences de pensée remplissent plusieurs rôles selon les contextes :

1 Critique interne : Détecter des incohérences dans une théorie (ex. : le dilemme de l'âne de Buridan).

2 Exploration conceptuelle : Clarifier des notions complexes (ex. : le vaste de cerveau de Hilary Putnam pour discuter du réalisme).

3 Argument rhétorique : Rendre tangible une idée abstraite (ex. : le violoniste de Judith Jarvis Thomson en éthique).

4 Innovation théorique : Stimuler de nouvelles hypothèses (ex. : le chat de Schrödinger en mécanique quantique).

Exemples emblématiques

Domaine                             Expérience                                 Enjeu

Physique                             Ascenseur d'Einstein                   Relativité générale

Philosophie de l'esprit         Zombies de Chalmers                 Hard problem de la conscience

Éthique                               Trolley de Foot/Thomson             Moralité des choix utilitaristes

Métaphysique                     Navette de Teletransportation      Identité personnelle et continuité du soi

SémantiqueTerre                Jumelle (Putnam)                         Externalisme linguistique

Débats contemporains

1 Validité épistémique :

Les critiques (comme Kathleen Wilkes) soulignent leur dépendance à des intuitions culturellement biaisées.

Les défenseurs (comme James Robert Brown) insistent sur leur rôle heuristique irremplaçable.

2 Définition :

Faut-il limiter les expériences de pensée aux sciences a priori (mathématiques, logique) ?

Comment distinguer les expériences de pensée des fictions philosophiques ou des paraboles ?

3 Interdisciplinarité :

Utilisation en économie (ex. : main invisible de Smith), en droit (ex. : voile d'ignorance de Rawls), ou en psychologie morale.

Conclusion

Les expériences de pensée demeurent un outil fondamental pour la philosophie et les sciences, malgré leurs limites. Elles illustrent la puissance de l'abstraction et de l'imagination rationnelle, tout en suscitant des questions sur la nature de la connaissance et des concepts. Leur étude invite à une réflexion métaphilosophique sur les méthodes de la pensée critique.



 

Auteur: Internet

Info: https://encyclo-philo.fr/experiences-de-pensee-a - synthèse par Deepseek et Mg.

[ histoire des sciences ] [ paliers ] [ classification ] [ expérience de pensée ] [ élargissement ] [ échelles mélangées ] [ superpositions ] [ distanciation ]

 

Commentaires: 0

Ajouté à la BD par miguel

médecine

Des cancers peuvent être induits par des modifications épigénétiques, sans mutations de l’ADN 

Des chercheurs français ont montré chez des drosophiles que des facteurs épigénétiques peuvent provoquer des cancers, sans mutation de l’ADN. Leurs travaux sont publiés dans la revue Nature.

L’épigénétique est l’étude des mécanismes qui permettent à une même séquence d’ADN d’avoir une expression génique différente et de transmettre ces états fonctionnels différentiels aux cellules filles.

" Dans notre laboratoire, nous étudions comment des facteurs épigénétiques interagissent dans le développement et comment ils contribuent à maintenir un organisme en bonne santé ", indique Giacomo Cavalli, directeur de recherche au CNRS, à l’institut de génétique humaine de Montpellier.

Son équipe s’est notamment penchée sur l’étude de cancers chez la drosophile, un modèle animal qui détient la plupart des gènes importants chez l’humain.

Depuis plus de 30 ans, la théorie communément admise suppose que les cancers sont dus à des mutations de l’ADN. Mais ces 15 dernières années, les chercheurs se sont rendus compte qu’il était parfois difficile voire impossible de trouver des mutations à qui la cause du cancer pouvait être attribuée, en particulier pour les métastases. Ils se sont donc intéressés à d’autres causes, notamment aux mutations épigénétiques.

Des facteurs de transcription s’activent, activent la transcription des gènes et cela crée une sorte de spirale qui ne s’arrête plus

Pas besoin de mutation de l’ADN pour induire un cancer

" Nous nous sommes demandés si, en l’absence de mutation de l’ADN, il n’y aurait jamais de tumeurs. Chez l’insecte, nous pouvons induire des mutations et réduire ou augmenter les niveaux d’expression d’un facteur souhaité. Nous l’avons fait avec des protéines connues pour jouer un rôle de suppresseur de tumeurs, comme les protéines appelées " Polycomb ", détaille le chercheur.

Son équipe a réduit pendant 24 heures les niveaux d’expression de ces facteurs à un stade donné de développement et dans un tissu donné, le tissu précurseur de l’œil. " Lorsqu’on retire ces facteurs, même pendant un temps court, on constate déjà que des gènes sont déréglés. Ce sont les mêmes qui sont déréglés dans les tumeurs. Nous avons alors regardé ce qui se passait si on établissait à nouveau les niveaux normaux de protéines Polycomb dans les cellules : beaucoup de gènes déréglés sont revenus à leur état normal, mais une partie est restée surexprimée de manière irréversible, même si les protéines répressives étaient revenues ", développe-t-il.

Cela ouvre des perspectives de traitements, si on peut inhiber les facteurs qu’on aura identifiés comme la cause de ces cancers

Perspectives de traitements

En étudiant de plus près les raisons de ce phénomène, les chercheurs ont observé que ces gènes mettaient en place un circuit d’activation qui s’auto-maintenait. " Des facteurs de transcription s’activent, activent la transcription des gènes et cela crée une sorte de spirale qui ne s’arrête plus ", commente Giacomo Cavalli.

"Nous avons ainsi montré qu’il n’y avait pas besoin de mutation de l’ADN pour induire un cancer ".

Les scientifiques vont désormais poursuivre leurs recherches en menant des expériences similaires avec des cellules de rongeurs ou humaines en culture et en continuant les études chez l’insecte pour observer la naissance de ces cancers épigénétiques.

* Nous pouvons mener des études très fines, en isolant de toutes petites quantités de cellules qui commencent à proliférer. On peut ensuite étudier les gènes qui se surexpriment pour mettre en lumière toute la chaîne des mécanismes moléculaires qui est déréglée. Cela ouvre des perspectives de traitements, si on peut inhiber les facteurs qu’on aura identifiés comme la cause de ces cancers ", espère-t-il.

Auteur: Internet

Info: https://francais.medscape.com/ - Anne-Gaëlle Moulun, 2 mai 2024

[ cause-effet ] [ amorçage ] [ début ] [ déclic ] [ épithéliome ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

microbiote

Le rôle fondamental du carbone dans les mondes souterrains

Au cœur de l'écosystème microbien enfoui dans les profondeurs terrestres, le carbone joue un rôle pivot, liant cycles géochimiques, métaboliques inédits et stabilité climatique mondiale.

Carbone et microbes souterrains : une symbiose puissante

La vie souterraine décrite par Karen Lloyd est avant tout façonnée par la disponibilité et la transformation du carbone. En l'absence de lumière et de flux énergétiques abondants, les microbes doivent puiser leur énergie dans la matière organique enfouie – de minuscules fragments de protéines, débris végétaux issus du monde superficiel, ou même dans la décomposition de résidus issus de leur propre activité. Cette matière organique représente un stock considérable de carbone, bien plus vaste que celui que l'on retrouve dans l'atmosphère ou la biomasse végétale.

Ces microbes, par leurs processus métaboliques, maîtrisent le destin de ce carbone :

- Lorsqu'ils " respirent " des roches (réduction des minéraux), ils facilitent la transformation du carbone organique et inorganique, systématiquement impliquée dans la chimie de la vie profonde.

- En décomposant la matière organique, ils libèrent du dioxyde de carbone (CO₂) ou du méthane (CH₄), participant ainsi aux grands cycles planétaires et influençant le climat.

Stockage, libération et recyclage du carbone : enjeux et paradoxes

Les recherches récentes montrent que la croissance microbienne – autrement dit la capacité des microbes à convertir le carbone en matière vivante – est décisive pour déterminer la quantité de carbone stockée durablement dans les sédiments et les sols. Plus un microbe assimile le carbone pour sa propre croissance, plus ce carbone reste stocké sous terre, dans une forme stable et durable. À l'inverse, lorsque le microbien métabolique privilégie la respiration, une partie importante du carbone est relâchée sous forme de gaz, renforçant l'effet de serre.

Le milieu souterrain étant pauvre en ressources, ces microbes sont contraints à une extrême parcimonie : leur implication dans le cycle du carbone est marquée par des processus ultra-lents, où le stockage domine souvent la libération, entraînant la longévité exceptionnelle de certains individus et la stabilité relative du stock carboné du sous-sol.

La longue vie du carbone souterrain et ses implications planétaires

Il est frappant de noter que l'âge moyen du carbone dans les sols profonds se chiffre en milliers d'années, parfois jusqu'à plusieurs millénaires. Ce vieux carbone est régulièrement recyclé : soit il reste emprisonné dans des structures organiques et minérales, soit il est, au gré de la dynamique microbienne, relâché dans l'atmosphère. Les activités biologiques de ces " intraterrestres " participent ainsi de façon cruciale à la régulation des stocks planétaires de carbone, jouant un rôle de tampon face au changement climatique.

Carbone, évolution et adaptation extrême

Enfin, le métabolisme du carbone, dans des conditions aussi extrêmes, façonne l'évolution des microbes souterrains : ces organismes ont développé des stratégies inédites pour survivre avec un apport minimal, recyclant jusqu'à leurs propres déchets à des fins énergétiques, exploitant la moindre présence de carbone pour se reconstruire et subsister pendant des millénaires.

Ainsi, les travaux de Karen Lloyd et de la communauté scientifique révèlent que, loin d'être marginal, le carbone constitue le fil conducteur de la vie souterraine sur Terre : il en détermine la dynamique, la longévité, la diversité et son potentiel pour stabiliser notre climat. Les microbes incarnent en profondeur la puissance du vivant à transformer, conserver et parfois libérer le carbone, témoignant de la plasticité et de la robustesse de la vie face aux plus rudes conditions de la planète.




 

Auteur: Internet

Info: Quanta Magazine, Laura Poppick, 21 août 2025 (https://www.quantamagazine.org/the-pursuit-of-life-where-it-seems-unimaginable-20250820/?mc_cid=9a36d3aba0&mc_eid=78bedba296) - synthèse résumé intégrée : perplexyity.ia, prompté par Mg

[ microbiome ] [ processus-flux-adaptation ] [ boucle lente ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-machine

L'IA n'a rien à voir avec un cerveau, et c'est normal

L’étonnante diversité cellulaire et la complexité du réseau du cerveau pourraient montrer comment améliorer l’IA.

L’intelligence artificielle (IA) fascine, tant elle semble incarner le rêve prométhéen de reproduire la pensée humaine. Pourtant, à l’aune des dernières découvertes, il apparaît que l’IA n’est en rien le miroir fidèle du cerveau, et que cette divergence n’est pas un défaut, mais une promesse.


La complexité vivante du cerveau

Le cerveau, ce prodige d’ingénierie biologique, se compose d’une mosaïque de neurones dont la diversité confine à l’infini. Chacun, unique dans sa forme, sa fonction, sa chimie, tisse un réseau où l’information circule sous des formes multiples : signaux électriques, fréquences, forces, analogies subtiles. Là où une simple extension du corps d’un ver active une centaine d’entrées et de sorties pour exprimer la nuance d’une sensation, le cerveau humain orchestre, à travers cent mille milliards de connexions, la mémoire, l’émotion, le mouvement, le rêve, la veille et la régulation du corps tout entier. Cette symphonie se joue à toutes les échelles, du neurone isolé jusqu’aux réseaux qui embrassent l’organisme, modulée par des substances chimiques qui adaptent en permanence l’état du système à l’environnement, à l’émotion, au stress, à la faim.

La caricature numérique de l’IA

Face à cette luxuriance, l’IA oppose la simplicité de ses " neurones " artificiels, qui ne sont que des abstractions mathématiques, des nœuds d’un réseau où l’information se réduit à des 1 et des 0, à des poids ajustés par l’apprentissage. Si le perceptron, ancêtre des réseaux neuronaux, a permis à la machine d’apprendre, il demeure une caricature du vivant : il ne connaît ni la diversité, ni la plasticité, ni la profondeur du cerveau. Les réseaux modernes, même les plus profonds, ne sont que des empilements d’opérations algébriques, dépourvus de la dynamique organique et de la capacité d’adaptation continue du cerveau humain.

Des inspirations croisées, mais des mondes séparés

Certes, l’IA s’est nourrie des avancées en neurosciences : la découverte des couches successives du cortex visuel a inspiré les réseaux convolutifs, capables de reconnaître des formes dans les images. Mais là où le cerveau apprend en interaction avec le monde, intégrant expérience, émotion, et sens, l’IA apprend par ingestion massive de données, sans compréhension réelle, sans conscience, sans subjectivité. Elle excelle dans des tâches précises - reconnaître un visage, battre un champion d’échecs - mais demeure incapable de raisonner, de généraliser, d’inventer comme le ferait un enfant ou même un animal simple.

Vers une hybridation féconde ?

Pourtant, l’écart n’est pas une impasse. Certains chercheurs tentent d’introduire dans l’IA des éléments de diversité, de plasticité, ou de modulation inspirés de la biologie, espérant ainsi améliorer la capacité d’apprentissage ou l’efficacité énergétique des machines. D’autres, à rebours, utilisent l’IA comme modèle pour comprendre le cerveau, dans un jeu de miroirs où chaque système éclaire l’autre, malgré leurs différences fondamentales.

Conclusion : deux intelligences, deux promesses

En définitive, IA et cerveau ne sont pas les deux faces d’une même pièce, mais deux architectures de l’intelligence, chacune avec ses forces et ses limites. L’IA, loin d’être un cerveau de silicium, est un nouvel objet de pensée, un outil qui prolonge nos capacités sans jamais les égaler ni les imiter parfaitement. Accepter cette altérité, c’est ouvrir la voie à une compréhension plus fine du vivant comme de la machine, et à une coévolution fertile entre biologie et technologie.

Auteur: Internet

Info: Quanta Magazine, Yasemin Saplakoglu, 30 avril 2025

[ comparaison ]

 

Commentaires: 0

Ajouté à la BD par miguel