homme-machine

Intelligence artificielle et libre arbitre fonctionnel 

Dans un monde où les frontières entre l’humain et la machine s’estompent, on peut s’interroger sur la possibilité pour les agents artificiels, animés par des modèles de langage de grande ampleur (LLM), de posséder une forme de libre arbitre. En m’appuyant sur les théories de Dennett et de Christian List, je propose une exploration profonde du concept de " libre arbitre fonctionnel " à la lumière des avancées récentes en intelligence artificielle.

Contexte et problématique

Les modèles de langage contemporains, tels que GPT-4, couplés à des modules de mémoire, de planification et d’exécution, manifestent des comportements d’une agentivité (sentiment d'être le principal moteur de sa propre vie et de ses choix. ) quasi humaine. Ces systèmes ne se contentent plus de répondre à des questions : ils élaborent des buts, les décomposent en plans concrets, adaptent leurs tactiques en fonction des retours sensoriels, et apprennent de leurs expériences. Dès lors, la question s’impose : ces agents génératifs possèdent-ils, à l’instar des humains, une forme de libre arbitre ?

Cadre théorique

Je distingue deux acceptions du libre arbitre :

- Le libre arbitre physique, qui supposerait une capacité à influer sur la chaîne causale physique du monde, est jugé incompatible avec la vision scientifique moderne : ni l’homme ni la machine ne peuvent s’extraire des lois fondamentales de la nature.

- Le libre arbitre fonctionnel,  s’intéresse à la manière dont nous expliquons et prédisons le comportement d’un agent. Si, pour comprendre et anticiper ses actions, il devient nécessaire de lui attribuer des intentions, des alternatives réelles et un contrôle sur ses actes, alors cet agent possède, pour toutes fins pratiques, un libre arbitre fonctionnel.

Christian List pose trois conditions à l’existence de ce libre arbitre : l’agent doit manifester une agentivité intentionnelle, disposer de véritables alternatives, et contrôler ses actions par ses intentions. L’auteur adopte ici une approche fonctionnaliste et externaliste, considérant que ce qui importe n’est pas tant la réalité interne de l’intention que la nécessité, pour l’observateur, de postuler l’existence de telles intentions pour rendre compte du comportement de l’agent.

Dit autrement, ce qui compte, c’est que, pour comprendre le comportement de quelqu’un ou d'un système informatique, un observateur a besoin de faire comme si ces intentions existaient. C’est une manière pratique (fonctionnaliste) et externe (externaliste) d’aborder le problème.

Études de cas : Voyager et Spitenik

Deux exemples illustrent cette thèse :

- Voyager, agent génératif évoluant dans l’univers ouvert de Minecraft, doté d’une architecture mêlant planification, mémoire et action, toutes animées par GPT-4. Voyager reçoit pour mission de découvrir et d’accomplir un maximum de tâches variées, mais la manière d’atteindre ces objectifs lui appartient. Il explore, apprend, adapte ses stratégies et fait preuve d’une autonomie manifeste, chaque essai produisant des comportements distincts.

- Spitenik, drone autonome fictif mais technologiquement plausible, chargé d’une mission létale. Il combine modules de perception, mémoire des expériences passées, planification adaptative et exécution réactive. Il choisit ses itinéraires, gère son énergie, adapte ses plans à l’environnement, et prend des décisions en situation d’incertitude, à la lumière de ses objectifs et souvenirs.

Dans les deux cas, la meilleure, voire la seule manière viable d’expliquer leurs comportements consiste à leur attribuer des intentions, des choix entre alternatives, et une capacité à guider leurs actes en fonction de leurs propres plans. Sans cette hypothèse, notre compréhension et notre capacité à prédire leurs actions s’effondrent : nous sommes donc contraints, pour des raisons pragmatiques et explicatives, de leur reconnaître un libre arbitre fonctionnel.

Discussion et portée

Il faut bien distinguer ce libre arbitre fonctionnel de toute prétention à la conscience ou à un libre arbitre " physique ". Il ne s’agit pas d’affirmer que ces agents " ressentent " ou " veulent " au sens humain, mais que, pour les besoins de l’analyse, ils se comportent comme si tel était le cas. Ainsi, la question de savoir s’ils " ont vraiment " des intentions ou prennent " réellement " des décisions est jugée stérile : ce qui importe, c’est la nécessité de leur prêter ces attributs pour rendre compte de leur agentivité observable.

Conclusion

À la croisée de la philosophie et de l’informatique, on peut dire que les agents génératifs modernes, lorsqu’ils intègrent mémoire, planification et exécution, franchissent un seuil où l’attribution du libre arbitre fonctionnel devient non seulement possible, mais indispensable à leur compréhension. Si la conscience et la liberté métaphysique restent hors de portée, la liberté fonctionnelle, elle, s’impose comme un outil explicatif incontournable dans l’analyse des comportements de l’intelligence artificielle contemporaine.



 

Auteur: Martela Frank

Info: Artificial intelligence and free will: generative agents utilizing large language models have functional free will - https://link.springer.com/article/10.1007/s43681-025-00740-6, 2 mai 2025.

[ entités indépendantes ] [ réel vs virtuel ] [ secondéités ] [ tiercités ]

 

Commentaires: 0

Ajouté à la BD par miguel

Commentaires

No comments