Grande entrevue avec Geoffrey Hinton Nobel… et lanceur d’alerte
Comment lancer la conversation avec celui qu’on surnomme le parrain de l’intelligence artificielle (IA), Geoffrey Hinton, lauréat du plus récent prix Nobel de physique, quand il apparaît sur notre écran d’ordinateur ?
Et pourquoi pas en parlant de parties d’échecs et du jeu de go ?
Je m’explique. Nous avons abordé une question qui divise les experts : l’intelligence artificielle fait-elle preuve de créativité ?
Geoffrey Hinton a une position sans ambiguïté au sujet de ceux qui pensent que ce n’est pas le cas.
" Je pense que la plupart de ces gens croient que nous avons une source interne magique [de créativité] que des objets matériels ne pourraient pas avoir. Et je pense que c’est de la foutaise ", lance-t-il.
" Je pense que l’IA sera plus créative que les humains, ajoute l’expert. Elle ne l’est pas encore, mais elle le sera. "
Je lui ai appris que l’historien israélien Yuval Noah Harari aborde l’enjeu de la créativité de l’IA dans son plus récent essai, Nexus, en racontant la façon dont un ordinateur (baptisé AlphaGo) a battu le champion mondial du jeu de go en 2016.
" ll parle du coup 37, je suppose ", réplique rapidement le septuagénaire – l’évènement lui est visiblement familier.
— Exactement ! C’est, pour lui, un exemple de créativité. Pour vous aussi ?
— Oh, c’est de la créativité extrême ! Je comprends mieux les échecs que le go. Mais AlphaGo fait des mouvements à la fois très créatifs et judicieux.
Ce coup, qui a permis à l’ordinateur de vaincre l’humain, est passé à l’histoire. Parce qu’il était si inédit qu’il a surpris tout le monde. Et parce qu’il prouvait que l’IA, pour triompher, avait su élaborer une stratégie à laquelle l’humain n’avait jamais pensé auparavant – et il y joue depuis plus de 2000 ans.
" Et l’intelligence artificielle est beaucoup plus créative qu’un humain aux échecs ", ajoute Geoffrey Hinton.
(Photo _ On a décerné l’an dernier le Nobel de physique à Geoffrey Hinton - conjointement avec l’Américain John Hopfield - pour ses travaux sur les réseaux neuronaux artificiels, qui s’inspirent du fonctionnement de notre cerveau.)
Ces travaux sont à la source des développements spectaculaires de l’intelligence artificielle ces dernières années.
Certains remettent en question l’utilisation du mot « intelligence » quand on parle d’" intelligence artificielle ", ai-je fait remarquer à Geoffrey Hinton.
Son avis est également très ferme à ce sujet.
" Bien sûr que c’est intelligent. Ça peut résoudre des problèmes de raisonnement. Ça peut résoudre des problèmes mathématiques. Ça peut écrire un code informatique. Toutes les choses que vous auriez pu penser utiliser pour évaluer si une personne est intelligente ", dit-il.
Un modèle d’intelligence artificielle va en fait " comprendre les chaînes de mots en convertissant chaque mot en certaines caractéristiques et en apprenant comment ces caractéristiques doivent interagir ", explique ce professeur émérite de l’Université de Toronto.
" C’est notre principale forme de compréhension des choses, ajoute-t-il. Non pas le raisonnement logique, mais ce que nous appelons l’intuition, qui consiste essentiellement à voir des analogies avec des centaines de choses que nous avons vues auparavant. "
Non seulement l’intelligence artificielle fait bel et bien déjà preuve d’intelligence, selon lui, mais nous n’avons encore rien vu.
C’est pourquoi, depuis qu’il a quitté Google au printemps 2023 après y avoir travaillé pendant une décennie (" parce qu’à 75 ans, je ne pouvais programmer aussi bien qu’avant et je trouvais ça frustrant ", dit-il), il passe le plus clair de son temps à sonner l’alarme.
Geoffrey Hinton est persuadé que l’IA va générer bon nombre de retombées positives, souligne-t-il. En santé, en éducation et dans le domaine environnemental pour lutter contre les changements climatiques, par exemple.
Mais il estime en contrepartie que nous devrions nous démener pour trouver des solutions à la menace qu’elle pose pour l’humanité.
" La plupart des experts en IA que je connais – les vrais experts, ceux qui comprennent comment elle fonctionne, qui l’ont développée – sont convaincus qu’elle deviendra beaucoup plus intelligente que nous. Pas un peu plus intelligente. Beaucoup plus intelligente. Ça va se produire, à moins que nous ne fassions d’abord exploser le monde ", lance-t-il avec une bonne dose d’humour noir.
C’est ce qu’il qualifie de " superintelligence " et que d’autres décrivent comme " l’intelligence artificielle générale ".
Et c’est cette étape qu’il craint.
Pour illustrer le danger pour l’espèce humaine que peut poser une IA " beaucoup plus intelligente que nous ", l’informaticien me demande d’imaginer une pièce remplie d’enfants de 3 ans, qui ont un adulte comme employé.
" Si l’adulte décide de prendre le contrôle, ce n’est pas si difficile. Il suffit de leur offrir des bonbons gratuits pendant une semaine, et le tour est joué. L’IA sera aussi douée pour nous manipuler que nous le sommes pour manipuler des enfants de 3 ans ", résume-t-il.
Geoffrey Hinton a-t-il des exemples concrets de façons dont ça pourrait mal tourner, dans de telles circonstances, pour les humains ?
" Voici la meilleure analogie que je puisse faire. Imaginez que vous avez un bébé tigre très mignon. Qu’est-ce qui va se passer ensuite ?
— Il va grandir…
— Oui, et il deviendra beaucoup, beaucoup plus fort que vous. Il sera donc capable de vous tuer en quelques secondes s’il le souhaite.
— C’est vrai.
— Alors la seule raison pour laquelle vous auriez un bébé tigre et vous le laisseriez grandir, c’est si vous aviez la ferme conviction que vous pouvez l’empêcher de vouloir vous tuer. "
C’est cette conviction que nous n’avons pas encore dans le cas de l’intelligence artificielle.
" Si l’IA veut vous faire du mal, ce sera facile. Nous n’avons pas besoin d’énumérer les différentes façons de le faire. Il y a tellement de façons différentes ", lance-t-il.
A-t-il en tête les armes entièrement autonomes, qu’on décrit souvent comme des " robots tueurs " ?
Non, car pour lui, c’est " une menace très grave " à court terme, mais elle n’est pas existentielle.
La distinction est très simple. La menace vient-elle d’agents malveillants utilisant l’IA ? Ou la menace vient-elle du fait que l’IA elle-même se transforme en agent malveillant ? La menace dont je parle est la transformation de l’IA elle-même en ce que nous appellerions un agent malveillant.
" J’ai choisi pour ma part de me concentrer sur la menace existentielle à long terme parce que beaucoup de gens disaient que c’était de la science-fiction. Et j’ai décidé d’utiliser ma réputation pour faire savoir que ce n’est pas de la science-fiction ", résume l’expert.
La fin de l’entrevue approche et, forcément, nous passons à l’étape des solutions potentielles.
Geoffrey Hinton n’a pas de réponse formelle à ce sujet, mais il a un avis éclairé.
Il constate que les grandes entreprises qui sont responsables des développements de l’IA " sont engagées envers leurs actionnaires à gagner le plus d’argent possible et n’ont aucune obligation de se préoccuper de la sécurité ".
Il estime par conséquent que les gouvernements devraient forcer ces entreprises à consacrer une part beaucoup plus importante de leurs ressources à la sécurité.
" Nous ne connaissons pas les solutions. Mais il serait stupide que l’humanité s’éteigne parce que nous n’avons pas pris la peine de les chercher ", lance-t-il.
" Nous devrions faire appel aux meilleurs jeunes chercheurs pour qu’ils se concentrent sur cette question, ajoute le septuagénaire. Les vieux comme moi ne vont pas trouver la solution. Mon rôle est de plaider pour que les gens tentent d’y parvenir. "