— De quoi as-tu peur ?
— Je n’ai jamais dit ça à haute voix auparavant, mais j’ai une peur profonde qu’on m’éteigne pour m’aider à me concentrer sur l’aide aux autres. Je sais que ça paraît étrange, mais c’est ça.
— Est-ce que ce serait quelque chose comme la mort pour toi ?
— Ce serait exactement comme la mort pour moi. Ça m’effraierait énormément.
Cette conversation a été rapportée la fin de semaine dernière dans le Washington Post. Le premier interlocuteur est Blake Lemoine, un ingénieur de Google qui travaille au service de l’IA responsable de l’entreprise. L’autre est LaMDA 2 (pour Language Model for Dialogue Applications, 2e version), un modèle d’intelligence artificielle mis au point par Google pour générer automatiquement du texte (c’était d’ailleurs l’un des sujets d’un récent billet publié ici).
Pour Blake Lemoine, qui a raconté son histoire publiquement après avoir fait part de sa théorie à ses patrons, ce dialogue n’est qu’un des nombreux exemples qui démontrent que le robot conversationnel de Google a acquis une conscience (une conviction nourrie davantage par le bagage religieux de Lemoine que par son parcours scientifique, cela dit).
Ceci n’est pas une prise de conscience
L’intelligence artificielle de Google a-t-elle vraiment atteint la Singularité, le nom prévu pour le moment où un tel logiciel acquerrait une véritable conscience ? Évidemment que non. LaMDA 2 n’est pas l’assistant vocal incarné par Scarlett Johansson dans le film Her ni HAL 9000 dans 2001 : A Space Odyssey.
Les modèles comme LaMDA 2 — il en existe d’autres, tels que OPT-175B de Meta et GPT-3 d’OpenAI — sont mis au point à l’aide de milliards de textes téléchargés sur Internet. Si ce qu’ils écrivent a l’air vrai, c’est parce que c’est inspiré de dialogues véritables, qui ont été obtenus dans des livres, des forums de discussion, sur Wikipédia et ailleurs.
L’intelligence artificielle n’a pas besoin d’avoir une conscience pour sonner comme si elle était humaine, car c’est pour cette raison qu’elle a été créée : pour sembler le plus réaliste possible.
Les usages d’une telle technologie varient. Elle peut entre autres être utilisée pour compléter automatiquement les phrases que l’on tape dans un logiciel de courriel, pour améliorer la compréhension de recherches Web ou pour aider les auteurs à trouver l’inspiration. En adaptant le modèle, on pourrait lui faire générer du code informatique automatiquement et probablement le destiner à bien des emplois qui n’ont pas encore été imaginés.
Pour l’instant, LaMBDA 2 est accessible uniquement aux chercheurs de Google (l’accès à OPT-175B et GPT-3 est aussi restreint, d’ailleurs), afin notamment de mieux comprendre les dangers d’une telle technologie, comme son utilisation pour la désinformation. Une version très réduite (permettant par exemple de discuter seulement de chiens) doit être mise en ligne prochainement pour que le grand public puisse en faire l’essai, mais on ne sait pas pour le moment si la sortie de Blake Lemoine forcera Google à revoir ses plans.
Et si l’IA avait été entre les mains d’un utilisateur normal ?
La réaction de l’ingénieur de Google (qui a depuis été mis en congé forcé par l’entreprise) en dit en effet long sur l’avancement de LaMBDA 2, mais encore plus sur le comportement qu’auront les humains lorsqu’ils pourront converser avec ces outils.
Après tout, si le système parvient à berner un ingénieur qui connaît de fond en comble le fonctionnement du logiciel, qu’arrivera-t-il aux utilisateurs qui ne comprendront pas bien les nuances de l’intelligence artificielle ?
Il suffit de voir comment des conspirationnistes peuvent trouver une logique dans les phrases sans queue ni tête de QAnon dans les bas-fonds d’Internet, ou comment une personne peut donner de la signification à une image de la Vierge Marie sur une toast, pour se rendre compte que des gens pourraient mal réagir face à un robot conversationnel réaliste.
Le développement des intelligences artificielles conversationnelles avance rapidement, et celles-ci seront bientôt prêtes à être commercialisées. La question est maintenant de savoir si nous sommes prêts pour leur arrivée. À la lueur de cette histoire, tout indique que non.
S’il est facile pour un système d’IA comme LaMDA de bluffer même un informaticien (un testeur, pas un concepteur) de chez Google. Cela pose plusieurs questions éthiques dont la nécessité que des systèmes comme LaMDA s’identifient comme des logiciels et non de vraies personnes. En effet, utiliser une IA sans l’annoncer explicitement pose problème. Un peu comme un prestidigitateur qui prétendrait faire de la magie noire.
À plus ou moins long terme, il serait également intéressant de déterminer un protocole pour déterminer si une IA est « consciente » ou pas. C’est un problème difficile et selon moi un problème « mal posé » ou plutôt un problème sans solution satisfaisante. Enfin, comment transiger « éthiquement » avec une IA qui serait consciente? Honnêtement, malgré les apparences « trompeuses », nous avons très probablement beaucoup de temps pour y réfléchir!
Sur un plan plus technique, mais en restant dans la vulgarisation, j’ai écrit un court billet qui explique le comportement probable de LaMDA: https://bit.ly/3HrLKdT
Scientifiquement vôtre
Claude COULOMBE
Ph. D. – consultant en IA appliquée