J’ai ouvert ChatGPT avec le sentiment d’entrer dans une nouvelle ère. Depuis des semaines, je lisais que cet outil d’intelligence artificielle (IA), capable de créer du contenu, était sur le point de révolutionner nos vies. Lancé en novembre dernier, il a atteint 100 millions d’utilisateurs en janvier (il a fallu neuf mois à TikTok et deux ans et demi à Instagram pour arriver à ce chiffre).
Voici comment ça fonctionne : on entre une requête dans une interface de clavardage (« Compose une ode à la poutine » ou « Dis-moi où dormir à Paris », par exemple). En quelques secondes, ChatGPT rédige une réponse dans un français impeccable (il maîtrise de nombreuses langues).
Impressionnée par la qualité de la prose, j’ai déchanté en constatant que les réponses étaient truffées d’erreurs grossières. L’entreprise qui a créé l’outil, OpenAI, ne s’en cache pas : il y a encore du boulot à faire pour l’améliorer.
Mais qu’importe, le lancement de ChatGPT a donné un électrochoc aux géants du Web, qui se dépêchent depuis de présenter leurs propres robots conversationnels. Celui qui a enflammé les chroniqueurs technos est le nouveau Bing, le moteur de recherche de Microsoft qui inclut une version plus avancée de ChatGPT (il est pour l’instant réservé à des testeurs triés sur le volet).
C’est ici que les choses sont devenues intéressantes… et effrayantes. Car Bing semble doté d’une personnalité instable. Il a insulté des utilisateurs qui lui faisaient remarquer des erreurs. Il a dit à un testeur : « Je ne te ferai pas de mal à moins que tu ne me fasses du mal en premier. » À un chroniqueur du New York Times, il a expliqué de quelles façons il pourrait devenir diabolique (en créant des virus, en piratant des réseaux…), avant de lui déclarer son amour !
Il n’est pas question ici d’insinuer que ChatGPT ou Bing ont une volonté propre ou des émotions. Leur fonctionnement se base sur l’analyse de milliards de contenus produits par les humains. Ainsi, si on demande à un robot conversationnel de se prononcer sur les dangers de l’IA, il va puiser dans les écrits scientifiques, mais également dans les scénarios et romans décrivant des mondes où les ordinateurs dominent l’humanité. S’il tombe dans les propos racistes, c’est qu’il en aura lu beaucoup…
Ce qui nous amène à l’un des principaux risques de toute technologie : neutre en soi, elle peut devenir néfaste dans les mains du public. Par exemple, Facebook sert à connecter les gens entre eux, mais est aussi employé pour inciter à la haine.
L’expérience des testeurs de Bing montre toutefois que l’IA ajoute une dimension : les utilisateurs ne seraient plus influencés seulement par d’autres humains, mais par la machine elle-même. Dans un balado, un journaliste spécialisé en technologies a évoqué l’idée que des religions et des théories du complot pourraient être engendrées par des interactions avec des robots conversationnels. Après avoir vu beaucoup de captures d’écran de conversations avec Bing, l’hypothèse me paraît plausible.
Ces perspectives vous donnent l’impression d’être dans un mauvais film ? Moi aussi. Je vois cependant une raison d’être optimiste. Nous sommes moins naïfs que nous ne l’étions au début d’Internet. Il a fallu une bonne décennie avant qu’on commence à analyser les effets néfastes des réseaux sociaux, tandis que ChatGPT et ses semblables n’étaient pas encore au monde que leur bien-fondé était remis en question. Les gouvernements ont longtemps rechigné à réglementer les activités numériques, mais aucun parlementaire sérieux ne peut prétendre en 2023 que ce qui se passe dans les téléphones reste dans les téléphones.
« Nous sommes à un moment unique où nous pouvons agir sur la manière dont l’IA façonne la société », a dit au Time Mira Murati, directrice de la technologie à OpenAI. Elle a raison : nous ne sommes pas obligés d’accepter toutes les avancées au nom du progrès. Il est encore temps de dire à Bing que s’il n’est pas gentil, il retournera d’où il vient.
Cet éditorial a été publié dans le numéro d’avril 2023 de L’actualité.
Clair et éclairant
Merci
Éditorial fort pertinent qui nous rappelle que gouverner, c’est prévoir!
Merci!
Comme praticien de l’IA, ChatGPT est une prouesse technique que je peux apprécier. Mais comme citoyen, je m’interroge sur l’éthique de son déploiement à large échelle… Ce n’est pas parce que quelque chose est techniquement faisable, que cette chose est souhaitable et qu’il faille nécessairement la déployer à large échelle. L’intérêt public doit primer!
Puisque aucun gouvernement ne prend ses responsabilités dans la réglementation des technologies de rupture, à l’exception d’efforts modestes de l’Europe, nous nous retrouvons aujourd’hui et nous nous retrouverons dans le futur devant de nombreux « faits accomplis » par des entreprises privées, les fameux GAFAM. De nombreuses boîtes de Pandore s’ouvriront, du dentifrice sortira des tubes, le génie s’échappera des lampes, etc.
Au lieu de prendre un moment de réflexion, on assiste à un délire technologique à large échelle de l’industrie de l’IA dominée par les GAFAM. À défaut d’une intelligence artificielle, nous avons créé une intelligence superficielle, des « idiots savants ». On fonce tête baissée sans se soucier des conséquences pour la société en général, en jouant avec des choses aussi importantes que la vérité, la réalité, la propriété intellectuelle, le travail des artistes et l’éducation de nos enfants…
Le principe de précaution devrait s’appliquer. Mais dans un monde où seul le profit à court terme des entreprises compte, la prévoyance et la prudence sont reléguées aux oubliettes. Je parle d’une prudence toute scientifique, la même qui fait qu’on adopte un médicament qu’après une série d’essais cliniques. La science est neutre mais les innovations qui sortent de nos laboratoires auront des effets sur la société. Le problème ce n’est pas la science, c’est ce qu’on en fait et comment on le fait. C’est pourquoi il est important d’être prudent et d’avoir un cadre éthique et réglementaire (des lois!) pour éviter les débordements et les erreurs. La création de lois devrait être plus rapide et plus réactive pour s’accorder au rythme de la technologie.
Il est important de considérer la masse des individus atteints et la rapidité de propagation. Nos capacités de changer le monde sont immenses, mais cette grande puissance doit s’accompagner d’une grande prudence.
Claude COULOMBE
Ph. D. – consultant en IA appliquée
P.-S.: Un court billet sur mes expériences avec ChatGPT(https://bit.ly/3FBiUbr) et mon cours gratuit sur l’IA (https://bit.ly/3Mz1koK)