Faut-il avoir peur… des robots rédacteurs ?

Les algorithmes capables d’écrire des textes tout seuls finiront-ils par remplacer les rédacteurs humains ? Pourra-t-on même les « dompter » pour que les textes favorisent une certaine idéologie ?

Photo : Adragan / Getty Images

OpenAI, fondé notamment par Elon Musk, a semé récemment tout un  émoi dans les médias en annonçant avoir mis au point un algorithme tellement habile pour écrire des textes tout seul que ce centre de recherche a préféré ne pas en publier le code, afin d’éviter qu’il ne soit utilisé par des gens mal intentionnés pour inonder le monde de fausses nouvelles. Vantardise ou sérieuse raison de s’inquiéter ?

Cet algorithme, baptisé GPT-2, est un modèle de langue, c’est-à-dire un modèle mathématique visant à mettre en équation le ton et la nature d’un texte dans un contexte particulier. Les modèles de langue ne sont pas nouveaux : ils sont derrière toutes les applications qui génèrent aujourd’hui des textes automatiquement, pour énoncer des prévisions météo, traduire une phrase ou proposer des mots dans un message texte.

Avant qu’ils puissent rédiger, ces modèles doivent être entraînés sur un énorme volume de textes ressemblant à ceux souhaités. GPT-2 a été exercé à partir de huit millions de pages Web, avec comme mission de choisir, un mot après l’autre, les termes pour concevoir un texte dont on écrit le début pour lui. Dans la présentation technique qu’en fait OpenAI, les chercheurs expliquent qu’ils lui ont demandé par exemple d’écrire la suite d’une histoire inventée de licornes découvertes dans les Andes. Les paragraphes que GPT-2 a été capable de générer pour imaginer tout seul la continuation sont bluffants : on jurerait qu’ils ont été écrits par des rédacteurs humains !

Même s’il peut ainsi inventer et produire de toutes pièces des textes très convaincants, GPT-2 est loin d’être parfait : il lui arrive aussi de composer deux fois de suite le même bout de texte ou bien d’écrire des choses invraisemblables (qu’un feu prend dans de l’eau, par exemple). Entraîné sur des sujets populaires (comme le Brexit ou Miley Cyrus), GPT-2 pond encore 50 % de texte « raté », selon ses concepteurs. Avec un tel taux d’erreur, il y a une bonne marge de progrès à réaliser avant que l’on confonde le résultat avec celui d’un rédacteur humain !

Il est vrai qu’un tel outil, s’il était plus efficace, pourrait créer automatiquement des quantités de fausses nouvelles bien plus importantes que ce que des humains, même travaillant à la chaîne dans un pays totalitaire, seraient capables de rédiger. En revanche, on ne peut pour l’instant lui dicter quoi écrire, puisqu’on ne comprend pas réellement la manière dont ces algorithmes « apprennent ». Peut-on à la fois avoir un modèle de langue ultraperformant et le « dompter » pour que les textes favorisent une certaine idéologie politique, par exemple ? Ça reste à démontrer.

Dans la même catégorie
Commentaires
Laisser un commentaire