Qui dit vrai ?
Techno

Qui dit vrai ?

Grâce à l’intelligence artificielle, une jeune pousse montréalaise peut imiter n’importe quelle voix… et lui faire dire n’importe quoi. Pourra-t-on longtemps encore se fier à ce que l’on voit et entend ?

Quand Barack Obama a pris le micro au printemps 2017 pour vanter les prouesses d’une « cool start-up » de Montréal, l’effet a été immédiat : investisseurs et journalistes ont cogné à la porte de Lyrebird. La petite entreprise d’intelligence artificielle aurait eu de quoi être fière… si elle n’avait pas elle-même fabriqué l’extrait audio de l’ancien président américain.

Lyrebird est maître dans l’art de reproduire la voix. À partir d’un enregistrement vocal d’à peine une minute, son algorithme peut imiter n’importe qui et lui faire dire n’importe quoi. Céline Dion qui clame son amour pour la pizzéria de votre quartier. Donald Trump qui déclare la guerre à la Corée du Nord. À l’auditeur de déterminer si c’est vrai ou faux.

Si vous pensez que la vérité a la vie dure ces temps-ci, vous n’avez encore rien vu. Lyrebird n’est que l’une des nombreuses entreprises d’intelligence artificielle qui tentent de créer des sons ou des images indiscernables de ceux de la réalité.

Avec sa posture bien droite, le PDG de Lyrebird, Alexandre de Brébisson, projette une image de perfection semblable à celle de ces robots humanoïdes dans les œuvres de science-fiction. Créer une intelligence artificielle aussi évoluée que ces personnages imaginaires est le « but ultime » de l’entrepreneur de 28 ans, et « la voix est une composante de cette quête ».

Aussi impressionnants soient-ils, les extraits audios mis en ligne à ce jour par Lyrebird ne tromperont personne. En partie parce que la jeune pousse indique expressément la facticité de ses créations, mais surtout parce que les voix imitées ont toutes un je-ne-sais-quoi d’artificiel, qui les classe automatiquement dans la catégorie « robot ».

Ces enregistrements datent toutefois de plus d’un an, et l’entreprise a fait « énormément de progrès depuis », assure Alexandre de Brébisson. Les voix synthétiques qu’il a fait écouter à L’actualité, à micro fermé, étaient en effet bluffantes. Pour les courtes phrases, impossible de dire s’il s’agissait d’un humain ou d’une machine. « Nous essayons aussi de rendre l’émotion, avec différentes intonations. Ça commence à fonctionner. »

Ce que Lyrebird souhaite faire avec cette technologie n’est pas clair pour le moment. La jeune pousse a bien quelques projets-pilotes, dont un avec une agence de publicité qui souhaite « ressusciter la voix d’une personnalité décédée ». Mais la priorité des trois cofondateurs — tous des étudiants de la sommité québécoise en intelligence artificielle Yoshua Bengio — est d’améliorer la qualité de leur algorithme. Un luxe rendu possible par Andreessen Horowitz, l’une des sociétés de capital de risque les plus en vue de la Silicon Valley, qui a investi une somme non dévoilée dans l’entreprise.

L’approche « on construit et on verra », fréquente dans le secteur techno, ne devrait pas être appliquée au champ de l’intelligence artificielle, croit l’ancien ingénieur logiciel Shahar Avin. Cet expert, qui étudie désormais les risques existentiels à l’Université de Cambridge — pensez à tout ce qui menace l’humanité, de la bombe nucléaire à la grippe aviaire —, croit que trop de chercheurs sous-estiment le mauvais usage qui pourrait être fait de leurs algorithmes. « Ils créent des technologies, puis d’autres personnes se trouvent aux prises avec les conséquences. »

Déjà, des amateurs se sont emparés de techniques d’intelligence artificielle pour substituer les visages d’acteurs dans des films. Des extraits en ligne montrent ainsi Nicolas Cage dans la peau d’Indiana Jones, à la place de Harrison Ford, dans Les aventuriers de l’arche perdue. Hélas, cette technique est aussi utilisée pour insérer des vedettes ou d’ex-petites amies dans des films pornos sans leur consentement.

Et encore, cet exemple fait pâle figure en comparaison du contenu du Rapport sur le mauvais usage de l’IA, publié récemment par 26 auteurs, dont Shahar Avin. Ce document recense une vingtaine de dérapages possibles à court terme, dont des fausses nouvelles audios et vidéos « hautement réalistes », qui menacent la sécurité, l’économie et la démocratie. Dans le climat actuel, imaginez les conséquences d’une fausse vidéo où des demandeurs d’asile s’attaquent à une dame âgée dans la rue.

Loin de proscrire la recherche en intelligence artificielle, le rapport recommande aux chercheurs de faire preuve de davantage de prudence et invite les législateurs à réfléchir aux façons d’encadrer ce domaine scientifique. « Nous avons besoin de l’humanité dans ce qu’elle a de meilleur », dit Shahar Avin, en donnant l’exemple du clonage humain, interdit par l’ONU en 2005.

L’utilisation à mauvais escient de l’intelligence artificielle pourrait aussi être contrecarrée par… l’intelligence artificielle. C’est ce que tente de faire Dean Pomerleau, professeur adjoint à l’Institut de robotique de l’Université Carnegie Mellon. Dans la foulée de l’élection de Donald Trump, il a cofondé le Fake News Challenge, un concours ayant pour objectif de créer un algorithme d’intelligence artificielle capable d’assister les journalistes dans la détection des articles trompeurs. Cinquante équipes y ont participé l’an dernier et, bien qu’il y ait encore place à l’amélioration, les résultats donnent espoir au professeur.

Les avancées récentes dans la synthèse audio et vidéo l’empêchent toutefois de crier victoire. Dean Pomerleau a l’impression d’assister à « une course à l’armement, et l’attaque est toujours plus facile que la défense ». Il souhaite d’ailleurs que les participants du prochain Fake News Challenge, dont la date demeure à déterminer, se mesurent aux créations d’entreprises comme Lyrebird.

Alexandre de Brébisson voit de telles initiatives d’un bon œil. C’est notamment pour « stimuler la recherche sur les nouveaux moyens d’authentification » que Lyrebird a dévoilé l’existence de ses voix synthétiques en 2017. Le PDG est conscient des dérives potentielles de la « technologie perturbatrice » de son entreprise, mais cela ne l’effraie pas. « Si on regarde dans le passé, la société a toujours réussi à s’adapter aux innovations, à en utiliser les bons côtés plutôt que les mauvais. » Espérons que l’histoire se répétera.