Voilà maintenant deux ans que les images et vidéos manipulées automatiquement à l’aide d’un logiciel et de techniques d’intelligence artificielle, les deepfakes (hypertrucage en français), sévissent sur Internet.
La technologie s’est tout d’abord fait connaître lorsque des visages de personnalités célèbres ont été posés sur des corps d’actrices nues. En 2019, les 96% des vidéos du genre recensées sur le web sont d’ailleurs toujours à caractère pornographique, selon la firme de détection d’hypertrucages Deeptrace.
Les dangers associés aux hypertrucages vont toutefois bien au-delà des vidéos coquines. « Ces images et vidéos contrefaites peuvent faire du mal tant à la société qu’aux individus », expliquait récemment le chercheur en vision par ordinateur Mohamed Dahmane du Centre de recherche informatique de Montréal (CRIM) lors d’une conférence sur le sujet. Côté individuel, « ces vidéos peuvent être utilisées pour de la diffamation ou de l’extorsion », illustre par exemple le chercheur.
En 2020, ce sont toutefois surtout les risques sociétaux qui devraient attirer l’attention, notamment à cause des élections américaines. De fausses vidéos de politiciens pourraient notamment être utilisées pour manipuler l’opinion publique pendant la campagne.
Les hypertrucages peuvent aussi avoir un impact dans des domaines aussi variés que le militaire ou le juridique. « Les hypertrucages vont bientôt rendre le travail des juges et des avocats plus difficile », notait en septembre la chercheuse de l’Université de Stanford Riana Pfefferkorn dans un article publié dans le magazine du barreau de l’état de Washington. Plus les trucages seront réalistes, plus il sera difficile d’identifier si une preuve vidéo qui innocente un accusé est réelle ou non.
Du côté militaire, des preuves vidéo sont régulièrement utilisées pour prendre des décisions stratégiques. La fiabilité de ces documents peut être une question de vie ou de mort.
La machine contre la machine
Reconnaître un hypertrucage peut malheureusement être difficile. « Les humains détectent une fausse image dans environ 57% des cas seulement », affirme Mohamed Dahmane. Pour faire face à cette nouvelle menace, plusieurs programmes ont été mis en place afin d’élaborer des mécanismes automatiques de détection.
Au Canada, le programme d’Innovation pour la défense, l’excellence et la sécurité (IDEeS) du ministère de la Défense nationale a ainsi remis plus de 1,6 milliard $ de subventions en 2019 pour l’élaboration d’outils permettant la vérification de l’intégrité de vidéos et leur protection contre la falsification.
Aux États-Unis, le bras de recherche du Pentagone, le DARPA, a aussi mis en place un programme pour développer des outils pour identifier les vidéos et photos manipulées, le MediFor (pour Media Forensics).
AWS, Facebook et Microsoft ont quant à eux lancé un concours similaire au début décembre, le Deepfake Detection Challenge (DFDC), en mettant à la disposition plus de 470 Go de fichiers vidéos pour permettre aux chercheurs, entreprises et particuliers d’entraîner leurs modèles. Cinq finalistes se partageront un million de dollars américains au printemps 2020. 785 équipes se sont déjà inscrites au concours.
Un défi insurmontable?
Beaucoup de travaux sont en cours pour développer des algorithmes capables de différencier le vrai du faux. Certaines stratégies passent par le marquage des vidéos originales en amont, tandis que d’autres recherchent les inconsistances dans les images. En mettant au point une multitude d’outils capable de repérer plusieurs types d’hypertrucages, il devrait être possible d’avoir une bonne idée de la véracité d’une photo ou d’une vidéo.
La lutte aux hypertrucages s’annonce néanmoins difficile, puisqu’à mesure que des solutions seront proposées, d’autres logiciels de trucage seront élaborés. « C’est le jeu du chat et de la souris », croit Mohamed Dahmane du CRIM.
Et même si les chercheurs arrivaient à mettre au point une solution infaillible, celle-ci ne règlerait probablement pas les problèmes reliés à la désinformation (rappelons par exemple que Facebook a annoncé que le réseau social accepterait de publier des publicités électorales fausses sur son site pendant les élections de 2020).
À la manière des intervenants mal-cités ou des présidents qui crient FAKE NEWS lorsqu’une nouvelle ne leur convient pas, d’autre risquent aussi de pointer du doigt les hypertrucages lorsque cela les arrange. C’est d’ailleurs déjà arrivé l’année dernière, lorsque le président du Gabon a diffusé une vidéo de fin d’année l’année sur Facebook après plusieurs mois de silence. Plusieurs ont crié à l’hypertrucage, et un coup d’État a même été tenté une semaine plus tard, en partie à cause de la vidéo.
Il est essentiel de développer des outils permettant d’identifier les hypertrucages. Mais désormais, leur existence même est suffisante pour en inciter certains à refuser de croire une vidéo qui leur est présentée, peu importe que sa véracité ait été prouvée ou non.