Deepfakes : ce qu'en pensent les experts des effets spéciaux
Techno

Deepfakes : ce qu’en pensent les experts des effets spéciaux

Un logiciel d’intelligence artificielle permet de remplacer le visage d’une actrice porno par celui d’une célébrité d’Hollywood, ou d’insérer Nicolas Cage dans un film où il ne joue pas. Mais le pas vers l’industrie des effets spéciaux est encore loin, explique Maxime Johnson.

Le concept était inconnu il y a quelques semaines à peine. À l’aide d’un logiciel d’apprentissage profond (une technique d’intelligence artificielle) nommé Fake App, n’importe qui peut troquer un visage par un autre dans un fichier vidéo. Le procédé requiert l’analyse de centaines de photos d’une même personne, mais peut tout de même être complété en quelques heures seulement.

Les considérations éthiques sont nombreuses. La technique a en effet été utilisée sur le forum Reddit pour créer des films pornos avec les visages d’actrices connues comme Emma Watson ou Gal Gadot, sans leur consentement. Plusieurs plateformes ont d’ailleurs depuis banni ces vidéos osées. La possibilité de créer de fausses nouvelles mettant en vedette des politiciens connus inquiète également.

Les deepfakes peuvent-ils remplacer les effets visuels professionnels?

Visuellement, les deepfakes impressionnent. C’est à se demander si la technique annonce une révolution dans l’industrie du cinéma, alors qu’un ordinateur de 500$ et quelques heures semblent suffisants pour accomplir le travail réalisé en plusieurs mois par les studios professionnels, que ce soit pour créer un personnage numérique ou pour enlever la moustache d’un acteur.

Mais nous sommes encore loin de là. « Je ne crois pas que c’est une technique que les films vont utiliser prochainement, estime Richard Clegg, superviseur des effets visuels chez Moving Picture Company. Les résultats sont intéressants, mais la qualité n’est pas acceptable pour le cinéma. »

Clegg s’y connaît en la matière: il a chapeauté la création des personnages numériques de Rachel dans Blade Runner 2049 et du jeune Arnold Schwarzenegger dans Terminator Genisys.

« Ce que l’on voit sur Internet avec les deepfakes, ce sont des fichiers d’une basse résolution, précise Damien Fagnou, vice-président responsable de la technologie et de l’infrastructure aux services de production chez Technicolor. C’est à l’opposé du spectre de ce qui est fait pour le cinéma, où tout est analysé image par image sur des moniteurs 4K calibrés, et où il faut être certain que tout sera parfait, que ce soit dans la version Blu-ray du film ou encore sur un écran Imax. »

« La technique démontre un bon potentiel à long terme, mais pour l’instant, il faudrait qu’elle s’améliore d’un ordre de grandeur avant que l’on puisse s’en servir », ajoute-t-il.

Tous les experts interrogés par L’actualité sont unanimes : certains deepfakes sont beaux sur un téléphone, mais on est encore loin d’une qualité suffisante pour le septième art. Et même si la technologie peut encore être améliorée, tous doutent qu’elle pourra à court ou moyen terme être utilisée pour changer le visage d’un acteur automatiquement de la sorte.

L’intelligence artificielle a sa place dans les effets spéciaux

Le logiciel FakeApp permet de remplacer un visage par un autre dans un fichier vidéo.

Si le remplacement de visage à l’aide d’apprentissage profond n’est pas encore prêt pour les grands honneurs, les possibilités de l’intelligence artificielle dans l’industrie des effets spéciaux sont cependant bien réelles.

« Nous travaillons présentement à intégrer l’intelligence artificielle à nos produits, confirme Simon Robinson, cofondateur et chef scientifique de Foundry, une entreprise britannique qui développe des logiciels utilisés par les créateurs d’effets spéciaux. L’intelligence artificielle est intéressante pour nous de deux façons : améliorer nos outils existants, et en créer de nouveaux, qui vont permettre aux artistes de modifier la façon dont ils travaillent, dit-il. Ils pourront être plus créatifs et accomplir leurs tâches plus rapidement. »

La technologie pourrait par exemple automatiser la rotoscopie, une technique qui permet de découper un personnage image par image, afin de le retirer de son environnement. Ce procédé laborieux pourrait être fait automatiquement grâce à l’apprentissage profond, où le logiciel serait capable par lui-même de différencier l’acteur de ce qui l’entoure.

Ces nouveautés sont attendues avec impatience par l’industrie. « C’est ridicule de devoir encore faire de la rotoscopie en 2018 », lance Pierre Raymond, président et chef des opérations chez Hybride Technologie, une entreprise qu’il a fondée en 1991 et qui a réalisé les effets visuels de films comme 300, Avatar, Jurassic World et Star Wars : The Last Jedi.

Il ne croit pas que l’intelligence artificielle va surmonter tous les obstacles de son métier, mais certains effets, comme créer des environnements numériques artificiels (un décor de planète Mars ou une forêt tropicale, par exemple), devraient être grandement simplifiés par la technologie.

Il ne faut pas s’attendre à une baisse des coûts

Photo : Moving Picture Company / Warner Bros.

Que ce soit avec une version améliorée des deepfakes ou avec la création de nouveaux outils, l’intelligence artificielle devrait simplifier et accélérer le travail des studios d’effets visuels.

Mais contrairement à ce qui a été dit ces dernières semaines après l’arrivée des vidéos pornographiques avec des actrices célèbres, il ne faut pas s’attendre à de grands changements dans l’industrie des effets spéciaux. Les effets des films à gros budgets ne seront jamais conçus par des algorithmes fonctionnant sur des ordinateurs à 500$.

« Réaliser un film de grande envergure a toujours demandé des milliers de personnes, estime Simon Robinson. Avant, il fallait des menuisiers pour créer les plateaux, mais aujourd’hui, il faut des animateurs 3D. Les studios vont toujours vouloir dépenser l’argent nécessaire pour que leur film soit parmi les meilleurs. » Un sentiment partagé par tous ceux à qui j’ai parlé: le coût ne va pas diminuer, la barre à atteindre sera plutôt élevée.

« L’intelligence artificielle va nous permettre d’itérer beaucoup plus rapidement, et de présenter plus de choix au réalisateur », prédit Richard Clegg, de Moving Picture Company. La technologie devrait non seulement donner le temps aux artistes de peaufiner leur travail encore plus, mais aussi de créer des effets qui répondent mieux à la vision des créateurs du film.

 Le retour des acteurs morts à surveiller

Un personnage numérique du Wikihuman Project.

Les avancées à prévoir dans les effets spéciaux pourraient signifier à plus long terme l’arrivée de personnages numériques beaucoup plus complexes et réalistes qu’à l’heure actuelle. Pour Pierre Raymond, ce n’est qu’une question de temps avant que des personnages entièrement virtuels ou reprenant les traits d’acteurs décédés prennent l’affiche à Hollywood.

« C’est le dernier rempart qui reste à atteindre aux effets visuels numériques, dit-il. Nous sommes capables de créer une mer en furie ou une catastrophe naturelle. Ce qui n’est pas encore possible, c’est la production d’un personnage virtuel hyper crédible, qui pourrait remplacer un acteur tout au long d’un film. »

Christopher Nichols, directeur du centre de recherche en effets visuels assistés par ordinateur Chaos Group Labs, prédit aussi l’arrivée de ces personnages. Pour lui, leurs répercussions vont toutefois bien au-delà du cinéma.

« Les humains numériques auront un rôle important dans le futur, que ce soit pour exprimer des émotions par nos avatars en réalité virtuelle ou encore pour partager de l’information. Il y a des risques associés à la technologie, comme on le voit avec les deepfakes. Mais je crois que plus nous apprenons à concevoir des humains numériques, plus nous en apprenons sur nous-mêmes. C’est une bonne chose de se dépasser, même si ça peut faire peur en ce moment ».