Démasqué en un clin d’œil

Déterminer l’authenticité des vidéos sur les réseaux sociaux n’a rien de sorcier. Il suffit de regarder les gens qui y figurent dans les yeux, souligne un groupe de chercheurs en intelligence artificielle.

Illustration : Stéphanie Aubin

Les deepfakes, des vidéos manipulées par l’intelligence artificielle pour remplacer les visages des acteurs par ceux d’une vedette ou d’un politicien, vont amener les fausses nouvelles à un autre niveau. Des ingénieurs de l’Université d’État de New York ont toutefois décelé un défaut dans ces clips : les gens y clignent des yeux de façon erratique.

Une personne normale ferme les yeux toutes les 2 à 10 secondes, soit beaucoup plus souvent que ce qui est observé dans les permutations intelligentes de visages — leurs acteurs ne clignent parfois même pas des yeux ! Un constat qui a permis aux chercheurs de mettre au point un algorithme capable de repérer 95 % des fausses vidéos.

Leur solution ne durera toutefois pas longtemps, préviennent les chercheurs. Les faussaires améliorent les deepfakes à toute vitesse, si bien que cette imperfection risque d’être corrigée… en un clin d’œil.

Dans la même catégorie
1 commentaire
Les commentaires sont fermés.

Ce qui veut simplement dire qu’il ne sert pas à grand chose de tenter d’éviter ces escroqueries. Autrefois, on aurait dit ¨le bien est toujours en retard sur le mal¨! Il en sera sans doute toujours ainsi.