Démasqué en un clin d'œil
Société

Démasqué en un clin d’œil

Déterminer l’authenticité des vidéos sur les réseaux sociaux n’a rien de sorcier. Il suffit de regarder les gens qui y figurent dans les yeux, souligne un groupe de chercheurs en intelligence artificielle.

Les deepfakes, des vidéos manipulées par l’intelligence artificielle pour remplacer les visages des acteurs par ceux d’une vedette ou d’un politicien, vont amener les fausses nouvelles à un autre niveau. Des ingénieurs de l’Université d’État de New York ont toutefois décelé un défaut dans ces clips : les gens y clignent des yeux de façon erratique.

Une personne normale ferme les yeux toutes les 2 à 10 secondes, soit beaucoup plus souvent que ce qui est observé dans les permutations intelligentes de visages — leurs acteurs ne clignent parfois même pas des yeux ! Un constat qui a permis aux chercheurs de mettre au point un algorithme capable de repérer 95 % des fausses vidéos.

Leur solution ne durera toutefois pas longtemps, préviennent les chercheurs. Les faussaires améliorent les deepfakes à toute vitesse, si bien que cette imperfection risque d’être corrigée… en un clin d’œil.