L’art de modérer 720 000 heures de vidéos par jour, selon YouTube

Plus de 500 heures de vidéos sont téléversées sur YouTube chaque minute. Avant d’être pressée d’accélérer son processus de modération, l’entreprise a choisi d’en expliquer d’abord la complexité. 

The7Dew / Getty images / Montage L'actualité

Le décompte a commencé : tel que le dévoile Alec Castonguay dans L’actualité ce mois-ci, le ministre du Patrimoine canadien, Steven Guilbeault, déposera sous peu un projet de loi pour forcer les réseaux sociaux à retirer en quelques heures les propos haineux ou faisant la promotion de groupes extrémistes. Plus facile à dire qu’à faire, réplique YouTube, qui a organisé cette semaine une rencontre en ligne avec la presse canadienne afin de démystifier son processus de modération.  

Premier filtre : l’apprentissage automatique

Depuis 2017, des outils mis au point à l’aide de l’apprentissage automatique analysent le contenu téléversé sur YouTube et les métadonnées qui lui sont associées. Objectif : s’assurer que les nouveautés n’enfreignent pas le « règlement de la communauté », qui indique ce qui est accepté ou non sur la plateforme. 

Sur les 9,3 millions de vidéos retirées de la plateforme entre octobre et décembre 2020, 8,8 millions avaient été détectées par des outils d’intelligence artificielle. Le reste a principalement été signalé par des utilisateurs. Environ les trois quarts (72 %) des retraits se font avant que les vidéos concernées aient été visionnées 10 fois. Et un compte qui voit trois de ses vidéos enlevées en moins de 90 jours sera banni. 

« [L’ajout de cette fonction] a été un tournant pour nous », estime Farshad Shadloo, responsable des communications et des affaires publiques chez YouTube. Pour lui, l’infrastructure mise en place à ce moment-là a notamment permis au site de gérer la modération de manière plus efficace pendant la pandémie et la campagne électorale présidentielle américaine de 2020. « Cet investissement en apprentissage automatique s’est avéré essentiel pour modérer à grande échelle. Et si on ne peut pas opérer à grande échelle, on ne peut pas être une plateforme responsable », juge-t-il. 

L’humain est encore nécessaire

Au départ, tous les contenus repérés par les algorithmes étaient ensuite révisés par des modérateurs en chair et en os. Les catégories les plus évidentes, celles faciles à trouver par l’apprentissage machine comme la pornographie, sont désormais retirées sans aucune intervention humaine.

L’humain n’a toutefois pas encore été retranché de l’équation. « Nos algorithmes d’apprentissage machine peuvent repérer aisément certains types de vidéos, mais d’autres contenus, comme les propos haineux, sont plus nuancés. On a besoin de vraies personnes », explique Farshad Shadloo. 

Les modérateurs qui vérifient ces contenus sont répartis partout dans le monde. Ce ne sont donc pas forcément des Québécois qui révisent le contenu d’ici, mais YouTube peut faire affaire avec des conseillers locaux au besoin, notamment lorsqu’une demande juridique est reçue. 

Le processus n’est bien sûr pas parfait. Selon les données de YouTube publiées plus tôt ce mois-ci, entre 0,16 % et 0,18 % des vidéos visionnées sur YouTube enfreindraient les règles de la plateforme. Il s’agit d’une bonne amélioration, puisque ce taux a diminué de 70 % depuis 2017. La quantité de contenu qui devrait être bloqué mais ne l’est pas demeure malgré tout importante, étant donné que les utilisateurs regardent un milliard d’heures de vidéos chaque jour. 

Désinformation : rediriger plutôt qu’interdire

Pour Farshad Shadloo, le contenu qui déplaît ne doit pas forcément être retiré : « Nous avons une plateforme ouverte, accessible à différentes voix. » La désinformation est donc permise sur YouTube, qui qualifie ces contenus de « limites » (borderline en anglais). Seules quelques exceptions, comme la désinformation médicale liée à la COVID-19, sont bloquées.

Pour le reste, la désinformation demeure en ligne, mais elle n’est pas censée se retrouver parmi les premières vidéos suggérées aux utilisateurs. L’entreprise affirme sur son site que ses systèmes « ne recommandent pas de manière proactive ces contenus sur YouTube ». Et lorsque vous faites une recherche sur un thème précis, du contenu provenant de sources crédibles devrait vous être proposé en premier. Une vidéo soutenant que la Terre est plate ne devrait donc pas apparaître si un utilisateur tente de confirmer que la Terre est ronde. YouTube restreint aussi la monétisation des vidéos problématiques. Leurs créateurs ne peuvent donc pas y insérer de publicités. 

YouTube affirme que les visionnements de contenus limites ont diminué de 70 % depuis la mise en place de ces pratiques, en 2019. N’empêche, ceux qui « font leurs recherches » peuvent toujours trouver ce qu’ils veulent consulter en fouillant un peu. 

Quels seront les effets du règlement canadien ?

« Notre principale crainte avec un règlement qui met l’accent sur un retrait rapide, sans nous donner le temps de faire les vérifications appropriées, c’est qu’il va en résulter une surmodération [overremoval]. C’est une préoccupation importante pour nous », a tenu à préciser Jason Kee, conseiller en politiques publiques et relations gouvernementales chez Google Canada, la société mère de YouTube. 

Les outils mis en place chez YouTube depuis 2017 permettent de filtrer promptement une grande partie du contenu interdit, mais pas tout. Déséquilibrer le système entraînerait probablement le retrait de contenus qui respectent les règles… Et ceux qui les ont publiés devraient porter ces décisions en appel.

La question est maintenant de savoir si les Canadiens partagent cette préoccupation de Google ou si, pour eux, la possibilité que des contenus respectueux des règles soient retirés sans raison est un risque acceptable pour avoir droit à des plateformes avec moins de haine et de contenus dangereux.

Laisser un commentaire