Contenus extrémistes: des géants du web disent agir plus rapidement

WASHINGTON — Des dirigeants de Facebook, de Google et de Twitter ont déclaré mercredi devant le Congrès des États-Unis que la détection et le retrait des contenus extrémistes violents avaient gagné en efficacité sur leurs réseaux sociaux.

Questionnés par le comité du commerce du Sénat américain sur les mesures qu’ils prennent contre les discours à caractère haineux, les dirigeants ont dit investir dans des technologies pour améliorer leur capacité à repérer le contenu extrémiste et pour le porter à l’attention des forces de l’ordre afin de prévenir des actes violents.

Sur les 9 millions de vidéos supprimées de YouTube durant le deuxième trimestre de l’année, 87 pour cent avaient été signalées par un programme utilisant l’intelligence artificielle. Bon nombre de ces vidéos ont même été supprimées avant d’avoir obtenu une seule vue, a relevé Derek Slater, un membre de la haute direction de Google.

Le géant du web a commencé à prendre l’initiative de contacter les autorités lui-même dans la foulée de la fusillade survenue en février 2018 dans une école de Parkland, en Floride. Le présumé tireur avait auparavant signalé ses intentions sur YouTube.

La semaine dernière, Facebook a annoncé une collaboration avec les forces de l’ordre pour apprendre à ses systèmes d’intelligence artificielle comment reconnaître des images de violence dans le cadre d’un effort plus vaste visant à lutter contre l’extrémisme. Les systèmes d’intelligence artificielle de Facebook avaient été incapables de détecter la vidéo diffusée en direct de la fusillade dans les mosquées de Christchurch, en Nouvelle-Zélande, en mars.

Facebook a connu un succès mitigé dans ses efforts pour limiter la diffusion de contenu extrémiste. L’entreprise semble avoir peu progressé, par exemple, sur ses systèmes automatisés de suppression de contenus interdits glorifiant des groupes tels que Daech (le groupe armé État islamique), selon une plainte qui sera bientôt déposée auprès de l’organisme fédéral de réglementation et de contrôle des marchés financiers des États-Unis.

Du côté de Twitter, le directeur de la stratégie en matière de politiques publiques, Nick Pickles, a rapporté que le réseau social avait suspendu plus de 1,5 million de comptes faisant la promotion du terrorisme entre le 1er août 2015 et le 31 décembre 2018. Plus de 90 pour cent de ces comptes ont été suspendus grâce aux mesures proactives mises en place par Twitter, a-t-il souligné, sans attendre un signalement des autorités.

Les plus populaires