Après les caméras, l’intelligence artificielle

Avec les manifestations du mouvement Black Lives Matter, l’utilisation par les corps policiers des outils d’intelligence artificielle et de reconnaissance faciale a monté d’un cran.

Daniel gaura / Getty Images

Téléphones, drones, caméras de surveillance, caméras d’intervention sur les policiers : chacune des manifestations du mouvement Black Lives Matter aux États-Unis, au printemps et à l’été, a été filmée de tous les angles possibles, avec une qualité d’image meilleure que jamais. À défaut d’avoir prévenu la casse et la brutalité policière, cette haute surveillance technologique pourrait faciliter l’arrestation de ceux qui le méritent, autant du côté des pilleurs que de celui des policiers (si la volonté y est, évidemment).

Aux quatre coins du monde, les forces de l’ordre sont friandes de ces vidéos. « Il y a beaucoup de caméras partout. Si vous avez effectué du pillage, que nous connaissons votre numéro de plaque d’immatriculation et votre visage, nous allons vous retrouver », a déclaré le chef de police de Long Beach, Robert Luna, après des manifestations contre la brutalité policière à la suite de la mort de George Floyd.

Dépister les malfaiteurs à partir d’autant d’enregistrements aurait auparavant exigé un travail colossal. En 2011, à la suite d’émeutes ayant éclaté à Londres après la mort d’un jeune homme tué par la police, il avait d’ailleurs fallu 450 enquêteurs pour analyser des milliers d’heures de vidéos, ce qui avait mené à la condamnation de 1 292 émeutiers, emprisonnés pour plus de 1 800 ans en tout.

Neuf ans plus tard, les manifestations aux États-Unis sont survenues dans un tout autre contexte technologique. Par exemple, des outils simplifient la tâche, en suivant notamment une personne d’une vidéo à l’autre jusqu’à ce qu’elle retire son masque, ce qui permet ensuite de l’identifier avec un système de reconnaissance faciale.

Les vidéos faciliteront quantité d’arrestations, mais les prochains mois risquent aussi de concrétiser les craintes de nombreux citoyens par rapport à ces outils d’intelligence artificielle. La technologie est après tout imparfaite et peut entraîner l’accusation de personnes innocentes. Certaines populations sont plus à risque d’être visées, des manifestants pacifiques peuvent être fichés dans les systèmes de la police, et les outils du genre renforcent souvent les préjugés systémiques. Un risque d’autant plus troublant que les manifestations de Black Lives Matter se déroulaient sur fond de racisme systémique, justement.

Et malheureusement, le manque de transparence fréquent dans l’adoption de ces technologies ne permet pas d’espérer qu’elles seront employées avec prudence. Quand, au début 2020, le grand public a appris l’existence de l’entreprise de reconnaissance faciale Clearview AI, qui a notamment monté des bases de données géantes avec des photos obtenues sur les réseaux sociaux, il a aussi appris que plus de 600 corps policiers utilisaient déjà le service, y compris la Gendarmerie royale du Canada (qui a depuis mis fin à son contrat avec l’entreprise).

Les outils technologiques ont peut-être de bons côtés, mais il est difficile de se sentir en confiance dans de telles conditions.

Laisser un commentaire