Préjugés artificiels

Lucia Flores Echaiz figure parmi les auteurs d’un récent rapport de l’UNESCO sur les droits de la personne et l’intelligence artificielle (IA). Pour l’étudiante en droit à l’UQAM, le Canada devrait être exemplaire sur ces questions.

Photo : Nathalie St-Pierre

Quel est le but de ce rapport ? 

Il demande aux États d’évaluer si leurs lois protègent les citoyens discriminés par des systèmes d’intelligence artificielle, et de prendre des mesures pour les protéger. Dans la plupart des pays, y compris le Canada, pour se présenter devant la loi comme victime de discrimination, celle-ci doit avoir été commise par un humain, et non par un algorithme. Le problème avec la discrimination causée par l’IA, c’est qu’elle est difficile à prouver. C’est ce point qui n’est pas encadré par la loi.

Comment l’IA discrimine-t-elle ? 

Le cas le plus parlant, c’est un algorithme testé par Amazon qui, pour recruter de nouveaux effectifs, s’appuyait sur les CV reçus par l’entreprise sur une période de 10 ans, pour la plupart des CV d’hommes. Résultat : l’algorithme sélectionnait des profils masculins en priorité. Amazon ne l’a finalement pas utilisé. Il y a aussi beaucoup de racisme et de manque de représentation, car avant d’être employées pour des algorithmes, les données doivent être collectées, et certaines populations qui ont moins accès à des ordinateurs ou à des cellulaires sont moins présentes dans ces collectes. Elles sont donc sous-représentées dans les données et écartées par les algorithmes de sélection de personnes.

Quelle est la situation au Québec ? 

Beaucoup d’entreprises utilisent de tels algorithmes. Mais il est impossible d’évaluer s’ils sont discriminatoires ou pas, puisque les entreprises sont protégées par le secret commercial. Cette question pourrait être encadrée par une autorité indépendante, qui délivrerait des autorisations avant de mettre les algorithmes sur le marché, et permettrait ainsi de préserver le secret commercial.

Des initiatives sont-elles mises en place par les gouvernements ? 

Au niveau fédéral, le Conseil du Trésor du Canada a récemment instauré une directive qui établit des exigences minimales auxquelles doivent se conformer les ministères qui veulent utiliser un outil d’intelligence artificielle aidant à prendre des décisions. Les ministères sont tenus d’évaluer les risques que peut entraîner leur algorithme. Par exemple, si le ministère de la Justice souhaite utiliser un algorithme dans la sélection des candidats à la liberté conditionnelle, ça va être une note de risque très élevée. Au provincial, il n’existe aucune mesure sur l’encadrement de ces algorithmes, c’est dommage. Le Canada est reconnu pour son expertise en IA, il devrait montrer l’exemple et accélérer la mise en place de lois pour protéger les citoyens de toute forme de discrimination.

Quel est le plus grand danger posé par l’IA, selon vous ?

C’est de croire que les systèmes d’intelligence artificielle sont plus objectifs. La technologie n’est jamais neutre. Il y a énormément de décisions humaines qui influencent l’élaboration d’un algorithme, à toutes les étapes.

Les plus populaires