Le tableau brossé par la recherche Discriminating systems: Gender, Race and Power in AI [Systèmes discriminatoires: genre, race et pouvoir dans l’intelligence artificielle] inquiète. L’analyse de AI Now, un institut associé à l’Université de New York, recense différentes études de tous horizons effectuées au cours des dernières années pour mesurer la diversité et la discrimination dans le milieu de l’intelligence artificielle (IA).
« Il y a une crise de la diversité dans l’industrie de l’IA », indique le rapport en guise d’ouverture. Les chiffres parlent en effet d’eux-mêmes. Aucune statistique générale n’existe, mais les chercheuses Sarah Myers West, Meredith Whittaker et Kate Crawford soulignent notamment que seulement 18 % des auteurs dans les grandes conférences en IA sont des femmes et que 80 % des professeurs en IA sont des hommes. Même son de cloche dans les entreprises. Seuls 15 % des chercheurs en IA chez Facebook sont des femmes, contre 10 % chez Google. D’ailleurs, la séparation binaire des sexes dans la plupart de ces statistiques indique aussi un problème en soi, puisqu’elle ignore les autres identités sexuelles.
Et le manque de diversité ne touche pas que le sexe. Seulement 2,5 % des employés de Google seraient noirs, alors que 4 % le seraient chez Facebook et Microsoft.
Ces statistiques ne représentent pas une grande surprise. Mais le fait qu’elles soient aussi basses, même après des décennies de prises de conscience et d’investissements pour redresser la situation, force les chercheuses à qualifier l’état du milieu d’« alarmant ».
Les biais dans les systèmes d’intelligence artificielle
Les problèmes reliés aux biais en IA sont bien documentés. Une étude récente a par exemple démontré comment les outils d’intelligence artificielle utilisés par Facebook pour ses publicités ciblées continuaient à véhiculer des préjugés fermement ancrés dans la société, comme en montrant des postes de caissiers dans les épiceries à des femmes et des postes de chauffeurs de taxi à des conducteurs noirs, et ce, même si ceux qui offrent les emplois les affichent pour tous les utilisateurs.
Les problèmes du genre sont nombreux, notamment dans les logiciels qui incitent les policiers à reproduire la surveillance accrue de certaines populations telle qu’elle est effectuée depuis des décennies. Notons que les biais peuvent se faire envers le sexe et la race, mais aussi envers la classe sociale, par exemple.
L’industrie est au fait de ces problèmes. Mais en connaître l’existence ne permet pas pour autant de les régler. En 2018, Amazon a par exemple dû abandonner un outil d’intelligence artificielle utilisé pour trouver de nouveaux employés qui tendait à discriminer contre les femmes. L’entreprise a bien tenté de corriger la situation, mais sans succès. En analysant les préférences d’embauche passées d’Amazon pour prédire les préférences futures à partir des CV reçus, l’IA répétait une discrimination trop fortement incrustée dans le système pour que les chercheurs puissent modifier manuellement l’algorithme.
Quelques recommandations
Le manque de diversité dans le milieu de l’intelligence artificielle n’est pas le seul facteur à blâmer pour la discrimination que l’on observe dans les systèmes. L’un ne peut toutefois pas être amélioré sans l’autre, estiment les auteures de Discriminating systems: Gender, Race and Power in AI.
La liste de leurs recommandations pour augmenter la diversité est longue. La publication des moyennes salariales, en incluant les bonus, pour tous les rôles et les catégories d’emplois par race et sexe serait notamment un bon point de départ. L’équité salariale devrait d’ailleurs être visée non pas seulement pour les salariés, mais aussi pour les contractants et les vendeurs.
Pour assainir le milieu, les entreprises devraient publier des rapports de transparence sur le harcèlement et la discrimination, une exigence qui avait notamment été mise de l’avant par des employés de Google lors d’une manifestation mondiale l’année dernière. Les entreprises pourraient également changer leurs tactiques d’embauche, en ne ciblant pas que les grandes universités, par exemple.
Améliorer la diversité chez les chercheurs ne sera toutefois pas assez pour enrayer la discrimination. Sarah Myers West, Meredith Whittaker et Kate Crawford comptent poursuivre leurs recherches sur le sujet, mais déjà, le trio propose à l’industrie d’améliorer la transparence des systèmes d’intelligence artificielle et d’indiquer clairement lorsqu’ils sont utilisés.
Des tests plus rigoureux devraient aussi être effectués avant que de tels systèmes soient déployés. Des audits indépendants et un suivi après le lancement devraient être de rigueur pour mesurer les biais et la discrimination.
La recherche dans le secteur devra en outre être élargie au-delà du champ technique comme c’est souvent le cas présentement, ce qui nécessitera des expertises multidisciplinaires. Les systèmes d’intelligence artificielle affectent après tout beaucoup plus que le milieu lui-même. Ils ont un impact de plus en plus grand sur toute la société.
Chasse aux sorcières Hi-Tech.
Merci