« Une boussole éthique qui permettra d’orienter le développement de l’intelligence artificielle vers des finalités moralement et socialement désirables » : voilà l’objectif de la Déclaration de Montréal, un document présenté cette semaine dans la métropole par des chercheurs et universitaires venant d’horizons variés, de l’intelligence artificielle à la philosophie en passant par la santé publique et la criminologie.
Après une longue réflexion et des consultations publiques menées devant des centaines de personnes au Québec et à l’étranger, les comités responsables de la création du document proposent 10 grands principes pour encadrer l’intelligence artificielle.
Ces principes s’assurent par exemple que les systèmes d’intelligence artificielle (SIA) permettent d’améliorer les conditions de vie, la santé et les conditions de travail des gens (principe de bien-être), qu’ils garantissent la confidentialité des données et l’anonymisation des profils personnels (principe de protection de l’intimité et de la vie privée), et qu’ils ne doivent pas conduire à une uniformisation de la société par la normalisation des comportements et des opinions (principe d’inclusion de la diversité).
Ces principes sont aussi accompagnés de recommandations, en vue d’aider les décideurs politiques à élaborer des politiques publiques modernes et adaptées à l’intelligence artificielle.
Les risques associés à l’intelligence artificielle sont grands, mais la Déclaration de Montréal est un guide réfléchi et complet, qui explique clairement les balises que les universités, les entreprises et les gouvernements doivent mettre en place afin qu’elle ait plutôt une incidence positive sur la société.
Les auteurs de la Déclaration ne sont toutefois pas dupes. « Je suis très fier de ce qu’on a fait, mais c’est loin d’être suffisant. On peut prononcer plein de belles paroles, mais si ça ne se traduit pas en actes, ça ne servira pas à grand-chose », a prévenu Yoshua Bengio, professeur titulaire au Département d’informatique et de recherche opérationnelle (DIRO) de l’Université de Montréal et membre du comité d’orientation de la Déclaration, lors de la présentation du document.
Voici cinq défis qui devront être relevés pour que la Déclaration devienne plus qu’une série de bonnes intentions.
1. Rallier les grandes entreprises à la cause
La Déclaration de Montréal n’est pas contraignante. Elle invite plutôt les parties intéressées à la signer volontairement, sans aucune assurance que ses principes seront respectés.
Comme l’a soulevé Yoshua Bengio lors de la présentation, « certains principes sont assez radicaux et obligent de poser des questions qui changent les manières de faire ». Certains peuvent même entrer en conflit avec les autres objectifs des entreprises.
Dans le principe de participation démocratique, la Déclaration affirme par exemple que « le code des algorithmes, publics ou privés, doit toujours être accessible aux autorités publiques compétentes et aux parties prenantes concernées à des fins de vérification et de contrôle ».
La Déclaration ne demande pas d’ouvrir son code au public, mais la majorité des entreprises, tant les géants de la Silicon Valley que les sociétés locales, seront probablement réticentes à l’idée de volontairement soumettre leurs algorithmes aux autorités.
Le document a évidemment un intérêt même s’il n’est pas suivi dans son entièreté. Un rapport publié en septembre par SAS, Accenture, Intel et Forbes Insights indiquait par exemple que 63 % des entreprises qui ont adopté l’IA ont mis en place des comités d’éthique pour examiner l’usage de cette technologie (une proportion qui grimpe à 73 % au Canada). La Déclaration de Montréal risque de devenir un outil puissant pour ces comités, qu’elle soit signée ou non. Mais pour cela, il faudra convaincre les entreprises de l’utiliser.
2. Accompagner la Déclaration d’une démarche politique
La réflexion autour de la Déclaration de Montréal a mis en relief plusieurs éléments selon lesquels les gouvernements devraient s’adapter à l’arrivée de l’intelligence artificielle.
« Le cadre juridique ne va pas assez loin dans la prise en compte des nouvelles réalités numériques », estime Marc-Antoine Dilhac, professeur au Département de philosophie de l’Université de Montréal et codirecteur scientifique de la co-construction de la Déclaration.
Pour ce dernier, les lois entourant les données personnelles devraient par exemple s’adapter aux objectifs de leur collecte. Les gens sont en effet plus enclins à communiquer leurs données pour la création d’algorithmes permettant le diagnostic de maladies rares que pour un ciblage politique à la manière de Cambridge Analytica, au cœur du scandale sur les données d’utilisateurs de Facebook.
La création d’un « ministère des données », une idée évoquée pendant les consultations entourant la création de la Déclaration de Montréal, pourrait être un bon moyen de moderniser l’appareil gouvernemental.
3. Voir au cœur de la boîte noire
Certains défis de la Déclaration de Montréal sont aussi plus techniques.
Le raisonnement derrière les décisions prises par une intelligence artificielle n’est par exemple pas toujours évident, même pour ceux qui ont créé le système. Certains SIA, surtout ceux qui utilisent des techniques d’intelligence artificielle comme l’apprentissage profond, prennent des décisions selon les données qui leur sont transmises, mais sans fournir de justifications. Ce phénomène est aussi connu sous le nom de « boîte noire ».
Le milieu planche présentement sur des méthodes pour y voir plus clair (IBM a d’ailleurs présenté une recherche sur le sujet cette semaine à Montréal à l’occasion de la conférence scientifique NeurIPS 2018), mais tant et aussi longtemps que les modèles d’apprentissage profond n’expliqueront pas mieux ce qu’ils font, certains principes de la Déclaration pourraient être difficiles à respecter.
Pour Marc-Antoine Dilhac, la boîte noire n’est toutefois pas qu’une question technique. « C’est souvent rhétorique. C’est quelque chose qui arrange bien les entreprises », estime-t-il. Certaines se cacheraient ainsi un peu trop rapidement derrière la boîte noire pour se laver les mains d’un problème éthique, au lieu de réfléchir aux discriminations que pourraient engendrer les données qu’elles utilisent pour entraîner leurs modèles d’intelligence artificielle, par exemple.
4. Faire évoluer la Déclaration
La Déclaration est conçue comme « un document d’orientation ouvert, révisable et adaptable en fonction de l’évolution des connaissances et des techniques, et des retours d’expériences sur l’utilisation de l’IA dans la société ». Avec la place que l’intelligence artificielle est appelée à occuper dans nos vies, cette mise à jour constante sera plus que nécessaire.
La bonne nouvelle est que l’Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique, dont la création a été confirmée lundi, sera en bonne position pour assurer l’évolution de la Déclaration.
Il sera cependant important de lui donner plus qu’une nouvelle couche de vernis annuelle, surtout si le secteur constate après quelques années que l’approche privilégiée par cette première édition n’était pas la bonne, et qu’une solution plus contraignante devrait plutôt être envisagée, par exemple.
5. Assurer la participation citoyenne
La population a joué un rôle tout au long de la cocréation de la Déclaration de Montréal. La participation des gens ne devra toutefois pas s’arrêter là.
« Les citoyens sont appelés à manifester leur vigilance », souligne Marc-Antoine Dilhac. Les personnes qui travaillent dans le domaine de l’intelligence artificielle, mais aussi auprès des entreprises et des autorités qui utilisent ces services, doivent devenir des lanceurs d’alertes, croit le codirecteur scientifique de la Déclaration.
« Ceux qui remarquent des résultats biaisés ou qui n’ont pas l’air fiables doivent le dire », ajoute-t-il.
Le concept peut sembler lointain pour plusieurs, mais avec les avancées attendues en intelligence artificielle au cours des prochaines années, les personnes en contact avec la technologie devraient se multiplier. Lire la Déclaration de Montréal pour le développement responsable de l’intelligence artificielle est donc à conseiller dès maintenant, que l’on travaille dans le milieu ou non.
IA et éthique, Montréal, un modèle à suivre…
La science est neutre mais les innovations qui sortent de nos laboratoires auront des effets sur la société. C’est pourquoi il est important d’avoir un cadre éthique pour éviter les débordements.
Par la «La Déclaration de Montréal pour un développement responsable de l’intelligence artificielle», et les nombreuses initiatives afin de bannir les robots-tueurs, la communauté IA de Montréal dont Dr Yoshua Bengio de l’Université de Montréal est le porte-étendard, montre la voie au monde entier.
Nous pouvons être fiers!
https://www.declarationmontreal-iaresponsable.com/la-declaration
P.-S.: Le seul petit reproche que je pourrais faire est que la déclaration fait sienne le «Principe de prudence» (risque avéré) alors que le «Principe de précaution» (risque avec incertitude) m’apparaîtrait plus approprié.