Pour apprivoiser la bête artificielle (la suite)
Santé et Science

Pour apprivoiser la bête artificielle (la suite)

Les géants du Web ont commis quelques erreurs retentissantes avec les nouveaux algorithmes… Voilà qui risque de nous faire sortir bientôt du battage pour retomber sur le dur plancher de la réalité, prédit Valérie Borde.

Pour retrouver la première partie de cet article, cliquer ici.

Derrière le battage de l’intelligence artificielle, il y a des avancées bien réelles dans la science des algorithmes, et des questions très importantes à se poser au sujet de son développement.

Pour 2017 et 2018, la base de données d’articles scientifiques Web of Science répertorie plus de 5 000 publications sur la seule technique de l’apprentissage profond. Difficile de savoir globalement où on en est, même les spécialistes n’ont pas le temps de lire tout ça ! Des revues commencent à donner une idée des progrès en cours dans plusieurs domaines. Dans l’analyse de l’imagerie médicale, par exemple, des algorithmes basés sur l’apprentissage profond ont pu faire mieux que des experts pour classifier certains types d’images. Voilà qui est très prometteur et mérite d’être exploré !

Mais il est cependant encore trop tôt pour dire à quel point ce genre d’avancées changera le cours des choses pour le diagnostic des maladies ou pour la pratique du métier de radiologiste, car on en est encore au stade de la recherche. On ne sait pas encore, par exemple, combien ces systèmes engendreront de faux positifs ou de faux négatifs lorsqu’ils analyseront « pour de vrai » l’image d’une tumeur en dehors d’un protocole de recherche.  Et puis, au final, la stadification plus précise d’une tumeur changera-t-elle vraiment quelque chose à la survie des patients, qui dépend avant tout des chimiothérapies disponibles ?

Difficile, à ce stade, de savoir ce qu’un gain de performance dans tel ou tel type de logiciel, dans quelque domaine que ce soit, va vraiment changer, et à quelle vitesse. On parle par exemple beaucoup des pertes d’emploi qui pourraient être causées par l’intelligence artificielle. Mais depuis la nuit des temps, des machines de plus en plus perfectionnées ont commencé à remplacer les humains dans certaines tâches pénibles ou répétitives, et à assumer ces tâches à leur place. Les chaînes de montage automatisées et les guichets automatiques existent depuis des décennies ! Des algorithmes plus performants feront très certainement disparaître certains métiers, mais peut-être aussi qu’ils en créeront d’autres. Tout cela se produira-t-il trop rapidement pour que le marché de l’emploi puisse s’adapter ? Cette perspective a le mérite de contribuer à faire réfléchir à la notion de revenu universel, qui permettrait notamment de ne pas laisser sur le carreau des gens victimes de changements technologiques trop rapides.

Cependant, le caractère perturbateur de l’intelligence artificielle n’a rien d’évident, car bien d’autres facteurs que la performance d’un logiciel influencent la manière dont il peut être mis à profit. Les voitures autonomes sans conducteur, par exemple, n’envahiront pas nos villes du jour au lendemain, même si des projets-pilotes ont été amorcés. Entre les tests en cours et la fantastique baisse des accidents de la route que vantent les promoteurs, il s’écoulera encore des années, au cours desquelles on devra trouver comment rendre ces voitures fiables (même en hiver, avec des nids-de-poule et un marquage au sol déficient), abordables, assurables, responsables… et désirables.

Depuis plus de 30 ans, il existe des lignes de métro sans conducteur dans le monde, et le premier atterrissage automatique d’un avion remonte à 1965. Pourtant, il reste des pilotes dans les avions, et des conducteurs de métro. Pour que l’humain cède complètement sa place à la machine, il faut que celle-ci soit à même d’accomplir rigoureusement la même tâche, quand bien même celle-ci ne consisterait qu’à faire sentir aux passagers qu’un humain dans le cockpit c’est quand même rassurant. (En passant, n’oublions pas, d’ailleurs, que même si la plupart des accidents sont dus à des erreurs humaines, ce sont aussi des humains, comme le commandant Piché, qui ont évité bien des catastrophes aériennes !)

Le grand danger de l’intelligence artificielle

Le numérique a changé nos vies en quelques années, en envahissant notre quotidien et en donnant une puissance démesurée à quelques grandes entreprises, les fameuses GAFA. En utilisant les médias sociaux, les téléphones intelligents, les moteurs de recherche, les sites d’achats en ligne et des logiciels de bureautique connectés en permanence au « nuage », nous leur avons fourni une quantité phénoménale de données sur nos habitudes, nos goûts, nos opinions, nos peurs, nos envies…. Les nouveaux assistants personnels, haut-parleurs intelligents et autres nouveaux appareils connectés les renseignent encore mieux sur notre quotidien. Le numérique à l’école leur fournira encore plus d’informations sur les enfants, et sur leur future génération de clients.

Ces milliards de données, pour la plupart parfaitement anodines prises une à une (après tout, se dit-on, qu’est-ce que ça peut bien faire que Facebook sache où j’ai passé mes vacances ?), ont donné à ces entreprises le pouvoir énorme de cibler les personnes et de sélectionner l’information qu’on leur présente.

On a beaucoup parlé, dans les décennies passées, des dérives occasionnées par le poids démesuré des multinationales du pétrole, de l’alimentation, du médicament et de l’agrochimie : si le monde est aujourd’hui aussi dépendant au pétrole, au sucre, aux antidépresseurs et aux pesticides, c’est parce qu’on a eu du mal à réglementer ces grosses entreprises !

Nous sommes en train de donner encore plus de pouvoir aux GAFA. Apple a 229 milliards de dollars de revenus (presque autant qu’Exxon !), Amazon, 177 milliards, Google, 110 milliards, Nestlé (plus grosse entreprise alimentaire), 90 milliards, Pepsi (la deuxième), 63 milliards, Johnson & Johnson (la plus importante pharma), 76 milliards, Roche (la deuxième), 57 milliards, et 51 milliards pour Bayer, le géant de l’agrochimie. Les GAFA ont très, très, très peu de règles à respecter en comparaison de celles qui encadrent les médicaments, les pesticides, les aliments et même le pétrole.

Or, ces entreprises ont été les premières à s’approprier les algorithmes d’apprentissage, en investissant des sommes astronomiques dans la recherche et en attirant dans leurs filets la plupart des chercheurs universitaires dans ce domaine. Avec leurs données massives, elles peuvent entraîner les algorithmes plus vite que n’importe qui d’autre. Elles seront les premières à en bénéficier, et les avancées dans ce domaine leur donneront encore plus de pouvoir pour influencer nos vies, pour le meilleur ou pour le pire. Il y a urgence à reprendre les rênes !

Bien sûr, les États et les autres entreprises ont aussi des données massives sur la population et sur toutes sortes d’autres choses, puisqu’on peut maintenant « capter » des données numériques avec divers appareils, que ce soit des séquenceurs dans les labos de recherche en génomique, des capteurs météo ou des dispositifs industriels… Tout ça peut servir de matière première pour de nouveaux algorithmes, qui pourraient améliorer bien des pratiques et permettre de nouvelles découvertes. On doit poursuivre la recherche, avec des attentes réalistes.

Et maintenant ?

Les GAFA ont commis quelques erreurs retentissantes avec les nouveaux algorithmes, ce qui montre qu’ils ne sont pas si évidents que ça à maîtriser. En 2016, le robot conversationnel Tay, de Microsoft, entraîné pour interagir sur Twitter, a déraillé en moins de 24 heures et est devenu raciste et même pro-nazi. Récemment, l’assistant personnel Echo, d’Amazon, a par erreur enregistré une conversation privée et l’a envoyée à une personne figurant dans la liste des contacts de ses propriétaires. N’importe quoi !

Il est possible que l’algorithme du véhicule autonome d’Uber qui a heurté mortellement un piéton en mars ait réagi mieux et plus vite qu’un humain en pareille circonstance. Mais comme il n’a déterminé le danger nécessitant un freinage d’urgence que 1,3 seconde avant l’impact, selon le rapport préliminaire des enquêteurs, cela n’a rien changé. Mieux qu’un humain ? Ça reste à voir.

N’importe quel utilisateur bilingue de Google Traduction peut se rendre compte que même si les progrès sont très réels, on est encore assez loin de la perfection en matière de traduction, un des domaines où l’on est censé être le plus avancé. Si les logiciels de reconnaissance de visages sont aussi performants, il faut espérer que la police leur accordera une confiance limitée !

Est-ce parce que tous ces algorithmes n’ont pas vraiment été conçus grâce aux techniques les plus performantes d’apprentissage profond ? Parce qu’on ne sait pas vraiment les affranchir des biais des données avec lesquelles ils ont été entraînés ? Echo a-t-il simplement connu un raté hautement improbable, comme l’affirme Amazon ? Ou bien est-ce la preuve que la robustesse des algorithmes d’apprentissage (leur capacité de ne pas se tromper) laisse encore à désirer lorsqu’ils sont utilisés dans des conditions réelles, et non dans des protocoles de recherche ? Risque-t-on de trop leur faire confiance, alors qu’on sait déjà, par exemple, qu’ils reproduisent les biais des données avec lesquelles ils ont été entraînés ? Voilà qui risque de nous faire sortir bientôt du battage pour retomber sur le dur plancher de la réalité.