SociétéSanté et ScienceTechno

Les nouvelles intelligences

Santé, transport, finance… Nous sommes de plus en plus épaulés au quotidien par des algorithmes et des appareils qui nous imitent. Le défi: qu’ils restent à notre service.

(Photo: C. Anderson / Getty Images)
Photo: C. Anderson/Getty Images

Bien des propriétaires de tablettes et de téléphones intelligents le savent: les réponses des assistants vocaux de ces appareils sont parfois fort drôles. À la question «Quel est le sens de la vie?», Siri, la voix d’Apple, répond par exemple: «J’ai arrêté de me poser ce genre de question.» Bien sûr, la machine n’a pas découvert le sens de l’humour. Son programme de reconnaissance vocale repère des mots-clés dans les questions, puis y répond, comme un moteur de recherche, en suggérant des adresses sur le Web, ou en sélectionnant des phrases dans une banque de milliers de réponses écrites par des employés de l’entreprise.

Pour l’instant, cet assistant numérique est loin d’être aussi compréhensif que C-3PO, le célèbre droïde protocolaire de la saga Star Wars, ni aussi utile pour nous sauver la vie que le fidèle compagnon des Skywalker. Mais une nouvelle manière de concevoir des algorithmes, appelée l’apprentissage profond (plus connue sous son nom anglais de deep learning), laisse croire que ce futur de fiction n’est peut-être plus si lointain.

Dans les prochaines années, les programmes informatiques, déjà omniprésents dans nos vies, pourraient gagner en intelligence grâce à cette technique qui permet en quelque sorte aux machines d’apprendre par elles-mêmes. De l’assistant numérique personnel capable de répondre à votre place aux courriels jusqu’à l’application qui conseille votre médecin en passant par le robot qui conduit votre voiture ou gère votre argent à la Bourse, ces programmes dotés d’intelligence artificielle annoncent une véritable révolution. Dans notre quotidien, mais aussi pour la recherche scientifique ou même la lutte contre les changements climatiques!

Depuis trois ans, des sociétés de la Silicon Valley y ont investi des milliards. Mais tandis que des entreprises promettent monts et merveilles, même des technophiles commencent à s’inquiéter sérieusement des menaces que l’intelligence artificielle fait aussi désormais planer sur l’humanité.


À lire aussi:

Les robots sont (presque) meilleurs que vous


Tout a commencé dans les années 1980, quand quelques chercheurs ont proposé de bâtir des programmes en les subdivisant par couches de «neurones», comme dans le cerveau humain, sauf que chaque neurone artificiel est en fait une petite unité de calcul. «On s’est inspirés de la manière dont le cerveau traite l’information, du plus simple, la détection de la lumière par le nerf optique, par exemple, jusqu’au plus abstrait, comme le sens qu’on donne à une phrase lue», raconte l’un des pionniers dans ce domaine, le Québécois Yoshua Bengio, professeur à l’Université de Montréal.

Pour reconnaître un chat sur une image, un programme d’apprentissage profond analyse d’abord la couleur de chaque pixel dans sa première couche de «neurones». Puis, la couche suivante regarde si deux lignes de pixels forment un angle de 45 degrés, qui pourrait correspondre à la pointe d’une oreille. La troisième couche peut repérer un œil non loin des oreilles, puis une texture poilue, et ainsi de suite. «Avec cette technique, le programme apprend de manière abstraite et se forge seul sa représentation de ce qu’est un chat», explique le chercheur.

LAT_13_intelligence_exergue2Le Canada a joué un rôle clé dans l’évolution de l’apprentissage profond. En 1987, l’Institut canadien de recherches avancées (ICRA), financé par le fédéral, accepte de soutenir les recherches de Geoffrey Hinton, professeur à l’Université de Toronto, même si elles semblent alors bien ésotériques. Le Français Yann LeCun le rejoint à Toronto, le temps d’y faire son postdoctorat, avant de poursuivre sa carrière dans les laboratoires d’AT&T aux États-Unis. Yoshua Bengio se joint à lui, avant de devenir professeur à l’Université de Montréal en 1993.

À cette époque, l’apprentissage profond donne des résultats mitigés et n’intéresse pas les entreprises. Mais les trois compères, qui collaborent par le truchement de l’ICRA, persévèrent. Avec quelques autres chercheurs, ils continuent de peaufiner la technique dans l’indifférence des spécialistes de l’intelligence artificielle, qui misent sur des manières plus traditionnelles de programmer.

La mode est en effet alors aux «systèmes experts», des algorithmes qui analysent les différents paramètres d’un problème, comme procède un vrai expert. C’est ainsi qu’en 1997, Deep Blue, le superordinateur d’IBM, est le premier à battre un champion d’échecs, le Russe Garry Kasparov.

Dans les années suivantes, l’augmentation de la puissance de calcul des ordinateurs et l’explosion de la quantité de données numériques (merci aux progrès d’Internet) rendent possible une autre stratégie: plutôt que de simplement coder le raisonnement, on fait en sorte que les programmes «apprennent», en les nourrissant d’énormes quantités de données et de méthodes d’analyse statistique de plus en plus élaborées. On présente, par exemple, des milliers d’images de chats à un programme, étiquetées comme telles. Après des semaines, voire des mois d’entraînement, le programme finit par reconnaître par lui-même un chat sur une nouvelle image. C’est ainsi qu’en 2011, Watson, le descendant de Deep Blue, obtient une victoire fracassante au jeu Jeopardy!, sans être relié au Web pendant la compétition.

Infos
Fermer
Plein écran

      À la même période, en Californie, Google commence à tester ses voitures autonomes, dont le programme a été conçu par Sebastian Thrun, spécialiste de l’apprentissage automatique à l’Université Stanford. Depuis, à chacune de leurs sorties, les voitures sans conducteur de Google collectent des données sur leur environnement grâce à leurs capteurs, qui servent à entraîner leur programme.

      Les machines commencent ainsi à pouvoir donner du sens aux mégadonnées, ces énormes bases de données spécialisées constituées, par exemple, de séquences d’ADN pour la recherche en génomique ou de résultats de sondages pour les candidats aux élections. Mais elles peinent encore à décoder des données complexes qui n’ont pas été mises en forme. Une question posée par un humain, une photo d’un visage ou d’une scène de la vie quotidienne, un imprévu sur un trajet que la voiture de Google n’a pas déjà emprunté des centaines de fois… tout cela reste bien difficile à interpréter par les programmes.


      À lire aussi:

      Allez-vous être remplacé par un robot? Demandez-le à… notre robot!


      En 2012, coup de tonnerre, Geoffrey Hinton met K.-O. tout ce petit monde. Lors du défi ImageNet, organisé par l’Université Stanford à l’intention des programmeurs, son équipe bat les autres à plate couture. Le défi consiste à concevoir un algorithme capable de classer automatiquement plus de 100 000 images en tout genre pigées sur le Web selon ce qu’elles représentent. Les meilleurs programmes n’y arrivent, au mieux, que trois fois sur quatre. Celui de Hinton est deux fois meilleur, se trompant seulement une fois sur huit, comme un enfant à qui on a lu des livres plutôt que de lui montrer ad nauseam des images de chats.

      La même année, l’Américain Andrew Ng, chercheur de Stanford qui s’est aussi lancé dans l’apprentissage profond, fait la preuve qu’un tel programme est capable non seulement de repérer un chat sur des vidéos de YouTube, mais qu’il peut en quelque sorte découvrir par lui-même la notion de chat.

      Ces résultats fracassants ont l’effet d’une bombe pour les entreprises en quête de l’intelligence artificielle, qui offrent aussitôt des ponts d’or aux spécialistes de l’apprentissage profond. En 2013, Google recrute Geoffrey Hinton, alors âgé de 66 ans, qui partage désormais son temps entre les bureaux de la société en Californie et son labo de Toronto. Le patron de Facebook, Mark Zuckerberg, invite à dîner Yann LeCun, alors professeur à l’Université de New York, et lui donne carte blanche pour mettre sur pied ce qui deviendra le laboratoire FAIR (Facebook Artificial Intelligence Research). «On a maintenant une soixantaine d’experts en apprentissage profond, répartis entre New York et Paris», raconte Yann LeCun. En 2014, Andrew Ng, dont la famille est originaire de Hongkong, devient le directeur scientifique de Baidu, le géant chinois du Web.

      LAT_13_intelligence_exergue2Yoshua Bengio, lui, n’a pas cédé aux sirènes de l’industrie, «pour des raisons idéologiques», dit-il. Toujours professeur au Département d’informatique et de recherche opérationnelle de l’Université de Montréal, titulaire de deux chaires de recherche, dont l’une en partenariat avec Ubisoft, le spécialiste est désormais à la tête de l’Institut des algorithmes d’apprentissage de Montréal, le plus grand centre de recherche public en apprentissage profond au monde, où travaillent 70 chercheurs. «On est débordés de demandes de gens qui veulent travailler avec nous, c’est complètement fou», déclare le chercheur, dont les étudiants décrochent des salaires à six chiffres presque en claquant des doigts.

      En décembre 2015, environ 4 000 personnes sont venues à Montréal pour assister à la conférence NIPS (pour Neural Information Processing Systems, ou systèmes neuronaux de traitement de l’information). Dans la foule du Palais des congrès, beaucoup de jeunes hommes, peu de cravates et des visages plutôt blafards en ce début d’hiver. À lui seul, l’atelier tutoriel de Yoshua Bengio et Yann LeCun attire 3 000 participants. Il y a seulement cinq ans, ils étaient quelques dizaines, me racontent les deux hommes après avoir réussi, non sans peine, à mettre fin à la séance de questions.

      Sur la scène, les deux conférenciers, chandail à rayures pour l’un, t-shirt et chaussures de sport pour l’autre, ont été généreux dans leurs explications. «On publie tous nos résultats, et nos codes sources sont libres, ce qui incite les entreprises à en faire autant», explique Yoshua Bengio.

      Dans le public, les programmeurs sont tout ouïe. Nombre d’entre eux travaillent déjà pour des géants de l’informatique ou pour l’une des multiples entreprises en démarrage dans l’apprentissage profond. Beaucoup ont en tête le succès de DeepMind, fondée en 2010 par trois jeunes chercheurs londoniens et rachetée, en 2014, par Google… pour la somme de 500 millions de dollars.

      En mars 2016, Google DeepMind s’est assuré un bon coup de pub quand son programme AlphaGo a vaincu l’un des meilleurs joueurs mondiaux de go, le Coréen Lee Sedol. L’algorithme est le premier à battre un humain à ce jeu beaucoup plus intuitif que les échecs.


      À lire aussi:

      Ross, le robot avocat


      Certains commentateurs y ont vu la preuve que la véritable intelligence artificielle est désormais à nos portes. Après tout, il ne s’agirait plus que d’affiner l’apprentissage profond, en augmentant le nombre de couches d’abstraction, pour que la machine puisse égaler, voire supplanter, l’humain. Sauf que Yann LeCun n’y croit pas une seconde!

      «Si l’intelligence était un gâteau, on pourrait dire qu’on sait faire la cerise et le glaçage, mais on ne connaît toujours pas la recette du gâteau!» illustre-t-il. La clé réside dans la capacité d’imiter l’apprentissage dit «non supervisé», par lequel les enfants apprennent à comprendre le monde qui les entoure sans qu’on ait à leur dire ce qu’ils voient ou ressentent à chaque instant.

      Dans leur atelier, lors de la conférence NIPS, Yoshua Bengio et Yann LeCun ont fait le point sur les performances des programmes dans la reconnaissance d’images, et donné ainsi une idée de la capacité d’une intelligence artificielle de décoder son environnement. En une fraction de seconde, les réseaux de neurones ont bien reconnu sur une photo une femme lançant un disque volant dans un parc ou un panneau d’arrêt sur une route. Mais ils ont confondu un téléphone cellulaire avec un sandwich, et deux girafes côte à côte avec un oiseau. Des erreurs qu’un bambin ne commettrait pas! «On n’a pas encore trouvé le moyen de fixer la mémoire du programme, comme l’hippocampe le fait dans le cerveau humain», explique Yoshua Bengio.

      Pour perfectionner l’apprentissage profond, il faudrait aussi mieux comprendre comment le cerveau humain lui-même traite l’information. Or, même si les neurosciences sont en plein boum, on en est encore très, très loin. Nos 85 milliards de neurones forment chacun de 1 000 à 10 000 connexions avec d’autres neurones, chacune de ces connexions étant régulée par d’innombrables réactions chimiques. Actuellement, la seule carte complète des connexions neuronales dont on dispose est celle du cerveau d’un petit ver transparent d’un millimètre de long. Il faudra des décennies pour obtenir celle de l’humain. «Avec l’apprentissage profond, la machine acquiert pour l’instant, au mieux, l’intelligence d’un insecte», précise Yoshua Bengio.

      Comme ses collègues, le chercheur s’inquiète un peu de l’engouement incroyable qu’a engendré l’apprentissage profond tant dans les médias que chez les investisseurs. «Certaines entreprises ont récolté des dizaines de millions de dollars avec des programmes qui sont complètement du pipeau!» dénonce-t-il, craignant déjà le jour où la bulle explosera. «On est dans la phase où les entreprises peuvent tirer profit de ce qu’on a mis 30 ans à peaufiner, explique Yoshua Bengio, et on va voir un raz-de-marée de nouvelles applications ou d’améliorations aux systèmes existants dans les cinq prochaines années.» Mais de là à bouleverser le rapport de l’homme à la machine, il y a un monde, et tant les promesses que les peurs sont largement exagérées aux yeux des pionniers.

      Cette année, l’Allen Institute for Artificial Intelligence, un institut américain qui encourage la recherche au nom du bien commun, a proposé une nouvelle manière d’évaluer sans équivoque l’intelligence d’une machine, en lui faisant subir l’examen de sciences du niveau scolaire correspondant à la 2e secondaire. Près de 800 équipes ont relevé le défi, doté d’un prix de 50 000 dollars, et alimenté leurs programmes avec les manuels scolaires afin qu’ils puissent répondre aux questions formulées comme pour des élèves de 13 ans. Les meilleurs ont obtenu… 60 %. Pas de quoi pavoiser!

      Reste que la recherche risque d’avancer bien plus vite maintenant que l’argent des entreprises est au rendez-vous. «Pour l’instant, en tout, il y a peut-être 200 personnes dans le monde capables de réellement innover avec cette technique, soit quatre fois plus qu’il y a deux ans», estime Yoshua Bengio. Mais où en serons-nous dans cinq ans? Ni l’homme ni la machine ne sont assez intelligents pour le prédire!