Techno

La révolution AlphaGo est en marche

Les jeux sont faits, et c’est l’ordinateur qui l’emporte sur l’un des meilleurs joueurs humains à un jeu asiatique millénaire. Un exploit réputé impossible. 

Photo: Getty Images
Photo: Getty Images

Les jeux sont faits, et c’est l’ordinateur qui l’emporte à un jeu asiatique millénaire, un exploit réputé impossible. Alors même qu’il reste une manche à l’affrontement en cinq parties du Sud-Coréen Lee Sedol et de la machine AlphaGo, la création numérique de DeepMind, une entreprise britannique appartenant à Google, a déjà remporté trois victoires, contre une pour son adversaire.

Le go, un jeu de plateau originaire de Chine, oppose deux adversaires devant prendre le contrôle d’un tablier quadrillé en y déposant des pierres noires ou blanches. L’objectif est d’encercler les pierres de son adversaire en créant des territoires. Le gagnant est celui comptant le plus de territoires et de pierres adverses emprisonnées dans ceux-ci. La surface de jeu compte habituellement 19 cases de côté (il y en a huit aux échecs).

Après avoir servi une raclée en cinq parties au champion européen du go, en octobre dernier, AlphaGo et ses programmeurs se sont tournés vers Séoul et l’un des meilleurs joueurs du monde. Le duel a été suivi avec attention par des spécialistes du jeu, mais aussi des experts en intelligence artificielle.

Les affrontements entre les adversaires avaient des allures de marathon: il aura bien souvent fallu plus de quatre heures pour que l’un des joueurs triomphe. Rien à voir avec la seule et unique victoire de Deep Blue lors du sixième duel contre Garry Kasparov, en 1997, après seulement 19 coups de la part de l’ordinateur d’IBM. Le maître russe cumulait une victoire et quatre nulles avant de concéder la défaite.

La principale différence réside toutefois dans la méthode employée: Deep Blue s’appuyait sur la force brute, calculant 200 millions de coups à la minute. AlphaGo se sert entre autres de l’«apprentissage profond», une technique faisant appel à l’apprentissage automatique, qui permet à une machine de s’éduquer elle-même.

«Pour le go, la stratégie de la force brute ne peut pas fonctionner, parce que le nombre de coups possibles est bien plus élevé qu’aux échecs», souligne Yoshua Bengio, professeur au Département d’informatique et de recherche opérationnelle de l’Université de Montréal et spécialiste des algorithmes d’apprentissage.

Des chercheurs ont d’ailleurs tenté de déterminer le nombre de coups possibles aux échecs et au go. Pour le premier, on parle d’environ 10 à la puissance 45 possibilités, contre 10 à la puissance 600 pour le go (le chiffre 1 suivi de 600 zéros).

«Ce qui entre en ligne de compte, c’est la capacité de l’ordinateur de reconnaître des tendances dans le jeu d’une manière intuitive, explique Yoshua Bengio. [AlphaGo] a d’abord appris en imitant des humains de très haut niveau, puis en jouant contre lui-même pour apprendre les bons coups.»

Montréal est d’ailleurs l’un des pionniers de l’apprentissage profond, ajoute M. Bengio. «Ça a démarré à peu près en même temps ici, à Toronto et à New York, et un peu plus tard à Stanford [en Californie]. Nous sommes vraiment parmi les fondateurs de cette discipline-là.» Le MILA, l’Institut des algorithmes d’apprentissage de Montréal, qu’il dirige, est ainsi reconnu à l’échelle internationale pour plusieurs percées dans le développement d’algorithmes visant à reconnaître les objets et les langages.

Les victoires d’AlphaGo sont impressionnantes, reconnaît le chercheur, mais l’humanité est encore loin d’une «véritable» intelligence artificielle. D’autant plus, souligne-t-il, qu’aucune machine n’a à ce jour réussi le fameux test de Turing, soit de tenir une conversation normale en se faisant parfaitement passer pour un humain.

«L’humain est aussi capable d’apprendre de manière beaucoup plus autonome. On n’a pas besoin de le prendre par la main à chaque seconde pour lui dire quoi faire, mais c’est la façon qui est encore employée avec les ordinateurs», conclut Yoshua Bengio.