Fan Hui, meilleur joueur de go européen, s’est fait laminer par une intelligence artificielle développée par Google. Il y a peu, une telle victoire était encore impensable. Ce qui a fait la différence : le « deep learning ».
C’est un jour à marquer d’une pierre blanche dans le domaine de l’intelligence artificielle. Une pierre de go. Pour la première fois, un joueur professionnel a été battu par une machine, un programme développé par Google et baptisé DeepMind, sans handicap et en conditions réelles. Jusqu’à présent, le jeu de go était le seul jeu de réflexion à deux joueurs qui résistait encore aux ordinateurs. Il y a un an et demi, une telle prouesse semblait hors de portée, comme nous l’expliquait un spécialiste, qui n’en revient pas. « La machine a battu un joueur professionnel sur le score de 5 à 0 dans des parties jouées à égalité sur des damiers 19x19. C’est incroyable », s’exclame Bruno Bouzy, chercheur en intelligence artificielle et spécialiste de la programmation des jeux de réflexion.
Le duel a eu lieu en octobre 2015, et les auteurs du programme ont publié ce jeudi un article scientifique dans la revue Nature pour expliquer leur méthode.
« La différence, ce sont les progrès du deep learning »
Que s’est-il passé, en si peu de temps, pour que le logiciel dépasse ainsi le cerveau humain ? Cela tient en deux mots : deep learning. « Apprentissage profond », en Français : un outil d’intelligence artificielle récent qui fonctionne sur le modèle des réseaux de neurones, comme dans un cerveau. Le « raisonnement » est donc non linéaire, les problèmes sont décomposés, et surtout, le programme devient capable d’apprendre seul. Plus besoin de tout lui montrer. Disons que les concepteurs d’un tel algorithme lui apprennent à apprendre.