Des scientifiques alertent : les algorithmes sont devenus si complexes que certaines machines prennent des décisions que l’humain ne parvient plus à expliquer. Les risques de dérives sont importants. Mais il n’est pas trop tard pour agir.
L’IA, ce sont des algorithmes extrêmement puissants, capables de travailler avec des bases de données gigantesques pour apprendre, et prendre ensuite les décisions les plus pertinentes possible. Et si la créature échappait au créateur ?
C’est l’un des cauchemars des ingénieurs de la NASA. L’un de leur rovers à six roues explore la surface de Mars en mode autonome. Soudain, le véhicule se dirige vers la droite, longe une falaise, marque un temps d’arrêt puis se jette dans le vide et s’écrase 400 mètres plus bas. À 70 millions de kilomètres de là, à Houston, les spécialistes de la NASA sont effondrés. Plus rien ne peut sauver une mission qui aura coûté plus d’un milliard de dollars. Le rover, équipé d’un système d’intelligence artificielle, a pris des décisions qu’ils ne peuvent pas expliquer.
La NASA, qui utilise l’intelligence artificielle (IA) tant pour piloter ses robots que pour analyser des millions de photos de l’espace, tente de garder le contrôle de cette technologie. Mais le défi est immense. Et de plus en plus de scientifiques et d’ingénieurs s’alarment : aujourd’hui déjà, il y a un risque que l’IA échappe à leur contrôle. Et que personne ne soit capable d’expliquer comment un système est parvenu à une décision.
« S’en préoccuper immédiatement »
« On ne parle pas forcément de robots tueurs qui se retourneraient contre les humains et les extermineraient. On parle de technologies qui sont installées dans des voitures, des smartphones ou des ordinateurs. C’est extrêmement concret et il faut s’en préoccuper immédiatement », avertit Rachid Guerraoui, directeur du Laboratoire de programmation distribuée de l’EPFL.
Il y a un mois, le chercheur, avec trois membres de son laboratoire, présentait leur dernière trouvaille à la conférence « Neural Information Processing Systems » de Long Beach, en Californie – la réunion la plus pointue sur l’IA. Devant notamment des ingénieurs de la NASA, ils ont dévoilé une solution pour tenter de garder le contrôle sur cette technologie.
[...]
« Aujourd’hui déjà, des systèmes d’IA détectent lorsqu’un humain tente de modifier leur comportement et font parfois tout pour rejeter cette intervention et la contourner si elle entre en conflit avec l’objectif initial de l’IA. Il faut agir de manière subtile et rapide pour que l’IA croie qu’elle prend elle-même toutes les décisions. Et ensuite effacer les traces d’intervention humaine », poursuit le professeur.
Ce qui semble de la pure science-fiction est donc réalité. Des systèmes d’IA prennent des décisions propres en se nourrissant de bases de données gigantesques. Le phénomène est massif. Mais pas totalement nouveau. « L’intelligence artificielle est un terme à la mode, mais elle trouve ses racines dans les années 1960 déjà avec les systèmes experts. Aujourd’hui, la puissance de calcul, les capacités de mémoire et les masses de données amplifient de manière extraordinaire ce phénomène », détaille Hervé Bourlard, directeur de l’institut de recherche Idiap de Martigny.
Neurones artificiels
Actuellement, ce sont des réseaux de plus en plus gros de neurones artificiels qui sont créés. De quoi s’agit-il ?
« L’idée est de tenter de répliquer, de manière informatique, le fonctionnement du cerveau, poursuit Hervé Bourlard. Attention, nous n’allons jamais pouvoir copier le système de milliards de neurones du cerveau, qui est d’une incroyable complexité. Mais nous sommes déjà capables de créer des réseaux de neurones artificiels dotés de plusieurs couches hiérarchiques, via des systèmes de calculs très compliqués. »
Ces neurones ont été entraînés à prendre de bonnes décisions sur la base de bases de données dont ils se nourrissent en permanence – on appelle cela le « machine learning ». Ces neurones sont aussi capables de s’entraider en cas de problème.