L’IA est basée sur l’apprentissage par réseau de neurones. C’est très simple :
Vous définissez par exemple ce qu’est un cercle, des points équidistants d’un point, le centre. Vous demandez à une machine sur une image si elle voit des des points équidistants d’un point. Ainsi donc l’IA est très éfficace pour reconnaître des tumeurs, par exemple à partir d’IRM (cancer du sein, ...). On lui montre comment est une tumeur à différents stades et apprend à reconnaître des cellules tuméreuses, et les reconnait par la suite. Vous pouvez faire le même raisonnement sur des analyses biologiques, chimiques, mécaniques, ...
Donc la machine ne comprend rien, elle n’essaie de reconnaitre des choses qu’on lui a dit d’apprendre ou donner à apprendre.
Là où l’IA buggue, c’est lorsqu’il y a du "bruit".
Prenons la photo d’un chat. On apprend à l’IA à reconnaître la gueule d’un chat (forme des yeux, leur écartement, dimensions de la truffe, son ratio par rapport à la gueule entière, ...). Sauf que si vous donnez à l’IA une image d’un chat où vous modifiez grossièrement les yeux par des triangles et la truffe par un losange, le quidam voit un chat mais pas l’IA.
Donc l’IA est très normative et ne peut sortir de ses normes. Le problème qui vient est la responsabilité d’une machine avec IA. Une voiture fonctionnant sous IA est confrontée simultanément à deux obstacles qu’elle ne peut éviter. L’IA ne fera que ce qu’on lui a appris, percutera l’obstacle défini (ou fera n’importe quoi). On a alors la possibilité de retourner vers le concepteur. Les assureurs auront leur mot à dire.