La première réunion du conseil de sécurité de l’ONU dédiée à l’Intelligence Artificielle (IA) s’est tenue le 18 juillet 2023. Le secrétaire général des Nations unies, Antonio Guterres, a souligné les progrès spectaculaires de l’intelligence artificielle et de ses applications potentielles au bénéfice du développement commun, du recul de la pauvreté, de l’éducation, de l’industrie, de l’agriculture et de la résolution des grands problèmes environnementaux.
Il a également exprimé son désir de bannir l’usage de l’IA dans les armes de guerre autonomes à l’horizon 2026 et de réguler l’IA militaire à l’échelle mondiale. Selon lui :
« L’utilisation malveillante de systèmes d’IA à des fins terroristes criminelles ou étatiques pourrait entrainer un nombre effroyable de morts et de destructions, des traumatismes généralisés et des dommages psychologiques profonds à une échelle inimaginable ».
Ce constat posé, Antonio Guterres s’est dit favorable à la création d’un conseil spécifique à l’IA, ayant pour objectif d’aider à réguler, gérer l’usage de l’IA militaire et règlementer ses dérives potentielles.
[...]
Les trois premières puissances militaires (USA, Chine et Russie) ont indiqué, l’une après l’autre, qu’elles se réservaient le droit de développer des systèmes d’armes intégrant de l’IA, tout en précisant que ces systèmes devaient rester sous le contrôle humain.
Derrière ces premières déclarations, il faut comprendre qu’aucune de ces trois puissances dominantes n’a l’intention de signer un texte limitant l’usage de l’IA militaire ni de freiner ses investissements massifs (en dizaines de milliards de dollars) réalisés au titre de la recherche et du développement.
Les quatre principes de réalité systémique de l’IA
Concrètement, la déclaration du secrétaire général de l’ONU sur l’IA militaire se heurte à quatre grands principes de réalité systémique associés à la diffusion et à l’usage du progrès technologique au bénéfice des activités humaines, civiles et militaires :
Principe n°1 : Le principe du sens unique temporel ou de non-retour en arrière face à une avancée technologique majeure, accessible, impactante et à fort pouvoir libérateur.
Principe n°2 : Le principe de diffusion maximale d’une technologie duale (ayant des applications à la fois civiles et militaires) ;
Principe n°3 : Le principe d’appropriation maximale des technologies efficaces dans un contexte de compétition mondiale et de concurrences géopolitiques.
Principe n°4 : Le principe d’emploi maximal de technologies apportant un avantage tactique ou stratégique sur un adversaire en contexte de guerre ou de guerre froide.
L’intelligence artificielle comme moteur de la haute intensité du combat
Les applications militaires de l’intelligence artificielle s’inscrivent dans toute la largeur du spectre opérationnel et renforcent les dynamiques de haute intensité au combat.
Renseignement : collecte, traitement et analyse automatique des données, images satellitaires, imagerie drones, analyse de documents, traduction automatique, localisation, contextualisation à partir d’images, veille documentaire.
Logistique : préparation de missions, OPEX, aide au dimensionnement du dispositif, préparation du soutien, optimisation des approvisionnements (carburants, vivres, eau, munitions).
Simulation : simulation de déploiement, wargame, test d’hypothèses et de capacités, simulation de déploiement d’unités robotisées, entrainement des troupes au combat, entrainement sur de nouveaux systèmes d’armes.
Conduite des opérations, IA C2 : aide à la décision pour les centres de commandement et contrôle (IA C2), reporting, tests et validation d’hypothèses de manœuvres, tests d’impact et d’attrition au regard de l’intensité du combat.
Systèmes robotisés armés : augmentation du niveau d’autonomie des systèmes, escadrilles et essaims de drones aéroterrestres, marins, sous-marins. Systèmes et boucliers anti-missiles autonomes, systèmes radars intelligents, Lutte Anti-Drones par essaims de drones anti-drones, Niveaux d’autonomie L0,L1,…L5.
Cybersécurité et cyberdéfense : emploi de l’IA pour sécuriser les applications, systèmes d’information et systèmes d’armes, SIEM UEBA (User and Entity Behavior Analytics (UEBA) and Security Information and Event Management (SIEM)), détection et remédiation automatique des attaques, maitrise du risque cyber. Opérations cyber offensives soutenues par l’IA.
PsyOps, opérations cognitives, ingérence et contre-ingérence : détection et remédiation des opérations d’influence, de fracturation des opinions, d’atteinte à l’image, de campagnes de FakeNews produites à partir des réseaux sociaux (fermes de bots), production d’ADFI (Architectures de Données Fictives Immersives) utilisées pour tromper ou influencer une cible.
[...]
La guerre russo-ukrainienne est une guerre des drones aériens vecteurs d’une très forte attrition sur les chars et blindés des deux belligérants.
[...]
L’intelligence artificielle apporte des solutions très prometteuses pour contrer l’attaque d’un essaim aérien constitué de plus de 100 drones. La méthode de LAD consiste à mettre en œuvre un essaim de drones aérien « anti-essaim » composé lui aussi de plus de 100 drones « racers » qui vont chacun suivre un vecteur ennemi et le détruire par choc cinétique ou par détonation via une charge embarquée. L’action globale de l’essaim anti-essaim ne peut être dirigée que par l’intelligence artificielle.
Ces deux défis, qui reposent pleinement sur les progrès de l’IA, font l’objet d’investissements en R&D très conséquents (plusieurs dizaines de milliards de dollars) en Chine et aux États-Unis. La course à la haute intensité et aux missiles hypersoniques repose elle aussi sur les apports de l’IA militaire. On comprend facilement que ni la Chine ni les États-Unis n’accepteront de limiter ou de renoncer à la course à « l’IArmement » si déterminant dans la recherche de puissance et d’ascendant sur l’ennemi.
Lire l’article entier sur contrepoints.org