Le risque d'une « épée à double tranchant » dans la guerre militaire de l'IA
Le développement de l’intelligence artificielle révolutionne l’armée, visant à réduire le nombre de victimes parmi les soldats et à accroître la capacité de cibler avec précision l’ennemi. Il s’est également révélé relativement efficace dans le domaine de la défense, comme le système de défense aérienne israélien qui tire parti de l’IA.
Les États-Unis, la Chine et d’autres grands pays sont en concurrence pour intégrer l’IA dans leurs armées. Une nouvelle ère d’expansion militaire basée sur l’IA est arrivée, mais elle s’accompagne de la crainte qu’elle ne conduise à des crises et à des inquiétudes inattendues, critiques et graves.
Pensez à l'invention de l'avion. Qui aurait pu imaginer alors que l’avion changerait la direction et le caractère de la guerre ? À l’avenir, une nuée de drones pourrait décider qui contrôle le ciel. Le développement de sous-marins sans pilote pourrait neutraliser les capacités des sous-marins nucléaires.
Un changement s’opère non seulement dans le domaine des armes, mais dans tous les aspects des affaires militaires. Le concept de « champ de bataille » évolue également radicalement. Elle a déjà commencé à s’étendre dans l’espace et le cyberespace.
Les armes et la technologie ont soutenu la prise de décision des humains grâce à l’utilisation des technologies de l’information, mais les armes et les technologies dotées de systèmes d’IA sont de plus en plus susceptibles de remplacer les humains, malgré de nombreuses assurances selon lesquelles les humains resteront toujours au courant.
Le développement de l’IA s’accélère rapidement grâce à l’innovation réalisée dans les entreprises technologiques et les startups mondiales. Les grands groupes militaro-industriels traditionnels, qui monopolisaient la technologie militaire et le développement d’armes, ont du mal à rattraper leur retard.
La révolution militaire pilotée par l’IA s’appuiera sur des quantités massives d’informations et sur les algorithmes qui les traitent. Ceci est directement lié à la capacité de sélectionner et d’identifier avec précision les ennemis et les menaces, ainsi que d’attaquer ou de contre-attaquer rapidement.
C’est là une préoccupation sérieuse. Si les informations sont incorrectes ou biaisées, l’IA prendra une décision erronée et inexacte. Les centres d’information numérique sont également vulnérables aux cyberattaques.
Nous serons confrontés à des problèmes de partialité grâce à l’IA. Les questions clés sont les suivantes : « Les décisions prises par l’IA sont-elles correctes ? » « Pourquoi a-t-il donné ces instructions ? » « Pouvons-nous contrôler l'IA ? » — Ce sont des questions fondamentales et importantes.
Les multiples systèmes d’IA tels que Gospel, Lavender et Alchemist, qui traitent des flux de données et identifient des cibles potentielles, qu’Israël aurait utilisé dans ses attaques sur Gaza, ont également été critiqués comme étant à l’origine de nombreuses victimes civiles.
Ce problème ne se limite pas à Israël. Même si l’introduction de l’IA peut renforcer les capacités militaires et contribuer à l’efficacité, laisser trop de décisions à l’IA peut rendre la dissuasion et la défense moins efficaces et risquer des conséquences catastrophiques. Il est donc important de reconnaître que l’IA est une arme à double tranchant.
Alors que le développement des sites de réseaux sociaux a rendu visibles tous les champs de bataille, les vidéos de désinformation et de propagande basées sur l’IA abondent, créant une situation ironique dans laquelle la vérité sur le champ de bataille n’est plus claire.
L’IA peut-elle distinguer correctement la véracité de telles informations ? Nous sommes confrontés aux enjeux philosophiques et éthiques de la gouvernance de l’IA par les humains et de sa crédibilité.
Dans les circonstances que l’on peut qualifier d’arrivée de la compétition en matière d’armement par l’IA, il est important d’établir des règles internationales qui impliquent également la Chine et la Russie.
En fait, les États-Unis et les organisations multilatérales, y compris les Nations Unies, ont amorcé une telle démarche, mais de nombreuses questions restent à résoudre, notamment celle de savoir si les règles peuvent suivre le développement de la technologie de l'IA et si elles peuvent devenir juridiquement contraignantes. .
La sagesse de l’humanité est remise en question pour surmonter ces difficultés.
(Michael Raska est professeur adjoint de défense et d'innovation militaire à la S. Rajaratnam School of International Studies, Nanyang Technological University à Singapour.)