L’essor de l’intelligence artificielle dans la guerre moderne n’est plus théorique. Comme le détaille le Projet Maven de Katrina Manson, des opérations militaires basées sur l’IA sont déjà en cours, avec des pays comme Israël, les États-Unis et l’Ukraine déployant activement ces technologies. Le livre ne traite pas du potentiel de l’IA en temps de guerre, mais de son état actuel – une réalité actuelle de ciblage autonome, de drones mortels et d’une dépendance croissante à l’égard des algorithmes dans les décisions de vie ou de mort.
L’arsenal d’IA caché du Pentagone
Le ministère américain de la Défense compte plus de 800 projets d’IA, dont beaucoup fonctionnent en secret. Le projet Maven, lancé en 2017, visait à traiter l’énorme volume de données collectées par les drones. Les premières itérations étaient imparfaites, les algorithmes identifiant mal les objets (comme confondre les autobus scolaires avec des cibles) en raison des limites inhérentes à l’apprentissage automatique. Cependant, l’idée centrale demeure : éliminer l’inefficacité humaine de la guerre.
La logique est brutale mais claire : les humains sont faillibles, fatigués et enclins à l’erreur. Selon ses partisans, l’IA pourrait dissiper le « brouillard de la guerre » et permettre une action plus rapide et plus décisive. L’objectif ultime n’est pas seulement d’améliorer le renseignement, mais aussi de mettre en place des systèmes entièrement autonomes, capables d’identifier, de suivre et d’éliminer des cibles sans intervention humaine. Un initié a déclaré sans ambages : “Nous tuons tout le temps les mauvaises personnes. Une machine ne peut pas être pire qu’un humain.”
De la sécurité des frontières à l’autonomie meurtrière
Maven s’est répandu au-delà des champs de bataille traditionnels, désormais utilisé aux postes frontières et dans les opérations de lutte contre les stupéfiants. Cela soulève une question inquiétante : si un État possède des outils de surveillance de masse et d’assassinats automatisés, résistera-t-il à leur utilisation contre ses propres citoyens ? La tendance est à une plus grande autonomie. Des systèmes tels que les drones Goalkeeper et les drones navals Whiplash sont conçus pour rechercher et engager des cibles de manière indépendante – une étape vers la suppression totale de la surveillance humaine.
Le précédent historique est sinistre. Comme le note Manson, les humains n’ont jamais créé une arme pour ensuite refuser de l’utiliser. L’anecdote effrayante d’un candidat à un emploi qui a ouvertement déclaré son désir de « réduire la population non américaine » et qui a été toujours embauché met en évidence les compromis moraux déjà en jeu.
Le facteur humain : un rôle décroissant ?
Le livre nous rappelle également l’élément humain dans la prise de décision. L’histoire de Stanislav Petrov, l’officier soviétique qui a évité la guerre nucléaire en 1983 en neutralisant une alarme défectueuse, souligne la valeur du jugement humain. Un système basé sur l’IA aurait-il fait la même décision ? La réponse est loin d’être certaine.
Le Projet Maven expose non seulement la technologie, mais aussi l’inertie bureaucratique et la volonté de la Silicon Valley de poursuivre des contrats indépendamment des préoccupations éthiques. Le secret du Pentagone garantit que l’intégralité de ces technologies restera cachée pendant des années, ce qui rend la surveillance et la responsabilité encore plus difficiles.
L’essentiel à retenir est sans appel : l’IA est déjà en train de remodeler la guerre, la rendant impersonnelle, plus rapide et potentiellement beaucoup plus imprudente. La question n’est pas de savoir si cela se produira, mais comment garantir que ces outils seront utilisés de manière responsable – un défi que le livre suggère que nous ne parvenons pas à relever.






























