Guerra AI: una realtà terrificante, non un futuro lontano

2

L’ascesa dell’intelligenza artificiale nella guerra moderna non è più teorica. Come dettagliato nel Project Maven di Katrina Manson, le operazioni militari basate sull’intelligenza artificiale sono già in corso, con nazioni come Israele, Stati Uniti e Ucraina che utilizzano attivamente queste tecnologie. Il libro non parla del potenziale dell’intelligenza artificiale in guerra, ma del suo stato attuale : una realtà attuale di targeting autonomo, droni letali e una crescente dipendenza dagli algoritmi nelle decisioni sulla vita o sulla morte.

L’arsenale nascosto dell’IA del Pentagono

Il Dipartimento della Difesa degli Stati Uniti ha oltre 800 progetti di intelligenza artificiale, molti dei quali operano in segreto. Il progetto Maven, lanciato nel 2017, mirava a elaborare l’enorme volume di dati raccolti dai droni. Le prime iterazioni erano imperfette, con algoritmi che identificavano erroneamente gli oggetti (come scambiare gli scuolabus per obiettivi) a causa delle limitazioni intrinseche dell’apprendimento automatico. Tuttavia, l’idea centrale rimaneva: eliminare l’inefficienza umana dalla guerra.

La logica è brutale ma chiara: gli esseri umani sono fallibili, stanchi e inclini all’errore. L’intelligenza artificiale, sostengono i sostenitori, potrebbe dissipare la “nebbia della guerra” e consentire un’azione più rapida e decisiva. L’obiettivo finale non è solo una migliore intelligenza ma sistemi completamente autonomi in grado di identificare, tracciare ed eliminare obiettivi senza intervento umano. Un insider ha dichiarato senza mezzi termini: “Uccidiamo continuamente le persone sbagliate. Una macchina non può essere peggiore di un essere umano”.

Dalla sicurezza delle frontiere all’autonomia letale

Maven si è diffuso oltre i tradizionali campi di battaglia, ora utilizzato ai valichi di frontiera e nelle operazioni antidroga. Ciò solleva una domanda inquietante: se uno Stato possiede strumenti per la sorveglianza di massa e l’uccisione automatizzata, resisterà a usarli contro i propri cittadini? La tendenza è verso una maggiore autonomia. Sistemi come i droni Goalkeeper e i droni navali Whiplash sono progettati per trovare e ingaggiare obiettivi in ​​modo indipendente: un passo verso la rimozione completa del controllo umano.

Il precedente storico è triste. Come osserva Manson, gli esseri umani non hanno mai creato un’arma per poi rifiutarsi di usarla. L’aneddoto agghiacciante di un candidato al lavoro che dichiarò apertamente il proprio desiderio di “ridurre la popolazione non americana” e fu ancora assunto evidenzia i compromessi morali già in gioco.

Il fattore umano: un ruolo in diminuzione?

Il libro ci ricorda anche l’elemento umano nel processo decisionale. La storia di Stanislav Petrov, l’ufficiale sovietico che evitò la guerra nucleare nel 1983 ignorando un allarme difettoso, sottolinea il valore del giudizio umano. Un sistema basato sull’intelligenza artificiale avrebbe fatto la stessa decisione? La risposta è tutt’altro che certa.

Il Progetto Maven mette in luce non solo la tecnologia, ma anche l’inerzia burocratica e la volontà della Silicon Valley di perseguire contratti indipendentemente dalle preoccupazioni etiche. La segretezza del Pentagono garantisce che l’intera portata di queste tecnologie rimarrà nascosta per anni, rendendo la supervisione e la responsabilità ancora più difficili.

La conclusione fondamentale è cruda: l’intelligenza artificiale sta già rimodellando la guerra, rendendola impersonale, più veloce e potenzialmente molto più spericolata. La domanda non è se ciò accadrà, ma come garantire che questi strumenti siano utilizzati in modo responsabile – una sfida che, secondo il libro, non stiamo affrontando.