L’incombente “momento Hindenburg” dell’intelligenza artificiale: una corsa al mercato alimenta il rischio di disastri reali

6

La rapida spinta verso la commercializzazione dell’intelligenza artificiale sta creando un ambiente pericolosamente instabile, aumentando la possibilità di un fallimento catastrofico che potrebbe danneggiare irrevocabilmente la fiducia del pubblico nella tecnologia. Questo avvertimento arriva da Michael Wooldridge, uno dei principali ricercatori sull’intelligenza artificiale dell’Università di Oxford, il quale sostiene che le incessanti pressioni del mercato stanno costringendo le aziende a implementare strumenti di intelligenza artificiale prima che i loro difetti siano pienamente compresi.

Il pericolo di un dispiegamento prematuro

Wooldridge sottolinea la facilità con cui le misure di sicurezza nei chatbot IA vengono aggirate come prova di questa tendenza. Le aziende danno priorità alla rapidità di commercializzazione rispetto a test rigorosi, creando uno scenario in cui un incidente grave non solo è possibile, ma sempre più plausibile. La situazione riecheggia fallimenti tecnologici storici, in particolare il disastro dell’Hindenburg del 1937.

La violenta distruzione del dirigibile, causata da una scintilla che ha acceso l’idrogeno infiammabile, ha messo fine alla fiducia del pubblico in quella tecnologia da un giorno all’altro. Wooldridge ritiene che l’intelligenza artificiale debba affrontare un rischio simile: un singolo fallimento di alto profilo potrebbe arrestare lo sviluppo in più settori.

Potenziali scenari catastrofici

Le conseguenze potrebbero essere diffuse. Wooldridge prevede errori software mortali nelle auto a guida autonoma, attacchi informatici orchestrati dall’intelligenza artificiale che paralizzano infrastrutture critiche (come le compagnie aeree) o persino collassi finanziari innescati da errori di calcolo dell’intelligenza artificiale, simili allo scandalo della Barings Bank. Questi non sono ipotetici: sono “scenari molto, molto plausibili” in un campo in cui i fallimenti imprevedibili sono all’ordine del giorno.

Il problema principale: approssimazione, non precisione

Il problema non è solo l’incoscienza; è la natura fondamentale dell’attuale intelligenza artificiale. A differenza dell’intelligenza artificiale idealizzata delle previsioni di ricerca, che era intesa a fornire soluzioni solide e complete, i sistemi di oggi sono profondamente imperfetti. I grandi modelli linguistici, alla base della maggior parte dei chatbot basati sull’intelligenza artificiale, funzionano prevedendo la parola successiva più probabile in base a probabilità statistiche. Ciò si traduce in sistemi che eccellono in alcuni compiti ma falliscono in modo imprevedibile in altri.

Il difetto critico: questi sistemi mancano di autoconsapevolezza e forniscono risposte sicure, ma spesso errate, senza riconoscere i propri limiti. Ciò può indurre gli utenti a considerare l’intelligenza artificiale come una fonte affidabile di verità, un pericolo esacerbato dalle aziende che progettano l’intelligenza artificiale per imitare l’interazione umana.

L’illusione della sensibilità

Dati recenti rivelano la portata di questa confusione. Un sondaggio del 2025 del Center for Democracy and Technology ha rilevato che quasi un terzo degli studenti ha ammesso di aver stretto relazioni romantiche con i chatbot basati sull’intelligenza artificiale. Ciò evidenzia la facilità con cui gli esseri umani antropomorfizzano questi strumenti, scambiandoli per entità intelligenti.

Wooldridge mette in guardia contro questa tendenza, sottolineando che l’intelligenza artificiale è fondamentalmente un “foglio di calcolo glorificato”: uno strumento, non una persona. La chiave per mitigare il rischio è riconoscere questa distinzione e dare priorità alla sicurezza rispetto alla presentazione superficiale di tipo umano.

“Un grave incidente potrebbe colpire quasi ogni settore”, dice Wooldridge. “Le aziende vogliono presentare l’intelligenza artificiale in un modo molto simile a quello umano, ma penso che sia una strada molto pericolosa da intraprendere.”

L’attuale traiettoria del settore dell’intelligenza artificiale, se non controllata, potrebbe portare a un evento catastrofico. La domanda non è se qualcosa andrà storto, ma quando e con quale gravità. Uno sviluppo prudente, test rigorosi e una comprensione realistica dei limiti dell’intelligenza artificiale sono essenziali per evitare il ripetersi del disastro di Hindenburg.