
Lo stesso modello di intelligenza artificiale che può aiutarti a redigere un’e-mail di marketing o una ricetta per una cena veloce è stato utilizzato anche per attaccare l’Iran. Secondo un rapporto del Wall Street Journal, il Comando Centrale degli Stati Uniti ha utilizzato l’intelligenza artificiale Claude di Anthropic per “valutazioni di intelligence, identificazione di obiettivi e simulazione di scenari di battaglia” durante gli attacchi contro il paese.
Ore prima, il presidente Donald Trump aveva ordinato alle agenzie federali di smettere di usare Claude dopo una disputa con il suo creatore, ma lo strumento era così profondamente radicato nei sistemi del Pentagono che ci sarebbero voluti mesi per districarlo a favore di un rivale più compiacente. È stato utilizzato anche nell’operazione di gennaio che ha portato alla cattura di Nicolás Maduro.
Ma cosa significano in pratica “valutazioni di intelligence” e “identificazione degli obiettivi”? Claude segnalava i luoghi in cui scioperare o faceva stime sulle vittime? Nessuno ha fatto tale divulgazione e, cosa allarmante, nessuno ha l’obbligo di farlo.
L’intelligenza artificiale è stata a lungo utilizzata in guerra per cose come l’analisi delle immagini satellitari, il rilevamento delle minacce informatiche e la guida dei sistemi di difesa missilistica. Ma l’uso dei chatbot – la stessa tecnologia utilizzata da miliardi di persone per compiti banali come scrivere e-mail – viene ora utilizzato sul campo di battaglia.
Lo scorso novembre, Anthropic ha collaborato con Palantir Technologies Inc., una società di analisi dei dati che svolge molto lavoro per il Pentagono, trasformando il suo ampio modello linguistico Claude nel motore di ragionamento all’interno di un sistema di supporto decisionale per i militari.
Poi, a gennaio, Anthropic ha presentato una proposta da 100 milioni di dollari al Pentagono per sviluppare una tecnologia di sciame di droni autonomi a comando vocale, ha riferito Bloomberg News. La proposta dell’azienda: utilizzare Claude per tradurre l’intento di un comandante in istruzioni digitali per coordinare una flotta di droni.
La sua offerta è stata respinta, ma il concorso richiedeva molto di più che semplicemente riassumere i rapporti di intelligence, come ci si potrebbe aspettare da un chatbot. Questo contratto prevedeva lo sviluppo di “consapevolezza e condivisione relative agli obiettivi” e il “lancio fino alla conclusione” per sciami di droni potenzialmente letali.
Terra di nessuno
Sorprendentemente, tutto ciò è avvenuto in un vuoto normativo e con una tecnologia nota per commettere errori. Le allucinazioni dovute a grandi modelli linguistici sono il risultato della loro formazione, quando vengono ricompensati per aver afferrato una risposta invece di ammettere l’incertezza. Alcuni scienziati sostengono che il problema persistente della confabulazione dell’IA potrebbe non essere mai risolto.
Questa non sarebbe la prima volta che sistemi di intelligenza artificiale inaffidabili vengono utilizzati in guerra. Lavender era un database basato sull’intelligenza artificiale utilizzato per aiutare a identificare obiettivi militari associati ad Hamas a Gaza. Non si trattava di un modello linguistico di grandi dimensioni, ma analizzava grandi quantità di dati di sorveglianza, come connessioni sociali e cronologia della posizione, per assegnare a ciascun individuo un punteggio da 1 a 100. Quando il punteggio di qualcuno superava una certa soglia, Lavender lo contrassegnava come obiettivo militare.
Il problema era che Lavender si sbagliava il 10% delle volte, secondo un rapporto investigativo pubblicato dal quotidiano israelo-palestinese +972. “Circa 3.600 persone sono state prese di mira per errore”, mi dice Mariarosaria Taddeo, professoressa di etica digitale e tecnologie di difesa all’Oxford Internet Institute.
“Ci sono vulnerabilità così incredibili in questi sistemi e un’inaffidabilità così estrema… per qualcosa di così dinamico, sensibile e umano come la guerra”, afferma Elke Schwarz, professore di teoria politica alla Queen Mary University di Londra e autore di Death Machines: The Ethics of Violent Technologies.
Schwarz sottolinea che l’intelligenza artificiale viene spesso utilizzata in guerra per accelerare le cose, una ricetta per risultati indesiderati. Le decisioni più rapide vengono prese su scala più ampia e con meno controllo umano. Nell’ultimo decennio e mezzo l’uso militare dell’intelligenza artificiale è diventato ancora più opaco, afferma.
E la segretezza è insita nel modo in cui operano i laboratori di intelligenza artificiale anche prima delle applicazioni belliche. Queste aziende si rifiutano di rivelare quali dati vengono addestrati sui loro modelli o come i loro sistemi raggiungono le conclusioni.
Naturalmente, le operazioni militari spesso devono essere tenute nascoste per proteggere i combattenti e tenere lontani i nemici. Ma la difesa è fortemente regolata dal diritto internazionale umanitario e dagli standard sui test sulle armi, che in teoria dovrebbero affrontare anche l’uso dell’intelligenza artificiale. Eppure tali standard mancano o sono tristemente inadeguati.
Regole obsolete
Taddeo osserva che l’articolo 36 della Convenzione di Ginevra richiede che i nuovi sistemi d’arma siano testati prima del dispiegamento, ma un sistema di intelligenza artificiale che impara dal suo ambiente diventa un nuovo sistema ogni volta che si aggiorna. Ciò rende quasi impossibile l’applicazione della norma.
In un mondo ideale, governi come quello degli Stati Uniti rivelerebbero come questi sistemi vengono utilizzati sul campo di battaglia e esiste un precedente. Gli americani hanno iniziato a utilizzare droni armati dopo l’11 settembre e ne hanno ampliato l’uso sotto l’amministrazione Barack Obama, rifiutandosi di riconoscere l’esistenza di un simile programma.
Ci sono voluti quasi 15 anni di documenti trapelati, continue pressioni da parte della stampa e azioni legali da parte dell’American Civil Liberties Union prima che la Casa Bianca di Obama pubblicasse finalmente nel 2016 il numero delle vittime degli attacchi dei droni. Sono stati ampiamente visti come sottostimati, ma hanno permesso al pubblico, al Congresso e ai media di ritenere il governo responsabile per la prima volta.
Il controllo dell’intelligenza artificiale sarà ancora più difficile, richiedendo una pressione pubblica e legislativa ancora maggiore per costringere un’amministrazione Trump recalcitrante a creare un tipo simile di quadro di segnalazione.
L’obiettivo non sarebbe quello di rivelare esattamente come Claude è stato utilizzato in qualcosa come l’Operazione Epic Fury, ma di delinearne i contorni generali, secondo Schwarz. E, soprattutto, per svelare quando qualcosa va storto.
L’attuale dibattito pubblico sulla faida Antropico-Pentagono – su cosa sia legale ed etico per l’intelligenza artificiale quando si tratta di sorveglianza di massa degli americani o di creazione di armi completamente autonome – non tiene conto della questione più grande sulla mancanza di visibilità di come la tecnologia viene già utilizzata in guerra. Con sistemi così nuovi e non testati inclini a commettere errori, ciò è assolutamente necessario. “Non abbiamo deciso come società se per noi va bene che sia una macchina a decidere se un essere umano debba essere ucciso o meno”, dice Taddeo.
Spingere verso questa trasparenza è fondamentale prima che l’intelligenza artificiale in guerra diventi così di routine che nessuno pensa più di chiederlo. Altrimenti potremmo ritrovarci ad aspettare un errore catastrofico e a imporre la trasparenza solo dopo che il danno sarà stato fatto.
Parmy Olson è un editorialista di Bloomberg Opinion che si occupa di tecnologia. Ex reporter del Wall Street Journal e di Forbes, è autrice di “Supremacy: AI, ChatGPT e la corsa che cambierà il mondo”. ©2026 Bloomberg LP Visita Bloomberg.com/opinion. Distribuito da Tribune Content Agency.



