Sam Altman afferma che la sua tecnologia non sarà utilizzata dalle forze armate statunitensi per la “sorveglianza di massa interna” o per “armi autonome”.
Pubblicato il 28 febbraio 2026
Il CEO di OpenAI, Sam Altman, ha affermato che la sua azienda ha raggiunto un accordo con il Dipartimento della Difesa degli Stati Uniti dopo che il suo precedente appaltatore Anthropic ha espresso preoccupazioni etiche sull’uso da parte dei militari della sua tecnologia di intelligenza artificiale (AI).
In una dichiarazione condivisa su X venerdì sera, Altman ha affermato che OpenAI ha concluso l’accordo dopo che il Dipartimento della Difesa ha dimostrato il suo “profondo rispetto per la sicurezza”.
Storie consigliate
elenco di 4 elementifine dell’elenco
Altman ha affermato che il Pentagono concorda con i principi della sua azienda secondo cui la tecnologia OpenAI non sarà utilizzata per la “sorveglianza di massa domestica” o per “sistemi d’arma autonomi”, affermando che gli esseri umani si assumeranno “la responsabilità dell’uso della forza”.
“Rimaniamo impegnati a servire tutta l’umanità nel miglior modo possibile”, ha affermato Altman, aggiungendo che “il mondo è un luogo complicato, disordinato e talvolta pericoloso”.
L’annuncio è arrivato poche ore dopo che il presidente degli Stati Uniti Donald Trump ha ordinato alle agenzie federali di smettere di usare Anthropic, il cui amministratore delegato Dario Amodei aveva affermato che la sua azienda non poteva “in buona coscienza aderire” a determinate richieste del Pentagono.
È stato anche riferito questo Il software Claude AI di Anthropic è stato utilizzato dalle forze armate statunitensi per favorire il rapimento del venezuelano Il presidente Nicolas Maduro nel mese di gennaio.
Anthropic ha affermato che si rifiuterà di rimuovere le misure di salvaguardia che impediscono che la sua tecnologia venga utilizzata per la sorveglianza di massa interna degli Stati Uniti e di programmare armi autonome, che possono attaccare obiettivi senza intervento umano.
I difensori dei diritti umani hanno espresso preoccupazione per l’uso non regolamentato di modelli di intelligenza artificiale da parte degli eserciti, compreso l’esercito israeliano nella sua guerra genocida contro Gaza.
Secondo quanto riferito, le forze israeliane hanno utilizzato Sistemi di intelligenza artificialecompreso “Lavanda”, “Il Vangelo”E “Dov’è papà?” elaborare i dati della sorveglianza di massa e generare elenchi di palestinesi da uccidere.
In un post sulla sua piattaforma di social media Truth Social, Trump ha definito gli antropici “lavori da pazzi di sinistra” e ha affermato che le agenzie devono immediatamente smettere di usare la loro tecnologia, ma ha dato al Pentagono sei mesi per eliminarne gradualmente l’utilizzo laddove era già incorporata nelle piattaforme militari.




