Matt O’Brien E Konstantin Toropin
Washington: L’amministrazione Trump ha ordinato a tutte le agenzie statunitensi di smettere di utilizzare la tecnologia di intelligenza artificiale di Anthropic e ha imposto altre gravi sanzioni in un insolitamente pubblico scontro tra il governo degli Stati Uniti e l’azienda sulla sicurezza dell’intelligenza artificiale.
Il presidente Donald Trump, il segretario alla Difesa Pete Hegseth e altri funzionari si sono rivolti ai social media per rimproverare Anthropic per non aver consentito ai militari l’uso illimitato della sua tecnologia AI entro la scadenza di venerdì (ora degli Stati Uniti), accusandola di mettere in pericolo la sicurezza nazionale.
Il Pentagono vuole usare quelli di Anthropic Chatbot di Claude per qualsiasi scopo entro i limiti legali, ma senza alcuna restrizione di utilizzo da parte di Anthropic. L’azienda ha insistito affinché Claude non venisse utilizzato per la sorveglianza di massa contro gli americani o in operazioni di armamento completamente autonome.
L’ordine di Trump è arrivato dopo che l’amministratore delegato di Anthropic, Dario Amodei, si è rifiutato di fare marcia indietro, citando la preoccupazione che i prodotti dell’azienda potessero essere utilizzati in modi che violino le sue garanzie.
“Non ne abbiamo bisogno, non lo vogliamo e non faremo più affari con loro!” Lo ha detto Trump sui social.
Hegseth considerava l’azienda un “rischio per la catena di fornitura”, una definizione tipicamente impressa sugli avversari stranieri che potrebbe far deragliare le partnership critiche dell’azienda con altre aziende.
Anthropic ha affermato che si opporrà a qualsiasi designazione formale in tribunale, descrivendola in una dichiarazione come “un’azione senza precedenti – storicamente riservata agli avversari statunitensi, mai applicata prima pubblicamente a una società americana”.
Lo sforzo del governo di affermare il dominio sul processo decisionale interno di Anthropic si inserisce in un conflitto più ampio sul ruolo dell’intelligenza artificiale nella sicurezza nazionale e nelle preoccupazioni su come macchine sempre più potenti potrebbero essere utilizzate in situazioni ad alto rischio che coinvolgono forza letale, informazioni sensibili o sorveglianza governativa.
Secondo Il New York Timesmentre molti usi militari dell’intelligenza artificiale sono ancora in fase di sviluppo, i modelli sono già utilizzati attivamente per l’analisi dell’intelligence.
Rimuovere Claude dai computer governativi danneggerebbe gli analisti della National Security Agency che vagliano le intercettazioni delle comunicazioni all’estero e potrebbe ostacolare gli analisti della CIA nella ricerca di modelli nei rapporti di intelligence, suggerisce il documento.
Citando ex funzionari, il Volte ha affermato che i leader della CIA sono ansiosi di trovare un modo per continuare a utilizzare Claude, il che ha accelerato il loro lavoro e approfondito la loro analisi. Prima dei commenti di Trump, i funzionari avevano avvertito che qualsiasi ordine presidenziale avrebbe potuto costringere l’agenzia a cercare altre soluzioni.
Trump si scaglia
Trump ha affermato che Anthropic ha commesso un errore nel tentativo di rafforzare il Pentagono. Scrivendo su Truth Social, ha affermato che la maggior parte delle agenzie deve immediatamente smettere di utilizzare l’intelligenza artificiale di Anthropic, ma ha concesso al Pentagono un periodo di sei mesi per eliminare gradualmente la tecnologia già incorporata nelle piattaforme militari.
“Gli Stati Uniti d’America non permetteranno mai ad una sinistra radicale, una compagnia sveglia, di dettare il modo in cui il nostro grande esercito combatte e vince le guerre!” ha scritto tutto maiuscolo.
Dopo mesi di colloqui privati esplosi in dibattito pubblico questa settimana, Anthropic giovedì ha affermato che il nuovo linguaggio contrattuale del governo consentirebbe di “ignorare le garanzie a piacimento”, cosa a cui Amodei ha detto che la sua azienda “non può in buona coscienza accedere”.
L’Anthropic può permettersi di perdere il contratto. Ma le azioni del governo hanno posto rischi più ampi al culmine della rapida ascesa dell’azienda da un laboratorio di ricerca informatica poco conosciuto a San Francisco a una delle start-up più preziose al mondo.
La decisione del presidente è stata preceduta da ore in cui i massimi incaricati di Trump dal Pentagono e dal Dipartimento di Stato si sono rivolti ai social media per criticare Anthropic, ma le loro denunce ponevano contraddizioni.
Il principale portavoce del Pentagono, Sean Parnell, ha dichiarato giovedì sui social media che la posizione di Anthropic “mette a repentaglio operazioni militari critiche e potenzialmente mette a rischio i nostri combattenti di guerra”.
Nel frattempo, Hegseth ha detto venerdì che il Pentagono “deve avere accesso pieno e illimitato ai modelli di Anthropic per ogni scopo LEGALE in difesa della Repubblica”.
La scelta di Hegseth di designare Anthropic come rischio per la catena di fornitura utilizza uno strumento amministrativo progettato per impedire alle aziende possedute da avversari statunitensi di vendere prodotti dannosi per gli interessi americani.
Il senatore Mark Warner, il massimo democratico della commissione intelligence del Senato, ha osservato che questa dinamica, “combinata con la retorica incendiaria che attacca l’azienda, solleva serie preoccupazioni sul fatto che le decisioni sulla sicurezza nazionale siano guidate da un’attenta analisi o da considerazioni politiche”.
Anthropic non ha risposto immediatamente a una richiesta di commento sulle azioni dell’amministrazione Trump.
La disputa scuote la Silicon Valley
La disputa ha sbalordito gli sviluppatori della Silicon Valley, dove venture capitalist, eminenti scienziati dell’intelligenza artificiale e molti lavoratori dei principali rivali di Anthropic – OpenAI e Google – hanno sostenuto la posizione di Amodei in lettere aperte e altri forum.
La mossa probabilmente andrà a beneficio del chatbot concorrente di Elon Musk, Grok, a cui il Pentagono intende concedere l’accesso alle reti militari classificate, e potrebbe servire da avvertimento a Google e OpenAI, i cui contratti per fornire i loro strumenti di intelligenza artificiale ai militari sono ancora in evoluzione.
Musk si è schierato con l’amministrazione Trump, affermando sulla sua piattaforma di social media X che “l’antropologia odia la civiltà occidentale”.
Ma uno dei più accaniti rivali di Amodei, l’amministratore delegato di OpenAI Sam Altman, si è schierato con Anthropic e ha messo in dubbio la mossa “minacciosa” del Pentagono in un’intervista alla CNBC e in una lettera ai dipendenti, affermando che OpenAI condivide le stesse linee rosse. Amodei una volta ha lavorato per OpenAI prima che lui e altri leader di OpenAI lasciassero per formare Anthropic nel 2021.
“Nonostante tutte le differenze che ho con Anthropic, mi fido soprattutto di loro come azienda e penso che abbiano davvero a cuore la sicurezza”, ha detto Altman alla CNBC, poche ore prima di riunire i dipendenti per una riunione collettiva venerdì (ora degli Stati Uniti).
Il generale in pensione dell’aeronautica Jack Shanahan, ex leader delle iniziative sull’intelligenza artificiale del Pentagono, ha scritto sui social media questa settimana che “dipingere un bersaglio su Anthropic ottiene titoli piccanti, ma alla fine tutti perdono”.
Shanahan ha detto che Claude è già ampiamente utilizzato in tutto il governo, anche in ambienti riservati, e che le linee rosse di Anthropic sono “ragionevoli”. Ha affermato che anche i grandi modelli linguistici dell’intelligenza artificiale che alimentano chatbot come Claude, Grok e ChatGPT “non sono pronti per il debutto in contesti di sicurezza nazionale”, in particolare non per le armi completamente autonome.
Anthropic “non sta cercando di fare il carino qui”, ha scritto su LinkedIn. “Non troverai un sistema con una portata più ampia e profonda in tutto il mondo militare.”
AP
Ricevi una nota direttamente dai nostri corrispondenti esteri su ciò che sta facendo notizia in tutto il mondo. Iscriviti alla nostra newsletter settimanale What in the World.



