
Di MATT O’BRIEN
Anthropic ha fatto causa all’amministrazione Trump chiedendo ai tribunali federali di revocare la decisione del Pentagono di designare la società di intelligenza artificiale come un “rischio nella catena di fornitura” per il suo rifiuto di consentire l’uso militare illimitato della sua tecnologia.
Anthropic ha intentato lunedì due cause separate, una presso il tribunale federale della California e un’altra presso la corte d’appello federale di Washington, DC, ciascuna contestando diversi aspetti delle azioni del Pentagono contro la società.
Il Pentagono la settimana scorsa formalmente ha designato l’azienda tecnologica di San Francisco come un rischio per la catena di fornitura dopo una disputa insolitamente pubblica su come il suo chatbot AI Claude potrebbe essere utilizzato in guerra.
“Queste azioni sono senza precedenti e illegali”, afferma la causa di Anthropic. “La Costituzione non consente al governo di esercitare il suo enorme potere per punire un’azienda per la sua libertà di parola protetta. Nessuno statuto federale autorizza le azioni intraprese in questo caso. Anthropic si rivolge alla magistratura come ultima risorsa per rivendicare i propri diritti e fermare l’illegale campagna di ritorsione dell’esecutivo.”
Lunedì il Dipartimento della Difesa ha rifiutato di commentare, citando la politica di non commentare le questioni in corso.
Anthropic ha affermato di voler limitare l’utilizzo della sua tecnologia per due usi di alto livello: sorveglianza di massa degli americani e armi completamente autonome. Il segretario alla Difesa Pete Hegseth e altri funzionari hanno insistito pubblicamente affinché la società accettasse “tutti gli usi leciti” di Claude e hanno minacciato sanzioni se Anthropic non si fosse conformata.
Designare l’azienda come un rischio legato alla catena di fornitura interrompe il lavoro di difesa di Anthropic utilizzando un’autorità progettata per impedire agli avversari stranieri di danneggiare i sistemi di sicurezza nazionale. Era la prima volta che si sapeva che il governo federale utilizzava la designazione contro una società statunitense.
Il presidente Donald Trump ha anche detto che ordinerà alle agenzie federali di smettere di usare Claude, anche se ha concesso al Pentagono sei mesi per eliminare gradualmente un prodotto che è profondamente radicato nei sistemi militari classificati, compresi quelli utilizzati nella guerra con l’Iran.
La causa di Anthropic menziona anche altre agenzie federali, compresi i dipartimenti del Tesoro e dello Stato, dopo che i funzionari hanno ordinato ai dipendenti di smettere di utilizzare i servizi di Anthropic.
Anche mentre si oppone alle azioni del Pentagono, Anthropic ha cercato di convincere le imprese e altre agenzie governative che la sanzione dell’amministrazione Trump è limitata e colpisce solo gli appaltatori militari quando utilizzano Claude per lavorare per il Dipartimento della Difesa.
Rendere chiara questa distinzione è fondamentale per Anthropic, società privata perché la maggior parte dei suoi 14 miliardi di dollari di entrate previste quest’anno provengono da aziende e agenzie governative che utilizzano Claude per la codifica dei computer e altri compiti. Più di 500 clienti pagano ad Anthropic almeno 1 milione di dollari all’anno per Claude, secondo un recente annuncio di investimento che ha valutato l’azienda a 380 miliardi di dollari.
Lunedì Anthropic ha affermato in una dichiarazione che “la richiesta di controllo giurisdizionale non cambia il nostro impegno di lunga data a sfruttare l’intelligenza artificiale per proteggere la nostra sicurezza nazionale, ma questo è un passo necessario per proteggere la nostra attività, i nostri clienti e i nostri partner”.



