Nella sua causa, Anthropic ha affermato che la designazione era illegale e violava la libertà di parola e i diritti del giusto processo.
Anthropic ha intentato una causa per impedire al Pentagono di attribuirla alla sicurezza nazionale degli Stati Uniti lista neral’escalation della battaglia ad alto rischio del laboratorio di intelligenza artificiale con l’amministrazione del presidente degli Stati Uniti Donald Trump sulle restrizioni all’uso della sua tecnologia.
Anthropic ha affermato nella sua causa lunedì che la designazione era illegale e violava la libertà di parola e i diritti del giusto processo. L’istanza presentata al tribunale federale dello stato americano della California chiedeva a un giudice di annullare la designazione e impedire alle agenzie federali di applicarla.
Storie consigliate
elenco di 4 elementifine dell’elenco
“Queste azioni sono senza precedenti e illegali. La Costituzione non consente al governo di esercitare il suo enorme potere per punire un’azienda per la sua libertà di parola protetta”, ha affermato Anthropic.
Giovedì il Pentagono ha assegnato ad Anthropic una designazione formale di rischio nella catena di approvvigionamento, limitando l’uso di una tecnologia che secondo l’agenzia di stampa Reuters, citando una fonte anonima, veniva utilizzata per operazioni militari in Iran.
Il segretario alla Difesa americano Pete Hegseth ha designato Anthropic dopo che la startup si è rifiutata di rimuovere le barriere contro l’uso della sua intelligenza artificiale per armi autonome o sorveglianza domestica. Da mesi le due parti erano in trattative sempre più controverse su tali limitazioni.
Trump e Hegseth hanno affermato che ci sarà una eliminazione graduale di sei mesi.
L’azienda cerca anche di annullare L’ordine di Trump ordinando ai dipendenti federali di smettere di usare il suo chatbot AI, Claude.
La sfida legale intensifica una disputa insolitamente pubblica su come l’intelligenza artificiale possa essere utilizzata nella guerra e nella sorveglianza di massa – una disputa che ha coinvolto anche i rivali del settore tecnologico di Anthropic, in particolare OpenAI, che ha stretto un accordo per lavorare con il Pentagono poche ore dopo che il governo aveva punito Anthropic per la sua posizione.
Lunedì Anthropic ha intentato due cause legali separate, una presso il tribunale federale della California e un’altra presso la corte d’appello federale di Washington, DC, ciascuna contestando diversi aspetti delle azioni del governo contro l’azienda.
Funzionari di Anthropic hanno affermato che la causa non preclude la riapertura dei negoziati con il governo degli Stati Uniti e il raggiungimento di un accordo. La società ha detto che non vuole entrare in conflitto con il governo degli Stati Uniti. Il Pentagono ha detto che non commenterà il contenzioso. La settimana scorsa, un funzionario del Pentagono ha detto che le due parti non erano più in trattative attive.
Minaccia per le imprese
La designazione rappresenta una grande minaccia per gli affari di Anthropic con il governo, e il risultato potrebbe influenzare il modo in cui altre società di intelligenza artificiale negoziano le restrizioni sull’uso militare della loro tecnologia, anche se il CEO della società Dario Amodei ha chiarito giovedì che la designazione ha “un ambito ristretto” e le aziende potrebbero comunque utilizzare i suoi strumenti in progetti non correlati al Pentagono.
Le azioni di Trump e Hegseth del 27 febbraio sono arrivate dopo mesi di colloqui con Anthropic sulla possibilità che le politiche della compagnia potessero limitare l’azione militare e poco dopo Amodei ha incontrato Hegseth nella speranza di raggiungere un accordo.
Anthropic ha affermato di voler limitare l’utilizzo della sua tecnologia per due usi di alto livello: sorveglianza di massa degli americani e armi completamente autonome. Hegseth e altri funzionari hanno insistito pubblicamente affinché la società accettasse “tutti gli usi leciti” di Claude e hanno minacciato sanzioni se Anthropic non si fosse conformata.
Designare l’azienda come un rischio legato alla catena di fornitura interrompe il lavoro di difesa di Anthropic utilizzando un’autorità progettata per impedire agli avversari stranieri di danneggiare i sistemi di sicurezza nazionale. Era la prima volta che si sapeva che il governo federale utilizzava la designazione contro una società statunitense.
Il Pentagono ha affermato che sarà la legge statunitense, e non una società privata, a determinare come difendere il Paese, e ha insistito per avere piena flessibilità nell’uso dell’intelligenza artificiale per “qualsiasi uso lecito”, affermando che le restrizioni di Anthropic potrebbero mettere in pericolo le vite americane.
Anthropic ha affermato che anche i migliori modelli di intelligenza artificiale non sono abbastanza affidabili per armi completamente autonome e che utilizzarli per quello scopo sarebbe pericoloso.
Dopo l’annuncio di Hegseth, Anthropic ha dichiarato in un comunicato che la designazione sarebbe giuridicamente infondata e costituirebbe un pericoloso precedente per le aziende che negoziano con il governo. La società ha affermato che non si lascerà influenzare da “intimidazioni o punizioni”.
La settimana scorsa, Amodei si è anche scusato per una nota interna pubblicata mercoledì dal sito di notizie tecnologiche The Information. Nella nota, pubblicata il 27 febbraio, Amodei ha affermato che ai funzionari del Pentagono la società non è piaciuta in parte perché “non abbiamo elogiato Trump in stile dittatore”.
Anche mentre si oppone alle azioni del Pentagono, Anthropic ha cercato di convincere le imprese e altre agenzie governative che la sanzione dell’amministrazione Trump è limitata e colpisce solo gli appaltatori militari quando utilizzano Claude per lavorare per il Dipartimento della Difesa.
Rendere chiara questa distinzione è fondamentale per Anthropic, società privata perché la maggior parte dei suoi 14 miliardi di dollari di entrate previste quest’anno provengono da aziende e agenzie governative che utilizzano Claude per la codifica dei computer e altri compiti. Più di 500 clienti pagano ad Anthropic almeno 1 milione di dollari all’anno per Claude, secondo un recente annuncio di investimento che ha valutato l’azienda a 380 miliardi di dollari.



