Il governo degli Stati Uniti ha descritto la startup di intelligenza artificiale Anthropic come un rischio inaccettabile per la sicurezza nazionale in un atto giudiziario, citando preoccupazioni sull’affidabilità della società come partner in tempo di guerra.
IL New York Times rapporti che in un documento legale di 40 pagine presentato martedì al tribunale distrettuale degli Stati Uniti per il distretto settentrionale della California, gli avvocati del governo hanno delineato le loro ragioni per ridurre la qualifica di Anthropic come partner fidato per scopi di difesa nazionale. Il deposito rappresenta la prima risposta formale del governo alle azioni legali iniziato dalla società di intelligenza artificiale con sede a San Francisco, che produce il sistema chatbot Claude precedentemente utilizzato dal Pentagono.
Secondo il documento, il nucleo della preoccupazione del governo è incentrato sulla possibilità che Anthropic possa disabilitare o modificare la propria tecnologia per allinearla agli interessi aziendali piuttosto che alle priorità nazionali durante gli scenari di guerra. Gli avvocati governativi hanno sottolineato la particolare vulnerabilità dei sistemi di intelligenza artificiale alla manipolazione, sostenendo che garantire l’accesso antropico alle infrastrutture del Dipartimento della Guerra introdurrebbe rischi inaccettabili nelle catene di approvvigionamento.
Il conflitto tra Anthropic e il Pentagono ha avuto origine dai negoziati su un contratto da 200 milioni di dollari per l’implementazione dell’intelligenza artificiale nei sistemi governativi classificati. Durante queste discussioni, Anthropic ha stabilito limiti specifici per il suo utilizzo della tecnologia, affermando esplicitamente che non voleva che la sua intelligenza artificiale fosse impiegata per la sorveglianza di massa dei cittadini americani o integrata con sistemi di armi letali autonomi. Funzionari del Pentagono hanno ribattuto che le società private non dovrebbero dettare termini su come l’esercito utilizza la tecnologia acquisita, aggiungendo che l’uso dell’intelligenza artificiale è limitato ad applicazioni legali.
Quando le parti non riuscirono a raggiungere un accordo, a febbraio il ministro della Guerra Pete Hegseth designò Anthropic come un rischio per la catena di approvvigionamento. Questa classificazione vieta di fatto alla società di condurre affari con il governo degli Stati Uniti. L’etichetta era stata precedentemente riservata esclusivamente alle aziende straniere che presentavano minacce alla sicurezza nazionale, rendendo la designazione di Anthropic senza precedenti per un’azienda nazionale.
In risposta all’azione del Pentagono, Anthropic ha intentato due azioni legali separate il 9 marzo. Una è stata presentata al tribunale distrettuale degli Stati Uniti per il distretto settentrionale della California, mentre l’altra è stata archiviata presso la Corte d’appello degli Stati Uniti per il circuito del Distretto di Columbia. In queste sfide legali, Anthropic ha accusato il Pentagono di utilizzare come arma la designazione del rischio della catena di fornitura come punizione per ragioni ideologiche e ha affermato che l’azione violava i diritti del Primo Emendamento dell’azienda.
L’azienda ha chiesto un intervento giudiziario per bloccare la designazione del governo, avvertendo che più di 100 clienti aziendali potrebbero interrompere i loro rapporti con Anthropic a causa dell’etichetta di rischio. Questo potenziale esodo potrebbe comportare una perdita di entrate per miliardi di dollari per l’azienda. La prossima settimana è prevista un’udienza sulla richiesta di ingiunzione preliminare di Anthropic.
Nella dichiarazione di martedì, gli avvocati governativi hanno chiarito che la loro controversia con Anthropic derivava dal comportamento della società durante le trattative contrattuali piuttosto che dalle limitazioni specifiche proposte dalla startup riguardo alla sorveglianza di massa e alle armi autonome. Gli avvocati hanno affermato che il Pentagono stava semplicemente esercitando la sua legittima autorità per selezionare i fornitori appropriati per i contratti di difesa.
Affrontando le argomentazioni del Primo Emendamento di Anthropic, gli avvocati governativi hanno affermato che le tutele costituzionali non garantiscono alle aziende il diritto di imporre unilateralmente termini contrattuali al governo. Sostenevano che Anthropic non avesse fornito alcun precedente legale a sostegno di ciò che definivano un’interpretazione radicale delle protezioni del Primo Emendamento.
Dario Amodei, amministratore delegato di Anthropic, ha difeso la posizione della sua azienda in una dichiarazione del 26 febbraio, sottolineando che sono i militari, e non l’azienda, a determinare in ultima analisi come verranno impiegate le sue tecnologie. “Non abbiamo mai sollevato obiezioni a particolari operazioni militari né tentato di limitare l’uso della nostra tecnologia in modo ad hoc”, ha affermato Amodei. Successivamente ha ritrattato molti dei suoi attacchi all’amministrazione Trump e a OpenAI in un documento scuse umilianti.
Microsoft ha presentato una memoria amichevole sollecitando i tribunali federali a bloccare temporaneamente la designazione del rischio della catena di fornitura da parte del Pentagono. Inoltre, trentasette ingegneri e ricercatori di OpenAI e Google, tra cui il capo scienziato di Google Jeff Dean, ha depositato una memoria sostenendo la posizione di Anthropic nella controversia legale.
La disputa tra il Pentagono e Anthropic sottolinea le tensioni culturali tra l’establishment della difesa e la Silicon Valley. Sebbene il settore tecnologico abbia radici storiche nell’innovazione militare, molte aziende si sentono sempre più a disagio con l’applicazione delle loro tecnologie alla guerra. Le onde d’urto continuano a farsi sentire nel settore dell’intelligenza artificiale, come ad esempio recente partenza della robotica di OpenAI affronta le preoccupazioni sull’accordo con il Pentagono.
Il direttore dei social media di Breitbart News, Wynton Hall, espone i pericoli della tecnologia AI controllata dalla sinistra della Silicon Valley ostile non solo al movimento MAGA, ma all’America in generale, e come i conservatori possono proteggere i loro familiari e il paese in generale da questa minaccia nel libro appena pubblicato Codice Rosso: La Sinistra, la Destra, la Cina e la corsa al controllo dell’IA.
Argomenti inclusi in CODICE ROSSO includere:
- Perché l’intelligenza artificiale è predisposta per l’indottrinamento del risveglio e come resistergli.
- Come le élite intendono sfruttare come arma le paure sulla perdita di posti di lavoro nell’intelligenza artificiale per aumentare la dipendenza.
- Come l’America può battere la Cina senza diventare Cina.
- Come preparare i tuoi figli alla velocità accecante dell’interruzione dell’intelligenza artificiale.
- Le nuove minacce alla sicurezza nazionale scatenate dall’intelligenza artificiale e il modo in cui ci difendiamo da esse.
- Perché le “fidanzate AI” attirano milioni di persone e cosa servirà per preservare un’autentica connessione umana.
- In che modo l’intelligenza artificiale metterà alla prova la fede e il significato e perché il rinnovamento spirituale potrebbe essere il suo risultato più sorprendente.
Leggi di più su IL New York Times Qui.
Lucas Nolan è un reporter di Breitbart News che si occupa di questioni di libertà di parola e censura online.


