Il presidente Donald Trump ha ordinato alle agenzie federali di cessare ogni utilizzo della tecnologia di intelligenza artificiale di Anthropic. Il presidente chiamato La “sinistra radicale” antropica la accusò di mettere a rischio la vita degli americani. Ciò che non ha fatto è stato fornire un unico argomento giuridicamente coerente sul motivo per cui il governo ha l’autorità di costringere un’azienda privata americana a riprogettare i suoi prodotti su richiesta del presidente.
Anche se il post di Trump sui social media non specificava quali “conseguenze civili e penali” avrebbero potuto derivare, le precedenti minacce del Pentagono includevano: l’annullamento del suo contratto da 200 milioni di dollari con il Pentagono, la designazione come “rischio della catena di fornitura” che inserirebbe l’azienda nella lista nera dei contratti federali e, cosa più notevole, la possibile invocazione del Defense Production Act per obbligare la conformità con il fatto che l’azienda sia d’accordo o meno. L’amministrazione potrebbe definirla una necessità di sicurezza nazionale, ma la legge la chiamerà coercizione illegale.

Il Defense Production Act è lo strumento più efficace che il governo brandisce in questa lotta, ed è lo strumento sbagliato per questo compito. Promulgato nel 1950, il DPA è stato progettato per mobilitare la capacità industriale in situazioni di emergenza per costringere i produttori a produrre articoli vitali per la sicurezza nazionale. Invocarlo per costringere una società di software privata a riprogettare il proprio modello di intelligenza artificiale ed eliminare specifici vincoli etici sarebbe un’esagerazione senza precedenti e quasi certamente illegale. Lo statuto semplicemente non è stato scritto per dare al governo l’autorità di sovrascrivere la filosofia di prodotto di un’azienda.
Il problema legale si aggrava sotto la dottrina delle questioni importanti della Corte Suprema che richiede che, quando l’esecutivo rivendica autorità su questioni di vasto significato economico e politico, debba indicare una chiara autorizzazione del Congresso ad agire come fa. Il linguaggio normativo ampio e le inferenze non sono sufficienti; Il Congresso deve aver effettivamente contemplato quell’uso specifico. L’amministrazione Trump ha appena imparato questa lezione quando la Corte Suprema ha annullato le tariffe IEEPA proprio per questi motivi. La DPA ha lo stesso problema qui. Il Congresso del 1950 pensava alle acciaierie, non all’architettura etica dei sistemi di intelligenza artificiale di frontiera. Questa lacuna nell’autorità esplicitamente delegata è fatale per le minacce del Pentagono in questo caso.
C’è anche una dimensione del Primo Emendamento in gioco in quanto Anthropic ha fatto scelte deliberate ed espressive su ciò che il suo modello farà e non farà, scelte che riflettono i principi etici dell’azienda che sono incorporati nel prodotto stesso. Quando il governo richiede la rimozione di quelle scelte sotto minaccia di punizione, non è impegnato nella negoziazione del contratto, ma costringe un attore privato ad abbandonare decisioni di progettazione espressiva su indicazione del governo. Anthropic avrebbe un argomento credibile secondo cui ciò che viene richiesto non è un appalto legale ma una coercizione incostituzionale.
L’incoerenza da parte del Pentagono è ancora più profonda. Le due linee rosse che Anthropic rifiuta di abbandonare sono l’uso della sua intelligenza artificiale per la sorveglianza interna di massa dei cittadini americani e lo sviluppo di armi completamente autonome che sparano senza coinvolgimento umano. Quest’ultima rispecchia la dottrina di lunga data del Dipartimento della Difesa, che richiede un controllo umano significativo sulle decisioni relative alla forza letale. Tuttavia, il Pentagono sta attualmente facendo pressioni su una società privata affinché abbandoni un guardrail che la politica del Pentagono ha storicamente sostenuto.
Un alto funzionario del Pentagono è stato insolitamente sincero quando ha parlato della necessità dell’intelligenza artificiale di Anthropic, dicendo: “L’unico motivo per cui parliamo ancora con queste persone è che ne abbiamo bisogno, e ne abbiamo bisogno adesso. Il problema per questi ragazzi è che sono così bravi.” Se questo è vero, e la condotta stessa del Pentagono suggerisce che ciò avviene nonostante la dichiarazione contraria del presidente, allora l’amministrazione si sta muovendo per distruggere un rapporto indispensabile sui guardrail che non hanno mai, secondo il racconto del Pentagono, interferito con una singola operazione militare.
L’argomentazione dell’amministrazione sulla sicurezza nazionale è legittima e merita una risposta diretta. La loro preoccupazione dichiarata è reale; gli avversari stanno sviluppando l’intelligenza artificiale senza i vincoli etici che le aziende americane si impongono. Ma ciò che manca al Pentagono in questa analisi è che la corsa all’intelligenza artificiale non riguarda solo le prestazioni grezze, ma anche i valori. Il mondo merita un modello di intelligenza artificiale che operi all’interno di un quadro giuridico ed etico che rifletta i valori americani, come la trasparenza e il rispetto dello stato di diritto.
Quando Washington costringe una società privata di intelligenza artificiale a rinunciare a tali impegni, il messaggio al mondo è che le società americane di intelligenza artificiale operano sotto mandato governativo proprio come fanno quelle cinesi. Non è così che vinceremo la corsa all’IA, cioè che l’America ceda la parte che conta di più.
Se l’America vuole essere un leader nel campo dell’intelligenza artificiale, dovrebbe sforzarsi di farlo con un modello fondato sui valori e sui principi giuridici che distinguono questo Paese dagli stati autoritari contro cui compete. Eliminarli sotto costrizione legale non rende la tecnologia più americana. Lo rende indistinguibile da ciò contro cui stiamo correndo.
Nicholas Creel è professore associato di diritto commerciale presso il Georgia College & State University.
Le opinioni espresse in questo articolo appartengono a chi scrive.



