Il CEO di Anthropic Dario Amodei ha aspramente criticato OpenAI e il suo CEO Sam Altman in una nota interna, descrivendo le dichiarazioni della società rivale sul suo contratto militare come “vere e proprie bugie”.
In una nota dello staff riportato dall’InformazioneIl co-fondatore e amministratore delegato di Anthropic, Dario Amodei, ha espresso forte disapprovazione per il progetto di OpenAI recente accordo con il Dipartimento di Guerra, definendo fuorvianti i messaggi pubblici dell’azienda e definendo il suo approccio alla sicurezza una prestazione superficiale piuttosto che un impegno genuino.
“Il motivo principale [OpenAI] accettato [the DoW’s deal] e non l’abbiamo fatto è che loro si preoccupavano di placare i dipendenti, e noi in realtà ci preoccupavamo di prevenire gli abusi”, ha scritto Amodei nella nota ai dipendenti.
La controversia nasce dal fallimento dei negoziati tra Anthropic e il Dipartimento di Guerra degli Stati Uniti la scorsa settimana. Nonostante abbia un contratto da 200 milioni di dollari con l’esercito, Anthropic rifiutato di procedere con una cooperazione ampliata a meno che il DoW non accetti esplicitamente di non utilizzare la tecnologia di intelligenza artificiale dell’azienda per la sorveglianza di massa domestica o armi autonome.
Quando i negoziati fallirono, il Dipartimento della Guerra si rivolse a OpenAI e raggiunse con successo un accordo. Il CEO di OpenAI, Sam Altman, ha successivamente annunciato che il nuovo contratto includeva garanzie contro le stesse preoccupazioni sollevate da Anthropic.
Tuttavia, Amodei ha contestato questa caratterizzazione nella sua comunicazione allo staff, riferendosi ai messaggi di OpenAI come “bugie vere e proprie” e accusando Altman di “presentarsi falsamente come un pacificatore e un negoziatore”.
La controversia è incentrata su differenze cruciali nel linguaggio contrattuale. Anthropic si era espressamente opposto all’insistenza del DoW affinché l’intelligenza artificiale dell’azienda fosse disponibile per “qualsiasi uso legale”. Il post sul blog di OpenAI che annunciava il suo accordo affermava che il contratto consente l’uso dei suoi sistemi di intelligenza artificiale per “tutti gli scopi legali”.
“Dalla nostra interazione era chiaro che il DoW considera illegale la sorveglianza nazionale di massa e non intendeva utilizzarla per questo scopo”, si legge nel post sul blog di OpenAI. “Ci siamo assicurati che il fatto che non sia coperto da un uso lecito fosse reso esplicito nel nostro contratto.”
I critici hanno evidenziato una significativa vulnerabilità in questo approccio, sottolineando che i quadri giuridici possono cambiare nel tempo. Le attività attualmente classificate come illegali potrebbero potenzialmente diventare consentite in base a future modifiche legislative o politiche, rendendo potenzialmente prive di significato le attuali tutele contrattuali.
La reazione del pubblico sembra favorire la posizione di Anthropic. In seguito all’annuncio di OpenAI della sua partnership con il Dipartimento della Guerra, le disinstallazioni di ChatGPT sono aumentate del 295%, indicando l’insoddisfazione degli utenti per la decisione.
Amodei ha riconosciuto questo sentimento pubblico nella sua nota allo staff, suggerendo che la posizione di Anthropic ha avuto risonanza tra i consumatori e gli osservatori dei media mentre le giustificazioni di OpenAI sono state accolte con scetticismo.
“Penso che questo tentativo di propaganda/gaslighting non funzioni molto bene sul grande pubblico o sui media, dove le persone per lo più vedono l’accordo di OpenAI con il DoW come vago o sospetto, e ci vedono come gli eroi (siamo al secondo posto nell’App Store ora!),” ha scritto Amodei al suo staff. “Sta funzionando su alcuni idioti di Twitter, il che non ha importanza, ma la mia preoccupazione principale è come assicurarmi che non funzioni sui dipendenti OpenAI.”
Mentre le aziende di intelligenza artificiale, guidate e costruite da persone di sinistra con una storia di attacchi a Donald Trump e al movimento MAGA, continuano a combattere tra loro per vincere le guerre dell’intelligenza artificiale, le ricadute potrebbero avere un impatto su tutto, dalla posizione di difesa americana e dalle elezioni all’economia e alla salute mentale dei nostri figli e nipoti. Il direttore dei social media di Breitbart News, Wynton Hall, ha scritto il suo prossimo libro, libro Codice Rosso: La Sinistra, la Destra, la Cina e la corsa al controllo dell’IAper fungere da guida definitiva su come il movimento MAGA può creare posizioni sull’intelligenza artificiale a beneficio dell’umanità senza cedere il controllo della nostra nazione alla sinistra della Silicon Valley o permettere ai cinesi di conquistare il mondo.
La senatrice Marsha Blackburn (R-TN), che lo era nominato uno di TEMPOelogiate le 100 persone più influenti nel campo dell’intelligenza artificiale Codice Rosso come una “lettura obbligata”. Ha aggiunto: “Pochi comprendono la nostra lotta conservatrice contro la Big Tech come fa Hall”, rendendolo “qualificato in modo univoco per esaminare come possiamo utilizzare al meglio l’enorme potenziale dell’intelligenza artificiale, garantendo al tempo stesso che non sfrutti bambini, creatori e conservatori”. Il pluripremiato giornalista investigativo e fondatore di Public Michael Shellenberger chiama Codice Rosso “illuminante”, “allarmante” e descrive il libro come “un essenziale punto di partenza per coloro che sperano di sovvertire i piani autocratici delle Big Tech prima che sia troppo tardi”.
Leggi di più su le informazioni qui.
Lucas Nolan è un reporter di Breitbart News che si occupa di questioni di libertà di parola e censura online.




