Home Eventi “Volevano prendere le decisioni:” Emil Michael del Pentagono spiega la lotta contro...

“Volevano prendere le decisioni:” Emil Michael del Pentagono spiega la lotta contro l’intelligenza artificiale con Anthropic all’Alex Marlow Show

19
0

Emil Michael, Chief Technology Officer del Pentagono, si è unito Lo spettacolo di Alex Marlow per spiegare la caduta in disgrazia di Anthropic, un tempo unico partner AI approvato dal Pentagono. Secondo Michael, Anthropic era un “vincitore scelto” dall’amministrazione Biden che “voleva mettersi tra la struttura di comando e il combattente”.

Durante la puntata di mercoledì di Lo spettacolo di Alex Marlowil redattore capo di Breitbart News ha osservato che il Pentagono era “diventato molto dipendente da Anthropic” prima che la società fosse inserito nella lista nera dal presidente Donald Trump, che l’ha definita una “società sveglia e di sinistra radicale”. Marlow ha poi chiesto a Michael di descrivere quanto il Pentagono fosse dipendente dal suo unico fornitore e come il Dipartimento della Guerra intende affrontare i potenziali rischi.

Guarda qui sotto:

Michael ha spiegato che l’amministrazione Biden aveva un ordine esecutivo “progettato per creare un piccolo numero di vincitori che siano più strettamente sotto il controllo del governo e impedire, o almeno rendere difficile, per le nuove startup la creazione di società di intelligenza artificiale”.

“Anthropic è stato uno dei vincitori scelti per la sua filosofia politica”, ha detto Michael.

Il Sottosegretario alla Difesa degli Stati Uniti per la Ricerca e l’Ingegneria ha elaborato:

Quando sono arrivato qui e ho preso visione dei contratti firmati in quel periodo, ho avuto un momento di “vacca santa”. I contratti sostanzialmente impedivano al Dipartimento della Guerra di fare cose del Dipartimento della Guerra – come progettare armi, sia che si tratti di fisica o scienza dei materiali o dinamica aerospaziale – e ho dovuto dire: “Porca miseria, dobbiamo fare qualcosa al riguardo.’

Quindi sono andato da tutte queste aziende, aziende modello, e ho detto: “Numero uno, non possiamo dipendere da un unico fornitore”, e non è ovunque nel DoW, è solo in alcune aree sensibili. E numero due, i termini devono permetterci di fare le cose che facciamo. Se sei un fornitore di software, perché vendere al Dipartimento della Guerra se non puoi fare le cose del Dipartimento della Guerra?

Quindi ho deciso di creare qualcosa di equivalente, ad esempio ciò che stavamo comprando e ciò che vendevano ci fosse utile.

“Tutte le altre società di intelligenza artificiale, Grok, Google, persino OpenAI, hanno impiegato una o due settimane per venire a patti”, ha detto Michael. “Ho trascorso tre mesi con Anthropic, cercando di venire a patti.”

“Alla fine, era chiaro che volevano solo intromettersi tra la struttura di comando e il combattente”, ha aggiunto il responsabile della tecnologia del Pentagono. “Volevano prendere le decisioni”.

“Quindi potrebbero fondamentalmente essere il comandante in capo de facto dell’esercito?” ha chiesto Marlow, aggiungendo: “Sembra la cosa più vergognosa ed esagerata di cui abbia mai sentito parlare, dove un’azienda potrebbe semplicemente dettare al governo come si dovrebbe comportare”.

Michael è d’accordo, definendo lo scenario “orwelliano”, aggiungendo che “le 25 pagine di termini e condizioni” danno alla società di intelligenza artificiale “il diritto” di “spegnere il software nel mezzo di una battaglia” se si ritiene che il governo degli Stati Uniti sia “inciampato in una di quelle 25 pagine, che contenevano 50 diversi divieti”.

“Così potrebbero decidere che la battaglia è finita”, ha detto il responsabile della tecnologia del Pentagono.

Michael ha continuato offrendo un esempio:

Potrebbero decidere che stavi usando questo strumento per pianificare un raid di Maduro in Venezuela e la cosa non gli è piaciuta. E i guardrail del software potrebbero essersi attivati ​​automaticamente senza nemmeno alcun intervento umano, perché il modello in un certo senso percepisce cosa stai cercando di fare.

Che si trattasse di un guardrail umano o di un software, il modello, che dicono sia quasi senziente, poteva percepirlo perché, ricordate, Anthropic ha una propria costituzione. Non i valori aziendali, la propria costituzione. La sua stessa anima. E se ci inciampi, il software potrebbe spegnersi nel momento critico.

“Se sei un investitore, in che modo questo cambia le cose per Anthropic ora che voi ragazzi lo avete designato come un rischio per la catena di fornitura?” chiese Marlow.

Michael ha risposto: “È abbastanza logico. Noi del Dipartimento di Guerra dobbiamo abbandonare Anthropic e dobbiamo avere più di un fornitore per il futuro. Questa è la parte semplice”.

Il funzionario tecnologico del Pentagono ha aggiunto che, quando si tratta del rischio della catena di approvvigionamento, l’amministrazione Trump non vuole che le aziende che vendono componenti critici al Dipartimento di Guerra “usino Anthropic per progettare le cose che ci forniscono”.

“Perché c’è il rischio di una minaccia interna”, ha detto Michael. “C’è quello che chiamiamo ‘avvelenamento da modello’ – ne sentirete parlare molto il prossimo anno – in cui un modello viene avvelenato per comportarsi in un certo modo da un individuo o dal modo in cui insegna al modello a fare determinate cose.”

Qualcosa del genere, ha detto Michael, “potrebbe causare un errore di calcolo intenzionale che invade il software e poi finisce nelle mani di un combattente di guerra”.

“E non posso correre questo rischio”, ha affermato il responsabile tecnologico del Pentagono. “Non possiamo correre questo rischio.”

“Se Boeing vuole utilizzare Anthropic per i propri jet commerciali, va bene”, ha aggiunto. “Se vogliono usarlo per gli aerei da combattimento, non possono. Perché li compro al Dipartimento di Guerra e non voglio che nulla venga corrotto in quella catena di approvvigionamento.”

Lo spettacolo di Alex Marlowcondotto dal caporedattore di Breitbart Alex Marlow, trasmette da costa a costa nei giorni feriali da mezzogiorno alle 13:00 Est il le stazioni della rete radiofonica di Salem. Puoi ascoltare il programma radiofonico online Qui. Lo spettacolo va in onda anche alle 21:00 Est sul canale di notizie Salem TV. Il podcast di Marlow, Lo spettacolo di Alex Marlow presentato da Breitbart Newsviene rilasciato nei giorni feriali alle 21:00 Est. Puoi iscriverti al podcast su YouTube, Rombo, Podcast di AppleE Spotify.

Alana Mastrangelo è una giornalista di Breitbart News. Puoi seguirla Facebook e X a @ARmastrangeloe così via Instagram.



Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here