Home Cronaca Microsoft, Google e xAI forniscono agli Stati Uniti l’accesso ai modelli di...

Microsoft, Google e xAI forniscono agli Stati Uniti l’accesso ai modelli di intelligenza artificiale per i test di sicurezza

26
0

L’accordo arriva pochi giorni dopo che il Pentagono ha annunciato un accordo con sette giganti della tecnologia per utilizzare l’intelligenza artificiale nei sistemi classificati.

I giganti della tecnologia Microsoft, Google e xAI affermano che consentiranno al governo federale degli Stati Uniti l’accesso ai loro nuovi modelli di intelligenza artificiale per testare la sicurezza nazionale.

Il Centro per gli standard e l’innovazione dell’intelligenza artificiale (CAISI) presso il Dipartimento del Commercio ha annunciato martedì l’accordo tra le crescenti preoccupazioni sulle capacità che il modello Mythos appena presentato da Anthropic potrebbe offrire agli hacker.

Storie consigliate

elenco di 4 elementifine dell’elenco

In base al nuovo accordo, il governo degli Stati Uniti potrà valutare i modelli prima dell’implementazione e condurre ricerche per valutarne le capacità e i rischi per la sicurezza.

L’accordo soddisfa l’impegno assunto a luglio dall’amministrazione del presidente degli Stati Uniti Donald Trump di collaborare con le aziende tecnologiche per verificare i loro modelli di intelligenza artificiale per “rischi per la sicurezza nazionale”.

Microsoft collaborerà con gli scienziati del governo statunitense per testare i sistemi di intelligenza artificiale “in modo da sondare comportamenti inaspettati”, ha affermato la società in una nota. Insieme svilupperanno set di dati e flussi di lavoro condivisi per testare i modelli dell’azienda, ha affermato la società.

Microsoft ha firmato un accordo simile con l’AI Security Institute del Regno Unito, secondo la dichiarazione.

A Washington cresce la preoccupazione per i rischi per la sicurezza nazionale posti dai potenti sistemi di intelligenza artificiale. Garantendo un accesso anticipato ai modelli di frontiera, i funzionari statunitensi mirano a identificare le minacce che vanno dagli attacchi informatici all’abuso militare prima che gli strumenti siano ampiamente utilizzati.

Lo sviluppo di sistemi di intelligenza artificiale avanzati, incluso Mythos di Anthropic, nelle ultime settimane ha creato scalpore a livello globale, anche tra i funzionari statunitensi e le multinazionali americane, per la loro capacità di potenziare gli hacker.

“Una scienza di misurazione indipendente e rigorosa è essenziale per comprendere l’intelligenza artificiale di frontiera e le sue implicazioni sulla sicurezza nazionale”, ha affermato il direttore del CAISI Chris Fall in una nota.

La mossa si basa sugli accordi del 2024 con OpenAI e Anthropic sotto l’amministrazione del presidente Joe Biden, quando CAISI era conosciuto come l’Istituto statunitense per la sicurezza dell’intelligenza artificiale. Sotto Biden, l’istituto si è concentrato sullo sviluppo di test, definizioni e standard di sicurezza volontari sull’intelligenza artificiale. È stato guidato dalla consulente tecnica di Biden Elizabeth Kelly, che da allora si è unita ad Anthropic, secondo il suo profilo LinkedIn.

CAISI, che funge da hub principale del governo per i test dei modelli di intelligenza artificiale, ha affermato di aver già completato più di 40 valutazioni, anche su modelli all’avanguardia non ancora disponibili al pubblico.

Gli sviluppatori spesso consegnano versioni dei loro modelli con le barriere di sicurezza smontate in modo che il centro possa indagare sui rischi per la sicurezza nazionale, ha affermato l’agenzia.

xAI non ha risposto immediatamente a una richiesta di commento. Google ha rifiutato di commentare.

A Wall Street, a mezzogiorno, subito dopo l’annuncio, le azioni di Microsoft sono scese dello 0,6%. Alphabet, la società madre di Google, invece stava andando nella direzione opposta. Il titolo è cresciuto dell’1,3%. xAI non è quotato in borsa.

Gli annunci fanno seguito ad un accordo tra il Pentagono e sette grandi aziende tecnologiche – Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection e SpaceX – per utilizzare i loro sistemi di intelligenza artificiale su reti di computer classificate.

Il Dipartimento della Difesa ha affermato che l’accordo fornirà le risorse per aiutare “ad aumentare il processo decisionale dei combattenti in ambienti operativi complessi”.

Notevolmente assente dalla lista è la società di intelligenza artificiale Anthropic dopo la sua disputa pubblica e la battaglia legale con l’amministrazione Trump sull’etica e la sicurezza dell’uso dell’intelligenza artificiale in guerra.

Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here