I criminali informatici sono stati scoperti utilizzando un exploit di sicurezza zero-day che Google ritiene sia stato sviluppato con l’assistenza dell’intelligenza artificiale, segnando una pietra miliare significativa nell’evoluzione delle minacce informatiche.
Politico rapporti che Google ha annunciato lunedì che i suoi ricercatori hanno identificato quello che sembra essere il primo esempio documentato di hacker che utilizzano un exploit zero-day sviluppato attraverso la tecnologia dell’intelligenza artificiale. La scoperta è stata dettagliata in un rapporto pubblicato dal Google Threat Intelligence Group e rappresenta uno sviluppo preoccupante nel panorama della sicurezza informatica.
Gli exploit zero-day sono tra i tipi più pericolosi di vulnerabilità della sicurezza perché sono sconosciuti alle società di sicurezza e non dispongono di correzioni o patch disponibili. Questi difetti possono essere sfruttati dagli aggressori prima che gli sviluppatori abbiano l’opportunità di affrontarli, rendendoli particolarmente preziosi per i criminali informatici e i gruppi di hacking sponsorizzati dallo stato.
Il rapporto segna la prima volta che Google osserva prove che suggeriscono che l’intelligenza artificiale sia stata utilizzata nella scoperta e nello sviluppo di tali vulnerabilità. Questo sviluppo arriva in un momento in cui le principali società di intelligenza artificiale, tra cui Anthropic e OpenAI, hanno iniziato a testare modelli avanzati appositamente progettati per identificare e sfruttare le vulnerabilità critiche del software con capacità che superano la maggior parte dei ricercatori umani.
Secondo l’analisi di Google, l’exploit zero-day molto probabilmente non è stato sviluppato utilizzando il modello Claude Mythos di Anthropic, nonostante l’impressionante track record di quel sistema. Il modello Mythos ha già identificato migliaia di vulnerabilità in tutti i principali sistemi operativi e browser web, dimostrando il potenziale potere dell’intelligenza artificiale nella ricerca sulla sicurezza informatica.
Sia il modello Mythos che il modello GPT-5.5-Cyber recentemente annunciato da OpenAI hanno attirato un’attenzione significativa da parte dell’amministrazione Trump. I funzionari governativi stanno attualmente tenendo riunioni continue con gruppi industriali per discutere potenziali quadri normativi e procedure di controllo per questi modelli di IA di frontiera.
Prima di rilasciare il suo rapporto pubblico, Google ha informato la società anonima interessata dalla vulnerabilità, consentendo loro di sviluppare e rilasciare una patch per risolvere il problema di sicurezza. Questo approccio di divulgazione responsabile è una pratica standard nella comunità della sicurezza informatica.
John Hultquist, capo analista del Google Threat Intelligence Group, ha sottolineato l’importanza dei risultati in una dichiarazione. “Per ogni zero-day che possiamo risalire all’intelligenza artificiale, probabilmente ce ne sono molti altri là fuori”, ha detto Hultquist. Ha aggiunto che la scoperta chiarisce che la corsa all’uso dell’intelligenza artificiale per individuare le vulnerabilità della rete è “già iniziata”. Hultquist ha inoltre osservato che “gli autori delle minacce utilizzano l’intelligenza artificiale per aumentare la velocità, la portata e la sofisticazione dei loro attacchi”.
Notizie Breitbart precedentemente riportato che Anthropic sta indagando sull’accesso non autorizzato alla sua potente Mythos AI:
L’incidente fa emergere seri dubbi sul fatto che Anthropic, del valore di circa 380 miliardi di dollari, possa effettivamente salvaguardare le sue tecnologie più potenti dalla caduta nelle mani di attori malintenzionati. La società aveva intenzionalmente limitato il rilascio di Claude Mythos Preview a un gruppo selezionato di aziende tecnologiche, citando esplicitamente le preoccupazioni che il modello potesse essere utilizzato in modo improprio per lanciare attacchi informatici su una scala e una velocità superiori alle capacità umane.
Secondo quanto riferito, un individuo che ha ottenuto l’accesso non autorizzato ha sfruttato le proprie autorizzazioni come appaltatore di Anthropic per accedere a Mythos. La società ha dichiarato di non avere prove di attività che vadano oltre l’“ambiente del fornitore”, l’infrastruttura utilizzata da terze parti per accedere ai sistemi per lo sviluppo del modello. I laboratori di intelligenza artificiale impiegano spesso appaltatori terzi per responsabilità come il test dei modelli, sebbene Anthropic non abbia identificato quale fornitore specifico fosse implicato in questo incidente.
Il bestseller istantaneo Codice Rosso: La Sinistra, la Destra, la Cina e la corsa al controllo dell’IAscritto dal direttore dei social media di Breitbart News Wynton Hall, funge da modello per i conservatori per creare politiche efficaci sull’intelligenza artificiale non solo per la nazione, ma anche per la loro famiglia. Ciò diventa ancora più importante quando gli stessi giganti dell’intelligenza artificiale lottano per proteggere i loro modelli di intelligenza artificiale e i criminali informatici sviluppano ogni giorno nuovi attacchi.
Leggi di più su Politico qui.
Lucas Nolan è un reporter di Breitbart News che si occupa di questioni relative all’intelligenza artificiale, alla libertà di parola e alla censura online.



