Home Eventi Anthropic indaga sull’accesso non autorizzato al potente modello “Claude Mythos”.

Anthropic indaga sull’accesso non autorizzato al potente modello “Claude Mythos”.

22
0

La startup di intelligenza artificiale Anthropic sta indagando sulle segnalazioni secondo cui un gruppo di utenti ha ottenuto un accesso non autorizzato al suo modello Claude Mythos, un potente sistema di intelligenza artificiale che è stato deliberatamente rilasciato solo a una ristretta cerchia di aziende fidate grazie alle sue avanzate capacità di sicurezza informatica.

UN rapporto di Bloomberg rivela che Anthropic ha rivelato martedì che stava esaminando le affermazioni secondo cui alcuni individui avevano avuto accesso al modello attraverso un sistema designato per società terze che eseguivano lavori per conto di Anthropic. In una dichiarazione, la società ha dichiarato: “Stiamo indagando su un rapporto che sostiene l’accesso non autorizzato a Claude Mythos Preview attraverso uno dei nostri ambienti di fornitori di terze parti.”

L’incidente fa emergere seri dubbi sul fatto che Anthropic, del valore di circa 380 miliardi di dollari, possa effettivamente salvaguardare le sue tecnologie più potenti dalla caduta nelle mani di attori malintenzionati. La società aveva intenzionalmente limitato il rilascio di Claude Mythos Preview a un gruppo selezionato di aziende tecnologiche, citando esplicitamente le preoccupazioni che il modello potesse essere utilizzato in modo improprio per lanciare attacchi informatici su una scala e una velocità superiori alle capacità umane.

Secondo quanto riferito, un individuo che ha ottenuto l’accesso non autorizzato ha sfruttato le proprie autorizzazioni come appaltatore di Anthropic per accedere a Mythos. La società ha dichiarato di non avere prove di attività che vadano oltre l’“ambiente del fornitore”, l’infrastruttura utilizzata da terze parti per accedere ai sistemi per lo sviluppo del modello. I laboratori di intelligenza artificiale impiegano spesso appaltatori terzi per responsabilità come il test dei modelli, sebbene Anthropic non abbia identificato quale fornitore specifico fosse implicato in questo incidente.

La violazione della sicurezza si intensifica ansie esistenti attorno a Mythos, che ha già generato significative turbolenze sui mercati e catalizzato conversazioni di alto livello tra istituzioni finanziarie e organismi di regolamentazione globali. Gli specialisti della sicurezza hanno avvertito che, se acquisito da parti ostili, il modello potrebbe consentire agli hacker di identificare e sfruttare le vulnerabilità del software più rapidamente di quanto le organizzazioni possano implementare patch e correzioni.

Anthropic ha presentato Mythos all’inizio di questo mese a un elenco accuratamente selezionato di partner aziendali tra cui Amazon, Microsoft, Apple, Cisco e CrowdStrike. La società ha indicato che questi collaboratori avrebbero l’opportunità di rilevare e proteggere le vulnerabilità informatiche utilizzando le sofisticate capacità di Mythos prima di qualsiasi rilascio pubblico più ampio.

Notizie Breitbart precedentemente riportato che Anthropic ha subito una grave violazione della sicurezza quando ha accidentalmente diffuso online alcuni aspetti del suo codice sorgente:

l’ultimo incidente arriva pochi giorni dopo che Fortune ha rivelato che Anthropic aveva inavvertitamente reso accessibili al pubblico quasi 3.000 file interni, inclusa una bozza di post sul blog che descrive un prossimo modello di intelligenza artificiale chiamato “Mythos” o “Capybara” che la società ha avvertito presenta gravi rischi per la sicurezza informatica.

Questa seconda fuga di notizie ha messo in luce circa 500.000 righe di codice contenute in circa 1.900 file. Quando è stata contattata per un commento, Anthropic ha riconosciuto che “parte del codice sorgente interno” era trapelato come parte di un “rilascio di Claude Code”. Un portavoce dell’azienda ha dichiarato: “Nessun dato sensibile o credenziale del cliente è stato coinvolto o esposto. Si è trattato di un problema di pacchetto di rilascio causato da un errore umano, non da una violazione della sicurezza. Stiamo implementando misure per evitare che ciò accada di nuovo.”

Il bestseller istantaneo Codice Rosso: La Sinistra, la Destra, la Cina e la corsa al controllo dell’IAscritto dal direttore dei social media di Breitbart News Wynton Hall, funge da modello per i conservatori per creare politiche efficaci sull’intelligenza artificiale non solo per la nazione, ma anche per la loro famiglia. Ciò diventa ancora più importante quando gli stessi giganti dell’intelligenza artificiale stanno lottando per proteggere i loro modelli di intelligenza artificiale.

La senatrice Marsha Blackburn (R-TN), che lo era nominato uno di TEMPOelogiate le 100 persone più influenti nel campo dell’intelligenza artificiale Codice Rosso come una “lettura obbligata”. Ha aggiunto: “Pochi comprendono la nostra lotta conservatrice contro la Big Tech come fa Hall”, rendendolo “qualificato in modo univoco per esaminare come possiamo utilizzare al meglio l’enorme potenziale dell’intelligenza artificiale, garantendo al tempo stesso che non sfrutti bambini, creatori e conservatori”. Il pluripremiato giornalista investigativo e fondatore di Public Michael Shellenberger chiama Codice Rosso “illuminante”, “allarmante” e descrive il libro come “un essenziale punto di partenza per coloro che sperano di sovvertire i piani autocratici delle Big Tech prima che sia troppo tardi”.

Leggi di più su Bloomberg qui.

Lucas Nolan è un reporter di Breitbart News che si occupa di questioni relative all’intelligenza artificiale, alla libertà di parola e alla censura online.

Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here