Secondo una nuova analisi condotta da esperti di intelligenza artificiale, la frode deepfake si è evoluta in un’operazione su scala industriale, con gli strumenti di intelligenza artificiale che ora consentono praticamente a chiunque di creare truffe sofisticate contro individui e organizzazioni in tutto il mondo.
IL Custode rapporti che, secondo un’analisi della Database degli incidenti IA. La tecnologia non è più limitata alle imprese criminali sofisticate ma è disponibile praticamente per qualsiasi truffatore con accesso a Internet.
Il database ha catalogato più di una dozzina di recenti episodi di “simulazione di identità a scopo di lucro”, inclusi video deepfake del premier dell’Australia occidentale Robert Cook che sembrano promuovere un programma di investimenti, video inventati di medici che sostengono creme per la pelle e deepfake di giornalisti svedesi e del presidente di Cipro utilizzati per frode.
L’impatto finanziario è stato sostanziale. L’anno scorso, un funzionario finanziario di una multinazionale di Singapore ha pagato quasi 500.000 dollari a dei truffatori durante quella che credeva fosse una videochiamata legittima con la leadership dell’azienda. Nel Regno Unito, i consumatori hanno perso circa 9,4 miliardi di sterline a causa di frodi in soli nove mesi fino a novembre 2025.
Simon Mylius, un ricercatore del MIT che lavora a un progetto legato al database, ha sottolineato il drammatico cambiamento. “Le capacità hanno improvvisamente raggiunto quel livello in cui contenuti falsi possono essere prodotti praticamente da chiunque”, ha detto Mylius, sottolineando che “frodi, truffe e manipolazione mirata” sono state la più grande categoria di incidenti segnalati in undici degli ultimi dodici mesi. “È diventato molto accessibile a un punto in cui non esiste più alcuna barriera all’ingresso”, ha aggiunto.
Il ricercatore di Harvard Fred Heiding ha fatto eco a queste preoccupazioni. “La scala sta cambiando”, ha detto Heiding. “Sta diventando così economico che ormai quasi chiunque può usarlo. I modelli stanno diventando davvero validi: stanno diventando molto più veloci di quanto pensi la maggior parte degli esperti.”
Anche le società di sicurezza IA vengono prese di mira. All’inizio di gennaio, Jason Rebholz, CEO della startup di sicurezza AI Evoke, ha pubblicato un lavoro su LinkedIn e presto ha iniziato a scambiare e-mail con qualcuno che sembrava essere un ingegnere di talento. Nonostante abbia notato i segnali d’allarme (e-mail destinate allo spam, curriculum inconsistenti), ha proceduto con un colloquio. Quando finalmente è apparso il feed video del candidato, i problemi erano evidenti.
“Lo sfondo era estremamente falso”, ha spiegato Rebholz. “È stato davvero difficile affrontarlo [the area] ai margini dell’individuo. Come se una parte del suo corpo entrasse e uscisse… E poi quando guardo il suo viso, è semplicemente molto morbido attorno ai bordi.
Rebholz ha completato l’intervista, quindi ha inviato la registrazione a una società di rilevamento di deepfake, che ha confermato che il video era generato dall’intelligenza artificiale. Il truffatore potrebbe aver cercato uno stipendio da ingegnere o l’accesso a segreti commerciali.
“È come se se fossimo presi di mira noi, sarebbero presi di mira tutti”, ha osservato Rebholz.
Secondo Heiding la situazione probabilmente peggiorerà prima di migliorare. La clonazione vocale di Deepfake ha già raggiunto un livello di sofisticazione eccellente, rendendo facile impersonare persone come familiari in difficoltà che chiedono aiuto. La tecnologia video, pur già preoccupante, continua ad avanzare rapidamente.
Heiding ha messo in guardia sulle conseguenze a lungo termine: “Quello sarà il grande punto dolente qui, la totale mancanza di fiducia nelle istituzioni digitali, e nelle istituzioni e nel materiale in generale”.
Leggi di più su IL Custode Qui.
Lucas Nolan è un reporter di Breitbart News che si occupa di questioni di libertà di parola e censura online.



