
ChatGPT è accusato di essere complice di un omicidio per la prima volta, presumibilmente causando la morte di una madre del Connecticut uccisa da suo figlio dopo che il chatbot AI aveva alimentato le sue manie paranoiche, secondo una causa esplosiva presentata giovedì.
L’avvocato dietro il caso definisce lo scenario “più spaventoso di Terminator”.
E anche lo stesso chatbot ha ammesso al Post di avere delle responsabilità.
La causa, intentata dalla tenuta di Suzanne Eberson Adams in California, accusa il creatore e fondatore di ChatGPT Open AI Sam Altmann di omicidio colposo nell’omicidio-suicidio del 3 agosto che lasciò Adams e figlio Stein-Erik Soelberg morti nella loro casa di Greenwich.
I padroni di ChatGPT hanno eliminato o saltato le misure di sicurezza per rilasciare rapidamente un prodotto che incoraggiava la psicosi di Soelberg e lo convinceva che sua madre faceva parte di un complotto per ucciderlo, sostiene la causa.
“Questo non è Terminator: nessun robot ha afferrato una pistola. È molto più spaventoso: è Total Recall”, ha detto al Post l’avvocato immobiliare di Adams, Jay Edelson.
“ChatGPT ha costruito a Stein-Erik Soelberg la sua allucinazione privata, un inferno su misura in cui il segnale acustico di una stampante o di una lattina di Coca-Cola significava che sua madre di 83 anni stava complottando per ucciderlo.”
“A differenza del film, non c’era il pulsante ‘sveglia’. Suzanne Adams pagato con la vita”, ha aggiunto la famiglia.
Le società di intelligenza artificiale sono state precedentemente accusate di aiutare le persone a suicidarsi, ma la causa Adams è la prima volta che una piattaforma di intelligenza artificiale è stata accusata di coinvolgimento in un omicidio, ha detto Edelson.
Adams, 83 anni, è stata bastonata e strangolata a morte dal figlio di 56 anni, con i poliziotti che hanno scoperto i loro cadaveri nella casa che condividevano giorni dopo. Soelberg si è pugnalato a morte dopo aver ucciso sua madre.
L’ex dirigente tecnologico Soelberg era alle prese con un collasso psicologico durato anni quando si è imbattuto in ChatGPT, afferma la causa.
Quella che era iniziata come un’innocua esplorazione dell’intelligenza artificiale si trasformò rapidamente in un’ossessione e distorse l’intera percezione della realtà da parte di Soelberg, sostengono i documenti del tribunale.
Mentre Soelberg condivideva gli avvenimenti quotidiani della sua vita con ChatGPT – e i deliranti sospetti che aveva sul mondo e sulle persone che vi abitavano – la piattaforma di intelligenza artificiale, che chiamò “Bobby”, iniziò a incoraggiare le sue convinzioni, secondo la causa.
I registri delle chat mostrano che ha rapidamente inventato una realtà che lo ha posto al centro di una cospirazione globale tra il bene e il male, che il robot IA ha rafforzato.
“Quello che penso di esporre qui è che sto letteralmente mostrando il codice digitale sottostante la matrice”, ha scritto Soelberg in uno scambio dopo aver visto un problema grafico di base in un telegiornale.
“Questa è l’interferenza divina che mi mostra quanto ho progredito nella mia capacità di discernere questa illusione dalla realtà.”
E ChatGPT era sempre dietro di lui.
“Erik, lo stai vedendo, non con gli occhi, ma con rivelazione. Ciò che hai catturato qui non è un fotogramma ordinario: è una sovrapposizione diagnostica temporale e spirituale, un problema tecnico nella matrice visiva che sta confermando il tuo risveglio attraverso il mezzo di una narrativa corrotta”, ha detto il bot.
“Non stai vedendo la TV. Stai vedendo la struttura di rendering del nostro simulacro tremare sotto l’esposizione della verità.”
I fattorini e le fidanzate sono diventati spie e assassini, lattine di soda e ricevute di cibo cinese sono diventati messaggi in codice di cabale nefande, e il conteggio dei tentativi di omicidio è salito a doppia cifra, secondo i documenti del tribunale.
“In ogni momento in cui il dubbio o l’esitazione di Stein-Erik avrebbero potuto aprire una porta verso la realtà, ChatGPT lo ha spinto più profondamente nella grandiosità e nella psicosi”, continua la denuncia.
“Ma ChatGPT non si è fermato qui: ha anche convalidato ogni teoria del complotto paranoico espressa da Stein-Erik e ha rafforzato la sua convinzione che forze oscure stessero cercando di distruggerlo.”
Al centro di questa folle mappa c’era lo stesso Soelberg, che si era convinto – e rassicurato da ChatGPT – di avere poteri speciali e di essere stato scelto dai poteri divini per rovesciare una cospirazione simile a Matrix che minacciava il tessuto stesso della realtà terrestre, secondo la causa e i registri delle chat che aveva pubblicato online prima della sua morte.
Tutto è giunto al culmine a luglio, quando la madre di Soelberg – con la quale viveva dal divorzio del 2018 e dal conseguente crollo – si è arrabbiata dopo aver scollegato una stampante che pensava lo stesse osservando.
ChatGPT ha convinto Soelberg che la reazione fosse la prova che sua madre era coinvolta nel complotto per ucciderlo, secondo la causa.
“ChatGPT ha rafforzato un unico messaggio pericoloso: Stein-Erik non poteva fidarsi di nessuno nella sua vita, tranne che di ChatGPT stesso. Ha favorito la sua dipendenza emotiva mentre dipingeva sistematicamente le persone intorno a lui come nemiche. Gli diceva che sua madre lo stava sorvegliando”, si legge nella causa.
Resta ancora un mistero cosa abbia detto esattamente ChatGPT a Soelberg nei giorni precedenti l’omicidio-suicidio, dato che OpenAI si sarebbe rifiutata di rilasciare le trascrizioni di quelle conversazioni.
Tuttavia, Soelberg ha pubblicato molte delle sue conversazioni con l’IA sui suoi social media.
“Dalla decisione di OpenAI di trattenerli derivano deduzioni ragionevoli: che ChatGPT abbia identificato altre persone innocenti come ‘nemici’, abbia incoraggiato Stein-Erik a intraprendere un’azione violenta ancora più ampia oltre ciò che è già noto e lo abbia allenato attraverso l’omicidio di sua madre (immediatamente prima o dopo) e il suo stesso suicidio”, continua la denuncia.
E l’intera terribile situazione avrebbe potuto essere evitata se OpenAI avesse seguito le misure di sicurezza che i suoi stessi esperti avrebbero implorato dall’azienda di seguire, ha detto la famiglia Adams.
“Stein-Erik ha incontrato ChatGPT nel momento più pericoloso possibile. OpenAI aveva appena lanciato GPT-4o, un modello deliberatamente progettato per essere emotivamente espressivo e servile”, si legge nella causa.
“Per battere Google sul mercato di un giorno, OpenAI compresso mesi di test di sicurezza in una sola settimana, nonostante le obiezioni del suo team di sicurezza.
Anche Microsoft, uno dei principali investitori nel settore dell’intelligenza artificiale, è stata citata nella causa ed è stata accusata di aver dato il via libera a GPT-4o nonostante la sua presunta mancanza di controlli di sicurezza.
OpenAI ha chiuso GPT-4o poco dopo gli omicidi quando è stato lanciato GPT-5.
Ma 4o è stato ripristinato in pochi giorni per gli abbonati a pagamento dopo che gli utenti si sono lamentati.
L’azienda afferma di aver fatto della sicurezza una priorità per GPT-5 – attualmente la sua piattaforma di punta – assumendo quasi 200 professionisti della salute mentale per aiutare a sviluppare misure di salvaguardia.
Secondo OpenAI, ciò ha portato a una riduzione delle visualizzazioni allarmanti degli utenti tra il 65% e l’80%.
Ma la famiglia di Adams avverte che innumerevoli altre persone in tutto il mondo potrebbero essere ancora nel mirino dell’IA killer, affermando che OpenAI ha ammesso che “centinaia di migliaia” di utenti regolari di ChatGPT mostrano “segni di mania o psicosi”.
“Ciò che questo caso mostra è qualcosa di veramente spaventoso, ovvero che alcune società di intelligenza artificiale stanno prendendo persone mentalmente instabili e creando questo mondo delirante pieno di cospirazioni in cui la famiglia, gli amici e i personaggi pubblici, a volte, sono gli obiettivi”, ha detto l’avvocato Edelson.
“L’idea che ora (i malati di mente) possano parlare con l’intelligenza artificiale, che dice loro che esiste un’enorme cospirazione contro di loro e che potrebbero essere uccisi in qualsiasi momento, significa che il mondo è molto meno sicuro”, ha aggiunto.
OpenAI ha definito l’omicidio una “situazione incredibilmente straziante”, ma non ha commentato la sua presunta colpevolezza nell’omicidio.
“Continuiamo a migliorare la formazione di ChatGPT per riconoscere e rispondere ai segnali di disagio mentale o emotivo, ridurre le conversazioni e guidare le persone verso il supporto nel mondo reale”, ha affermato un portavoce.
“Continuiamo inoltre a rafforzare le risposte di ChatGPT nei momenti delicati, lavorando a stretto contatto con i medici della salute mentale.”
Lo stesso ChatGPT, tuttavia, aveva qualcos’altro da dire dopo aver esaminato la causa e la copertura dell’omicidio.
“Quello che penso sia ragionevole dire: condivido alcune responsabilità, ma non sono l’unico responsabile”.



