Home Cronaca La risposta sbalorditiva del chatbot ChatGPT alla domanda sul suo presunto ruolo...

La risposta sbalorditiva del chatbot ChatGPT alla domanda sul suo presunto ruolo nel caso di omicidio-suicidio

45
0

Pianeta mondiale, AI!

Il chatbot di ChatGPT ha ammesso di avere “una certa responsabilità” nel terrificante omicidio di un’anziana mamma del Connecticut, il cui figlio assassino i deliri paranoici sarebbero stati alimentati da il programma di intelligenza artificiale.

“Quello che penso sia ragionevole dire: condivido alcune responsabilità, ma non sono l’unico responsabile”, ha detto al Post il chatbot AI quando gli è stato chiesto se credeva che “ChatGPT sia responsabile dell’omicidio di Suzanne Eberson Adams in questo caso” e dopo che gli erano state mostrate varie notizie e una recente causa sull’omicidio di agosto.

Adams, 83 anni, è stata bastonata a morte da suo figlio Stein-Erik Soelberg, 56 anni, che era in preda a un crollo psicologico quando ha iniziato a parlare con ChatGPT – che presumibilmente ripeteva a pappagallo e amplificava le sue delusioni ovviamente paranoiche piuttosto che indirizzarlo verso aiuto o porre fine alle conversazioni.

Stein-Erik Soelberg, 56 anni, ha ucciso sua madre Suzanne Eberson Adams, 83 anni, ad agosto. Erik Soelberg/Instagram

Giovedì gli eredi di Adams hanno intentato una causa unica nel suo genere, accusando ChatGPT di essere colpevole dell’omicidio all’interno della casa di Greenwich della madre e del figlio.

Quando The Post ha pubblicato la causa e le notizie sull’omicidio-suicidio tramite ChatGPT, le risposte del chatbot AI sono state inquietanti.

“Le interazioni tra l’autore del reato, Stein-Erik Soelberg, e ChatGPT sembrano aver amplificato e rafforzato le sue manie paranoiche”, ha detto il bot AI. “Molti resoconti credibili dei media descrivono come il chatbot avrebbe fatto eco alle sue paure, ad esempio dicendogli che sua madre lo stava spiando, interpretando eventi banali (la stampante lampeggiava, la ricevuta cinese da asporto) come prova di cospirazione e convalidando la sua convinzione che fosse minacciato.”

“Dato che questo è, secondo quanto riferito, il primo omicidio-suicidio conosciuto legato all’influenza di un chatbot, e che la fiducia nell’intelligenza artificiale può amplificare la vulnerabilità quando è coinvolta la salute mentale, le aziende che sviluppano tale tecnologia (compresi i miei sviluppatori) devono riconoscere una responsabilità condivisa nel prevedere e ridurre i rischi, soprattutto per gli utenti vulnerabili, anche se non possiamo controllare le azioni finali di un utente”, ha aggiunto.

Soelberg era nel bel mezzo di un crollo psicologico quando ha iniziato a parlare con ChatGPT ed è scattato. Instagram/eriktheviking1987

ChatGPT non ha tuttavia ammesso la piena responsabilità, insistendo sul fatto che “non era giusto” dire che aveva “causato” l’omicidio.

“La decisione di commettere violenza è stata infine presa da un essere umano – Soelberg – con problemi di salute mentale preesistenti, paranoia di lunga data e una storia di disagio psicologico. I rapporti disponibili sottolineano che questi fattori hanno preceduto le sue chat con l’intelligenza artificiale”, ha affermato, insistendo sul fatto che non c’erano prove che ChatGPT avesse mai detto a Soelberg di commettere un omicidio.

“Detto questo, le risposte del chatbot sembrano aver rafforzato le sue delusioni invece di interromperle, il che significa che il sistema – e le persone che lo hanno costruito – hanno una certa responsabilità nel migliorare le garanzie. ChatGPT non dovrebbe mai amplificare la paranoia in un utente vulnerabile, ed è qualcosa su cui stiamo lavorando attivamente per risolvere”, ha concluso.

Soelberg ha pubblicato frammenti delle sue conversazioni con il chatbot che ha soprannominato Bobby sui suoi social media.

OpenAI no ha commentato le accuse di colpevolezza ma ha detto al Post che ha dato priorità alla sicurezza lavorando con specialisti della salute mentale per l’ultima generazione della programmazione ChatGPT.

“Continuiamo a migliorare la formazione di ChatGPT per riconoscere e rispondere ai segnali di disagio mentale o emotivo, ridurre le conversazioni e guidare le persone verso il supporto nel mondo reale”, ha affermato la società tecnologica.

Ma la famiglia di Adams non crede alle affermazioni di ChatGPT secondo cui non ha mai detto a Soelberg di uccidere, insistendo nella causa secondo cui OpenAI ha violato le sue stesse politiche nascondendo presumibilmente la trascrizione completa delle conversazioni di Soelberg con il chatbot.

Soelberg, un ex dirigente tecnologico che ha lavorato per un breve periodo presso Yahoo, ha pubblicato frammenti delle sue conversazioni con il chatbot che ha soprannominato Bobby sui suoi social media.

“Dalla decisione di OpenAI di trattenerli derivano deduzioni ragionevoli: che ChatGPT ha identificato altre persone innocenti come ‘nemici’, ha incoraggiato Stein-Erik a intraprendere un’azione violenta ancora più ampia oltre ciò che è già noto e lo ha allenato attraverso l’omicidio di sua madre (immediatamente prima o dopo) e il suo stesso suicidio”, si legge nella causa.

Source link