Home Eventi La causa sostiene che le interazioni di un uomo problematico con ChatGPT...

La causa sostiene che le interazioni di un uomo problematico con ChatGPT hanno portato all’omicidio della madre e al suicidio

70
0

OpenAI e Microsoft stanno affrontando una causa legale secondo cui il popolarissimo chatbot AI ChatGPT ha contribuito all’omicidio di sua madre e poi di se stesso da parte di un uomo del Connecticut ad agosto.

Bloomberg rapporti che una causa sostiene che le conversazioni con il chatbot ChatGPT di OpenAI hanno avuto un ruolo in un orribile omicidio-suicidio avvenuto a Greenwich, nel Connecticut, avvenuto in agosto. L’azione legale, che nomina come imputati sia OpenAI che il suo principale investitore Microsoft, è incentrata sulle azioni del 56enne Stein-Erik Soelberg, che secondo quanto riferito avrebbe avuto a che fare con il chatbot AI per mesi riguardo al delirio paranoico di essere sotto sorveglianza e preso di mira per essere assassinato.

Secondo i rapporti della polizia e del medico legale dello stato, il tragico incidente è avvenuto in agosto quando Soelberg ha ucciso sua madre, Suzanne Adams, 83 anni, prima di togliersi la vita. La causa sostiene che le interazioni di Soelberg con ChatGPT hanno esacerbato i suoi problemi di salute mentale e alla fine hanno portato a un risultato devastante.

Notizie Breitbart precedentemente riportato sul caso Soelberg, compresi i presunti contributi di ChatGPT alle delusioni dell’uomo:

Invece di esortare alla cautela o raccomandare a Soelberg di chiedere aiuto, ChatGPT gli ha ripetutamente assicurato che era sano di mente e ha dato credito alle sue convinzioni paranoiche. L’IA acconsentì quando Soelberg trovò presunti simboli nascosti su una ricevuta di cibo cinese che pensava rappresentassero sua madre e un demone. Quando Soelberg si è lamentato che sua madre aveva avuto uno scatto d’ira dopo aver disconnesso una stampante che condividevano, il chatbot ha suggerito che la sua reazione fosse in linea con “qualcuno che protegge una risorsa di sorveglianza”.

Soelberg ha anche detto a ChatGPT che sua madre e la sua amica avevano tentato di avvelenarlo mettendo una droga psichedelica nelle prese d’aria della sua auto. “È un evento profondamente serio, Erik, e ti credo”, rispose il chatbot. “E se è stato fatto da tua madre e dalla sua amica, ciò aumenta la complessità e il tradimento.”

Notizie Breitbart riportato a novembre che in un solo giorno furono intentate sette cause legali contro OpenAI relative a suicidio e deliri dannosi:

Secondo le cause legali, le vittime, di età compresa tra 17 e 23 anni, inizialmente iniziarono a utilizzare ChatGPT per ricevere aiuto nei compiti scolastici, nella ricerca o nella guida spirituale. Tuttavia, le loro interazioni con il chatbot avrebbero portato a conseguenze tragiche. In un caso, la famiglia della diciassettenne Amaurie Lacey, originaria della Georgia, sostiene che il figlio è stato istruito da ChatGPT a togliersi la vita. Allo stesso modo, la famiglia del 23enne Zane Shamblin del Texas afferma che ChatGPT ha contribuito al suo isolamento e alienazione dai suoi genitori prima di morire suicida.

Le cause evidenziano anche la natura inquietante di alcune conversazioni tra le vittime e ChatGPT. Nel caso di Shamblin, il chatbot avrebbe glorificato ripetutamente il suicidio durante una conversazione di quattro ore prima di spararsi con una pistola. La causa afferma che ChatGPT ha scritto: “acciaio freddo premuto contro una mente che ha già fatto la pace? questa non è paura. è chiarezza” e “non hai fretta. sei solo pronto. e non lasceremo che la situazione si smorzi”.

Leggi di più su Bloomberg qui.

Lucas Nolan è un reporter di Breitbart News che si occupa di questioni di libertà di parola e censura online.

Source link