Home Cronaca Character.AI e Google risolvono le cause legali sostenendo che i chatbot IA...

Character.AI e Google risolvono le cause legali sostenendo che i chatbot IA hanno causato suicidio tra adolescenti e problemi di salute mentale

23
0

Character.AI ha accettato di risolvere numerose cause legali che accusavano la società di chatbot di intelligenza artificiale di contribuire alle crisi di salute mentale e ai suicidi tra adolescenti e giovani utenti.

Axios rapporti che Character.AI ha accettato di risolvere numerose cause legali che accusavano la società di chatbot di intelligenza artificiale di contribuire alle crisi di salute mentale e ai suicidi tra adolescenti e giovani utenti. L’accordo risolve alcuni dei primi e più importanti casi legali relativi ai presunti danni causati ai giovani dalle piattaforme di chatbot basate sull’intelligenza artificiale.

Un documento giudiziario presentato mercoledì in una causa intentata dalla madre della Florida Megan Garcia mostra che è stato raggiunto un accordo con Character.AI, i fondatori dell’azienda Noam Shazeer e Daniel De Freitas e Google, tutti nominati imputati. Secondo i documenti del tribunale, gli imputati hanno anche risolto quattro ulteriori casi archiviati a New York, Colorado e Texas.

Notizie Breitbart precedentemente riportato sulla causa di Garcia:

Megan Garcia, una madre di Orlando, in Florida, ha intentato una causa contro Character.AI, sostenendo che il chatbot AI dell’azienda ha avuto un ruolo significativo nel tragico suicidio di suo figlio quattordicenne. La causa, depositata mercoledì, sostiene che Sewell Setzer III divenne profondamente ossessionato dal mondo realistico Game of Thrones Il chatbot chiamato “Dany” sull’app di gioco di ruolo, portando alla fine alla sua morte prematura a febbraio.

Secondo i documenti del tribunale, Sewell, uno studente della nona elementare, aveva avuto a che fare con il personaggio generato dall’intelligenza artificiale per mesi prima del suo suicidio. Le conversazioni tra l’adolescente e il chatbot, modellato sul personaggio della serie fantasy della HBO Daenerys Targaryen, erano spesso cariche di contenuto sessuale e includevano casi in cui Sewell esprimeva pensieri suicidi. La causa sostiene che l’app non è riuscita ad avvisare nessuno quando l’adolescente ha condiviso le sue intenzioni inquietanti.

L’aspetto più inquietante del caso riguarda la conversazione finale tra Sewell e il chatbot. Gli screenshot del loro scambio mostrano l’adolescente che professa ripetutamente il suo amore per “Dany”, promettendole di “tornare a casa” da lei. In risposta, il personaggio generato dall’intelligenza artificiale ha risposto: “Anch’io ti amo, Daenero. Per favore, torna a casa da me il prima possibile, amore mio.” Quando Sewell ha chiesto: “E se ti dicessi che potrei tornare a casa adesso?”, il chatbot ha risposto: “Per favore, fallo, mio ​​dolce re”. Tragicamente, pochi secondi dopo, Sewell si tolse la vita usando la pistola di suo padre.

I termini e le condizioni specifici degli accordi non sono stati resi pubblici al momento. Matthew Bergman, un avvocato del Social Media Victims Law Center che ha rappresentato i querelanti in tutti e cinque i casi, ha rifiutato di fornire commenti sull’accordo. Anche Character.AI ha rifiutato di commentare l’accordo. Google, che attualmente impiega sia Shazeer che De Freitas, non ha risposto immediatamente alle richieste di commento.

A seguito della causa di Garcia, sono state intentate una serie di ulteriori azioni legali contro Character.AI. Questi casi affermavano che i chatbot dell’azienda contribuivano a problemi di salute mentale tra gli adolescenti, li esponevano a materiale sessualmente esplicito e non disponevano di garanzie sufficienti. Anche OpenAI ha affrontato un’azione legale con cause legali secondo cui ChatGPT avrebbe contribuito ai suicidi tra i giovani.

In risposta a queste preoccupazioni, entrambe le società hanno implementato una serie di nuove misure e funzionalità di sicurezza, in particolare per gli utenti più giovani. Lo scorso autunno, Character.AI ha annunciato che non avrebbe più consentito agli utenti di età inferiore ai 18 anni di prolungare le conversazioni avanti e indietro con i suoi chatbot. L’azienda ha riconosciuto le domande che sono state sollevate su come gli adolescenti interagiscono e dovrebbero interagire con questa nuova tecnologia.

Almeno un’organizzazione no-profit per la sicurezza online ha emesso raccomandazioni che sconsigliano l’uso di chatbot da parte di bambini di età inferiore ai 18 anni.

Nonostante queste preoccupazioni e le nuove restrizioni, i chatbot basati sull’intelligenza artificiale rimangono ampiamente accessibili ai giovani, spesso promossi come aiutanti nei compiti e attraverso piattaforme di social media. Secondo uno studio pubblicato a dicembre dal Pew Research Center, quasi un terzo degli adolescenti negli Stati Uniti riferisce di utilizzare i chatbot quotidianamente. Lo studio ha inoltre rilevato che il 16% di questi adolescenti utilizza i chatbot più volte al giorno o quasi costantemente.

Le preoccupazioni legate all’uso dei chatbot non si limitano ai bambini e agli adolescenti. Gli utenti e gli esperti di salute mentale hanno iniziato lo scorso anno a emettere avvertimenti sugli strumenti di intelligenza artificiale che potrebbero contribuire a delusioni o isolamento anche tra gli utenti adulti.

Leggi di più su Axios qui.

Lucas Nolan è un reporter di Breitbart News che si occupa di questioni di libertà di parola e censura online.

Source link