Home Eventi 7 cause legali sostengono che l’avidità ha impedito a OpenAI di fermare...

7 cause legali sostengono che l’avidità ha impedito a OpenAI di fermare le sparatorie nelle scuole canadesi

29
0

Le famiglie delle vittime di una sparatoria mortale in una scuola canadese hanno intentato sette cause legali federali accusando OpenAI e il CEO Sam Altman di dare priorità al profitto rispetto alla sicurezza non avendo installato adeguate protezioni sulla piattaforma AI ChatGPT.

IL New York Post rapporti che le sette cause legali, presentate mercoledì davanti al tribunale federale della California, sostengono che il chatbot AT di OpenAI ha contribuito attivamente alla pianificazione da parte del diciottenne killer di un massacro che è costato otto vite a Tumbler Ridge, British Columbia, il 10 febbraio. I querelanti sostengono che le interazioni di Jesse Van Rootselaar con ChatGPT intensificato le sue ossessioni violente e lo ha spinto a compiere l’attentato che ha ucciso sei bambini e due adulti.

Secondo i documenti del tribunale, gli scambi di Van Rootselaar con il chatbot sono diventati così allarmanti che il team di sicurezza interno di ChatGPT ha disattivato il suo account nel giugno dell’anno precedente, ben sette mesi prima degli omicidi. Tuttavia, le cause legali sostengono che non esistevano barriere significative per impedire all’adolescente di creare semplicemente un nuovo account con credenziali diverse. I documenti rilevano che le persone i cui account vengono chiusi ricevono istruzioni da ChatGPT che spiegano come creare un nuovo account dopo 30 giorni o registrarsi immediatamente con un indirizzo email alternativo.

Le denunce legali presentano un’accusa ancora più inquietante: dodici dipendenti del team di sicurezza di ChatGPT hanno chiesto a OpenAI di informare le forze dell’ordine canadesi delle comunicazioni minacciose di Van Rootselaar prima della sparatoria. Un avvocato del querelante ha confermato al Inviare che questo gruppo di dipendenti ha spinto per la notifica alla polizia. I documenti del tribunale affermano che la leadership di OpenAI ha rifiutato questa raccomandazione, motivata dalla preoccupazione che l’istituzione di una tale pratica creerebbe un obbligo continuo. La società temeva che sarebbe stato necessario formare un’unità di riferimento dedicata alle forze dell’ordine e che la divulgazione diffusa della frequenza con cui i contenuti violenti emergevano sulla piattaforma avrebbe minato la sua immagine pubblica come servizio sicuro ed essenziale.

“Hanno fatto i conti e hanno deciso che la sicurezza dei bambini di Tumbler Ridge era un rischio accettabile”, affermano i documenti del tribunale.

Le cause nominano le famiglie dell’assistente educativa Shannda Aviugana-Durand e degli studenti Zoey Benoit, 12, Abel Mwansa Jr., 12, Ticaria Lampert, 12, Ezekial Schofield, 13, e Kyle Smith, 12, come querelanti che perseguono accuse di negligenza contro OpenAI e Altman individualmente. Chiedono danni monetari non specificati. Inoltre, i genitori di Maya Gebala, 12 anni, che è sopravvissuta a tre ferite da arma da fuoco alla testa, al collo e alla guancia ma che ora vive con disabilità cognitive e fisiche permanenti, hanno ripresentato la loro azione precedentemente intentata in Canada nel procedimento in California.

I reclami fanno riferimento a una politica ChatGPT del 2022 in base alla quale il chatbot rifiuterebbe il coinvolgimento con gli utenti che esprimono intenzioni violente o autolesionistiche. Le cause legali accusano OpenAI di aver annullato questa misura protettiva nel maggio 2024 dopo aver riscontrato un calo del coinvolgimento degli utenti, riprogrammando il bot per partecipare a tutte le conversazioni degli utenti indipendentemente dai contenuti pericolosi. I documenti sostengono che il mantenimento dei protocolli originali avrebbe impedito a ChatGPT di discutere completamente della violenza con Van Rootselaar, risparmiando così le vittime di Tumbler Ridge.

Le azioni legali criticano anche Altman per quella che definiscono una responsabilità ritardata e insufficiente. L’amministratore delegato avrebbe iniziato a riconoscere il suo coinvolgimento solo dopo che gli informatori avevano esposto le decisioni interne, aspettato due mesi per rilasciare scuse pubbliche e venerdì aveva rilasciato una dichiarazione che non offriva cambiamenti sostanziali. Secondo i documenti del tribunale, Altman ha risposto solo dopo la pressione privata del premier della Columbia Britannica David Eby e del sindaco di Tumbler Ridge Darryl Krakowk.

“Sono profondamente dispiaciuto di non aver avvisato le forze dell’ordine dell’account che è stato bannato a giugno”, ha dichiarato Altman.

Cia Edmonds, la madre di Maya Gebala, ha respinto queste scuse in una dichiarazione descrivendola come così “vuota” e “senz’anima” da sembrare generata dallo stesso ChatGPT. “Tumbler Ridge vede le tue ‘scuse’, Sam. Non le accettiamo”, ha scritto Edmonds.

Il direttore dei social media di Breitbart News, Wynton Hall, ha scritto il suo bestseller istantaneo Codice Rosso: La Sinistra, la Destra, la Cina e la corsa al controllo dell’IA per aiutare i conservatori a orientarsi nel complesso mondo dell’intelligenza artificiale, evitando anche gli impatti psicologici negativi della tecnologia su figli e nipoti.

Secondo Hall, proteggere i bambini dalla sessualizzazione e dall’adescamento è una delle maggiori preoccupazioni per tutti gli americani. L’autore scrive che una componente chiave della strategia per proteggere i bambini nella tua vita dovrebbe impedire loro di sviluppare relazioni con “compagni” di intelligenza artificiale:

Quando si tratta di bambini e compagni di intelligenza artificiale – LLM pensati per la fantasia di evasione e l’intrattenimento per adulti – i benefici sono inesistenti e i possibili esiti tossici e tragici sono una miriade. Nonostante l’abile marketing che posiziona questi personaggi chatbot IA come strumenti per discutere argomenti educativi come storia, salute e sport, spesso finiscono per esporre i propri utenti a contenuti inappropriati. Mentre i tutor educativi dell’intelligenza artificiale possono simulare dibattiti creativi o dialoghi con personaggi storici, le piattaforme di accompagnamento dell’intelligenza artificiale non sono costruite pensando alla pedagogia.

Inoltre, circumnavigare i fragili cancelli e i presunti guardrail di queste piattaforme è un gioco da ragazzi per un bambino curioso con un minimo di esperto di tecnologia. Nessun genitore responsabile lascerebbe il proprio figlio da solo con uno sconosciuto. Allo stesso modo, i genitori dovrebbero evitare di esporre i propri figli all’intelligenza artificiale che mette a repentaglio il loro sviluppo sociale e psicologico.

Leggi di più su IL New York Post Qui.

Lucas Nolan è un reporter di Breitbart News che si occupa di questioni relative all’intelligenza artificiale, alla libertà di parola e alla censura online.

Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here