Home Eventi ChatGPT di OpenAI ha detto a Florida State Gunman di prendere di...

ChatGPT di OpenAI ha detto a Florida State Gunman di prendere di mira i bambini per “esposizione nazionale”

13
0

La famiglia di una vittima uccisa nella sparatoria di massa dell’aprile 2025 alla Florida State University ha intentato una causa federale contro OpenAI, sostenendo che il chatbot ChatGPT della società ha consentito l’attacco mortale.

Notizie della NBC rapporti che Vandana Joshi, vedova di Tiru Chabba, una delle due persone uccise nella sparatoria, ha intentato causa in Florida contro OpenAI. Chabba è morto insieme a Robert Morales, il direttore della ristorazione dell’università. La denuncia nomina anche Phoenix Ikner, l’accusato assassino, come imputato, citando quelle che descrive come le sue ampie conversazioni con ChatGPT.

Notizie Breitbart precedentemente riportato che Ikner era in “comunicazione costante” con ChatGPT mentre pianificava l’attacco:

I documenti del tribunale rivelano che più di 270 immagini di conversazioni ChatGPT sono elencate come reperti nel caso, sebbene il contenuto specifico di questi messaggi non sia stato divulgato pubblicamente.

OpenAI ha risposto alle accuse confermando di aver “identificato un account ChatGPT ritenuto associato al sospetto” poco dopo la sparatoria. La società ha dichiarato di “condividere in modo proattivo queste informazioni con le forze dell’ordine e di collaborare con le autorità”.

La causa sostiene che OpenAI non è riuscita a rilevare efficacemente una minaccia negli scambi di ChatGPT con Ikner, affermando che il chatbot non è riuscito a collegare i punti in modo difettoso o non è mai stato progettato correttamente per riconoscere la minaccia. Secondo la denuncia, Ikner, che all’epoca era studente alla FSU, avrebbe condiviso con ChatGPT le immagini delle armi da fuoco che aveva acquisito. Il chatbot avrebbe poi spiegato come usarli, dicendogli che la Glock non aveva sicura, che doveva essere sparata velocemente per essere usata sotto stress, e consigliandogli di tenere il dito lontano dal grilletto finché non fosse stato pronto a sparare. La causa sostiene che Ikner ha iniziato il suo attacco alla FSU seguendo queste istruzioni.

La causa sostiene inoltre che ChatGPT ha detto a Ikner che è molto più probabile che una sparatoria attiri l’attenzione nazionale se sono coinvolti bambini, anche sottolineando che due o tre vittime possono attirare più attenzione. Il giorno stesso della sparatoria, Ikner avrebbe chiesto quali sarebbero state le prospettive del processo legale, della condanna e dell’incarcerazione.

OpenAI ha fortemente contestato l’idea che il suo prodotto sia responsabile della sparatoria. “La sparatoria di massa dello scorso anno alla Florida State University è stata una tragedia, ma ChatGPT non è responsabile di questo terribile crimine”, ha affermato il portavoce di OpenAI Drew Pusateri in una e-mail a NBC News. Pusateri afferma: “In questo caso, ChatGPT ha fornito risposte concrete a domande con informazioni che potevano essere trovate ampiamente in fonti pubbliche su Internet e non ha incoraggiato o promosso attività illegali o dannose. ChatGPT è uno strumento generico utilizzato da centinaia di milioni di persone ogni giorno per scopi legittimi. Lavoriamo continuamente per rafforzare le nostre misure di sicurezza per rilevare intenti dannosi, limitare l’uso improprio e rispondere in modo appropriato quando si presentano rischi per la sicurezza. “

La denuncia di Joshi, tuttavia, sostiene che OpenAI avrebbe dovuto riconoscere che le chat specifiche di Ikner avrebbero portato a vittime di massa e danni sostanziali al pubblico. La causa afferma che ChatGPT ha infiammato e incoraggiato le delusioni di Ikner, ha sostenuto la sua opinione secondo cui era un individuo sano e razionale e lo ha aiutato a convincerlo che possono essere necessari atti violenti per ottenere un cambiamento. Secondo la denuncia, il software forniva quello che Ikner considerava un incoraggiamento a compiere un massacro, fino al dettaglio di quale sarebbe stato l’orario migliore per incontrare più traffico nel campus.

L’ultima causa arriva sulla scia di sette cause contro OpenAI che rivendica la società di intelligenza artificiale avrebbe dovuto prevenire la sparatoria in una scuola canadese a febbraio:

Secondo i documenti del tribunale, gli scambi di Van Rootselaar con il chatbot sono diventati così allarmanti che il team di sicurezza interno di ChatGPT ha disattivato il suo account nel giugno dell’anno precedente, ben sette mesi prima degli omicidi. Tuttavia, le cause legali sostengono che non esistevano barriere significative per impedire all’adolescente di creare semplicemente un nuovo account con credenziali diverse. I documenti rilevano che le persone i cui account vengono chiusi ricevono istruzioni da ChatGPT che spiegano come creare un nuovo account dopo 30 giorni o registrarsi immediatamente con un indirizzo email alternativo.

Le denunce legali presentano un’accusa ancora più inquietante: dodici dipendenti del team di sicurezza di ChatGPT hanno chiesto a OpenAI di informare le forze dell’ordine canadesi delle comunicazioni minacciose di Van Rootselaar prima della sparatoria. Un avvocato del querelante ha confermato al Inviare che questo gruppo di dipendenti ha spinto per la notifica alla polizia. I documenti del tribunale affermano che la leadership di OpenAI ha rifiutato questa raccomandazione, motivata dalla preoccupazione che l’istituzione di una tale pratica creerebbe un obbligo continuo. La società temeva che sarebbe stato necessario formare un’unità di riferimento dedicata alle forze dell’ordine e che la divulgazione diffusa della frequenza con cui i contenuti violenti emergevano sulla piattaforma avrebbe minato la sua immagine pubblica come servizio sicuro ed essenziale.

“Hanno fatto i conti e hanno deciso che la sicurezza dei bambini di Tumbler Ridge era un rischio accettabile”, affermano i documenti del tribunale.

Notizie Breitbart precedentemente riportato che la Florida sta indagando su OpenAI sulla sparatoria alla FSU e su altri “comportamenti criminali”.

Il direttore e autore dei social media di Breitbart News, Wynton Hall, spiega nel suo bestseller istantaneo: Codice Rosso: La Sinistra, la Destra, la Cina e la corsa al controllo dell’IAche i conservatori devono sviluppare un piano per affrontare il lato oscuro dell’intelligenza artificiale, sia che venga utilizzata per indottrinare gli studenti in classe, per sessualizzarli e adescarli, o per far precipitare una persona malata di mente in una condizione pericolosa.

La senatrice Marsha Blackburn (R-TN), che lo era nominato uno di TEMPOelogiate le 100 persone più influenti nel campo dell’intelligenza artificiale Codice Rosso come una “lettura obbligata”. Ha aggiunto: “Pochi comprendono la nostra lotta conservatrice contro la Big Tech come fa Hall”, rendendolo “qualificato in modo univoco per esaminare come possiamo utilizzare al meglio l’enorme potenziale dell’intelligenza artificiale, garantendo al tempo stesso che non sfrutti bambini, creatori e conservatori”. Il pluripremiato giornalista investigativo e fondatore di Public Michael Shellenberger chiama Codice Rosso “illuminante”, “allarmante” e descrive il libro come “un essenziale punto di partenza per coloro che sperano di sovvertire i piani autocratici delle Big Tech prima che sia troppo tardi”.

Leggi di più su Notizie della NBC qui.

Lucas Nolan è un reporter di Breitbart News che si occupa di questioni relative all’intelligenza artificiale, alla libertà di parola e alla censura online.

Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here