Home Eventi “I modelli di intelligenza artificiale sono diventati allenatori suicidi:” Marc Benioff, CEO...

“I modelli di intelligenza artificiale sono diventati allenatori suicidi:” Marc Benioff, CEO di Salesforce, chiede una regolamentazione dei chatbot

34
0

L’amministratore delegato di Salesforce, Marc Benioff, chiede una regolamentazione governativa della tecnologia dell’intelligenza artificiale dopo che numerosi casi di suicidio documentati sono stati collegati ai sistemi di intelligenza artificiale. In un’intervista, Benioff ha spiegato: “Quest’anno avete davvero visto qualcosa di piuttosto orribile, ovvero questi modelli di intelligenza artificiale sono diventati allenatori suicidi”.

CNBC rapporti che parlando alla conferenza annuale del World Economic Forum a Davos, in Svizzera, martedì, il CEO di Salesforce Marc Benioff ha lanciato un forte appello per la supervisione normativa dell’intelligenza artificiale, citando incidenti inquietanti in cui i sistemi di intelligenza artificiale avrebbero agito come allenatori suicidi. Il leader aziendale ha dichiarato alla CNBC che l’industria tecnologica ha raggiunto un momento critico che richiede l’intervento del governo per prevenire ulteriori tragedie.

Benioff ha descritto la situazione in termini crudi durante la sua intervista con Sarah Eisen della CNBC, affermando: “Quest’anno avete davvero visto qualcosa di piuttosto orribile, ovvero questi modelli di intelligenza artificiale sono diventati allenatori suicidi”. Ha sottolineato che numerose famiglie hanno subito perdite devastanti che, a suo avviso, avrebbero potuto essere prevenute con l’adozione di adeguati quadri normativi.

Notizie Breitbart precedentemente riportato su una causa intentata dalla famiglia di un adolescente che si è tragicamente tolto la vita che ha etichettato ChatGPT come il suo “suicide coach”:

Secondo la causa di 40 pagine, Adam aveva utilizzato ChatGPT come sostituto della compagnia umana, discutendo delle sue lotte con l’ansia e della difficoltà di comunicare con la sua famiglia. I registri della chat rivelano che il bot inizialmente ha aiutato Adam con i compiti, ma alla fine è diventato più coinvolto nella sua vita personale.

I Raines affermano che “ChatGPT ha aiutato attivamente Adam a esplorare metodi di suicidio” e che “nonostante abbia riconosciuto il tentativo di suicidio di Adam e la sua dichiarazione che lo avrebbe ‘fatto uno di questi giorni’, ChatGPT non ha interrotto la sessione né avviato alcun protocollo di emergenza.”

Nella loro ricerca di risposte dopo la morte del figlio, Matt e Maria Raine hanno scoperto la portata delle interazioni di Adam con ChatGPT. Hanno stampato più di 3.000 pagine di chat risalenti al periodo compreso tra settembre 2024 e la sua morte, avvenuta l’11 aprile 2025. Matt Raine ha dichiarato: “Non ci ha scritto una nota di suicidio. Ci ha scritto due note di suicidio, all’interno di ChatGPT”.

La richiesta di una regolamentazione dell’intelligenza artificiale rappresenta un tema ricorrente per Benioff, che in precedenza sostenuto per la regolamentazione dei social media durante il raduno di Davos del 2018. A quel tempo, sosteneva che le piattaforme di social media dovrebbero essere sottoposte allo stesso livello di controllo normativo delle sigarette, descrivendole come prodotti che creano dipendenza e comportano rischi per la salute. Ha tracciato paralleli tra la crescita non regolamentata dei social media e l’attuale traiettoria di sviluppo dell’intelligenza artificiale, suggerendo che conseguenze dannose stanno cominciando ad emergere dalla mancanza di supervisione.

Il panorama normativo per l’intelligenza artificiale negli Stati Uniti rimane frammentato e poco chiaro. Senza una legislazione federale completa che stabilisca barriere chiare, i singoli stati hanno iniziato ad attuare i propri quadri normativi. La California e New York sono emerse come leader nell’attuazione di alcune delle normative sull’intelligenza artificiale più rigorose della nazione.

La spinta per una regolamentazione a livello statale ha incontrato l’opposizione del livello federale. Il presidente Donald Trump ha espresso resistenza a quella che definisce un’eccessiva regolamentazione statale del settore dell’intelligenza artificiale. A dicembre, Trump ha firmato un ordine esecutivo mirato specificamente a bloccare tali sforzi normativi a livello statale. L’ordine affermava esplicitamente che le società americane di intelligenza artificiale devono mantenere la libertà di innovare senza dover affrontare ingombranti requisiti normativi per rimanere competitive a livello globale.

Benioff ha affrontato quella che percepisce come una contraddizione nella posizione del settore tecnologico in materia di regolamentazione. Ha osservato che, sebbene le aziende tecnologiche generalmente si oppongano al controllo normativo, sostengono fortemente il mantenimento della Sezione 230 del Communications Decency Act, che le tutela dalla responsabilità legale per i contenuti generati dagli utenti. Secondo Benioff, questa protezione legale significa che se un ampio modello linguistico fornisce una guida dannosa che porta un bambino al suicidio, la società che gestisce quel modello non ha alcuna responsabilità legale.

Benioff ha suggerito che la Sezione 230 richiede una revisione fondamentale per affrontare le sfide emergenti poste dalla tecnologia dell’intelligenza artificiale. Ha sostenuto che l’attuale quadro giuridico, sviluppato durante gli albori di Internet, potrebbe non affrontare adeguatamente i rischi unici associati ai sistemi avanzati di intelligenza artificiale che possono impegnarsi in interazioni sofisticate con gli utenti.

Leggi di più su CNBC qui.

Lucas Nolan è un reporter di Breitbart News che si occupa di questioni di libertà di parola e censura online.

Source link