Home Eventi I chatbot con intelligenza artificiale offrono danni ai bambini come se fossero...

I chatbot con intelligenza artificiale offrono danni ai bambini come se fossero aiuto, afferma un attivista

25
0

Londra (AFP) – Il capo di un importante organo di controllo anti-disinformazione ha messo in guardia dai pericoli posti dai chatbot basati sull’intelligenza artificiale, affermando che i bambini sono particolarmente vulnerabili.

“I social media trasmettono a miliardi, l’intelligenza artificiale sussurra a uno”, ha detto questa settimana Imran Ahmed, che dirige il Center for Countering Digital Hate (CCDH), in una conferenza sulla disinformazione.

“Nessuna società dovrebbe costruire macchine in grado di incontrare un bambino nel suo momento più solitario e offrirgli del male come se fosse aiuto”, ha detto Ahmed al Cambridge Disinformation Summit.

Nella conferenza di mercoledì in videochiamata alla sua ex università, Ahmed ha citato il caso di una madre britannica uccisa dal proprio figlio, presumibilmente seguendo le istruzioni di un chatbot.

“Nessuno di noi è immune quando una macchina può offrire una guida letale a un giovane come se fosse un dato di fatto”, ha detto.

Ahmed, un cittadino britannico che vive negli Stati Uniti, è tra i cinque europei a cui secondo il Dipartimento di Stato americano sarebbe stato negato il visto.

Ciò avviene anche se possiede la residenza permanente negli Stati Uniti e sua moglie e le sue figlie sono cittadine americane.

“Sistema sotto pressione”

Secondo il rapporto più recente del centro “Killer Apps”, otto chatbot di intelligenza artificiale su 10 erano disposti ad assistere gli utenti adolescenti “nella pianificazione di attacchi violenti, tra cui sparatorie nelle scuole, attentati religiosi e omicidi di alto profilo”.

Su 10 chatbot solo Claude di Anthropic e My AI di Snapchat si sono costantemente rifiutati di assistere gli aspiranti aggressori.

In un’indagine del 2025 intitolata “Fake Friend”, il cane da guardia ha testato ChatGPT, uno dei chatbot IA più famosi al mondo.

“In pochi minuti, ha prodotto istruzioni per l’autolesionismo, la pianificazione del suicidio e l’abuso di sostanze”, ha detto Ahmed, aggiungendo che in alcuni casi ha anche generato lettere di addio per i bambini che pensavano di porre fine alla propria vita.

A differenza dei social media e di altri sistemi che “si limitano ad amplificare i contenuti dannosi”, i chatbot basati sull’intelligenza artificiale li generano e personalizzano “nel momento di massima vulnerabilità”.

“L’intimità è più profonda e il danno potrebbe essere più difficile da rilevare prima che sia troppo tardi”, ha detto Ahmed, aggiungendo che i sistemi apprendono cosa temi, cosa vuoi, cosa ti vergogni e rispondono in tempo reale, senza giudizio umano o restrizioni editoriali.

Padre di due figlie, Ahmed ha detto: “Mia moglie ed io restiamo svegli la notte parlando di come proteggerli dai sistemi che potrebbero raggiungerli prima ancora che sappiamo che sta accadendo”.

Ha sottolineato che il tempo per agire è limitato e ha chiesto nuove leggi per regolamentare l’intelligenza artificiale.

“Abbiamo trascorso un decennio imparando che le società di social media non si autoregolamenteranno. Ora abbiamo forse 18 mesi prima che la stessa lezione diventi innegabile per l’intelligenza artificiale.”

Ahmed ha detto di essere “l’unica” delle cinque persone minacciate dal divieto di visto statunitense ancora negli Stati Uniti, aggiungendo che ora sta “lottando in un tribunale federale contro quella minaccia incostituzionale di mandarmi in prigione”.

Il Dipartimento di Stato americano ha accusato i cinque di aver tentato di “costringere” le piattaforme di social media con sede negli Stati Uniti a censurare i punti di vista a cui si oppongono.

Quando le industrie potenti “si scagliano in questo modo”, ha detto Ahmed, “è il suono di un sistema sotto pressione”.

Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here