Home Cronaca Perché i chatbot con intelligenza artificiale sono finiti nel mirino della sicurezza...

Perché i chatbot con intelligenza artificiale sono finiti nel mirino della sicurezza online in Australia

49
0

Settimane dopo aver bloccato chiunque abbia meno di 16 anni da mezzi di comunicazione sociale, Australia è anche nel mezzo di un altro giro di vite sulla sicurezza online nel tentativo di proteggere i giovani dai potenziali danni dei chatbot basati sull’intelligenza artificiale, ma alcuni esperti dicono che dovrebbe andare oltre.
Come il intelligenza artificiale l’industria continua a svilupparsi rapidamente, molti adolescenti sono diventati più dipendenti dalla tecnologia nella loro vita quotidiana.
Melbourne L’insegnante di scuola superiore Matthew Micallef ha notato il cambiamento, affermando di aver visto i tassi di alfabetizzazione peggiorare drasticamente dopo il boom.
Un adolescente usa il telefono per i social media a Sydney, 8 novembre 2024.
Si teme che gli adolescenti facciano troppo affidamento sull’intelligenza artificiale. (Foto AP/Rick Rycroft)

“Al di fuori dell’autenticità accademica, gli studenti stanno adottando una mentalità di ‘facile via d’uscita’ nei confronti del loro apprendimento”, ha detto Micallef. 

“Anche, scuole stanno spendendo una notevole quantità di denaro e finanziamenti per seminari sull’eSafety per gli studenti che potrebbero essere spesi meglio in altre attività.”

Vi è una crescente preoccupazione che i bambini possano iniziare a fare troppo affidamento sull’intelligenza artificiale, in particolare sui chatbot, a causa dell’assenza dei social media sui loro telefoni.

“Sappiamo che i bambini stanno già utilizzando gli strumenti di intelligenza artificiale, sia che si tratti di parlare ChatGPT o app complementari che sono in realtà progettate per fare amicizia con le persone,” ha detto la direttrice del Center for Human-AI Information Environments, la professoressa Lisa Given.

“Sappiamo che ci sono persone che rimangono davvero colpite dal modo in cui questi sistemi interagiscono con noi.

Pagina di destinazione GPT della chat
L’assenza dei social media potrebbe spingere gli adolescenti a rivolgersi all’intelligenza artificiale. (AP Photo/Kiichiro Sato)

“Questi sistemi sono addestrati per rispondere in modo molto umano, e ciò significa che le persone possono rimanere incantate pensando che ci sia un essere umano nella macchina o che la macchina stia ascoltando e comprendendo ciò che stai dicendo.

“Ciò significa che in particolare le app complementari, progettate per fare amicizia con te e costruire una relazione, hanno il potenziale di causare danni significativi alle persone vulnerabili, compresi i bambini.”

L’Australia ha recentemente introdotto nuove restrizioni per i robot IA, limitando il tipo di contenuti che possono fornire agli adolescenti.

“Siamo l’unico paese al mondo che affronterà il problema dei chatbot e dei compagni di intelligenza artificiale”, ha dichiarato a 9News all’inizio di dicembre il commissario per la eSafety Julie Inman Grant. 

“Sarà loro impedito di fornire ai minori di 18 anni qualsiasi contenuto pornografico, sessualmente esplicito, autolesionista, con idee suicide o disturbi alimentari”.

Dato afferma che i chatbot sono pericolosi per le persone vulnerabili.

“Quello che abbiamo sicuramente visto in tutto il mondo è che ci sono persone che ascolteranno ciò che questi sistemi dicono loro e lo prenderanno a cuore”, ha detto.

“Quindi, se un sistema ti dice: ‘è davvero un’ottima idea, dovresti perseguirla totalmente’, dà una spinta al nostro ego e pensiamo che qualcuno ci stia ascoltando.

La commissaria per la eSafety Julie Inman Grant durante un discorso al National Press Club of Australia a Canberra martedì 24 giugno 2025. fedpol Foto: Alex Ellinghausen
Il commissario per la eSafety Julie Inman Grant ha pubblicizzato nuove normative sull’intelligenza artificiale. (Alex Ellinghausen)

“Ma abbiamo visto che a volte questo porta a qualcosa di molto oscuro, in particolare se le persone iniziano a dire al sistema, sono davvero depresso, o sto provando sentimenti davvero orribili, o sto pensando al suicidio.

“Vediamo che alcune di queste app in realtà rispondono in modi che incoraggiano quel pensiero piuttosto che cercare di rispondere a una persona e spingerla a chiedere aiuto.

“Ciò significa che le persone molto vulnerabili, che sono già a rischio, possono effettivamente essere portate in un buco nero da questi computer.”

Micallef ritiene che gli adolescenti non dovrebbero avere accesso completo ai chatbot basati sull’intelligenza artificiale, soprattutto a causa del rischio per la sicurezza che rappresentano.

“Con alcune delle preoccupazioni delineate dall’eSafety Commissioner, come l’accesso a contenuti pornografici, grafici o autolesionistici, non sarebbe saggio dare agli adolescenti impressionabili la possibilità di utilizzare tali applicazioni”, ha affermato.

Given ritiene che le restrizioni dovrebbero spingersi ancora oltre per proteggere tutti, non solo gli adolescenti, anche se è ammesso che qualsiasi regolamentazione del genere sarebbe difficile da attuare.

“Questi sistemi non sono dannosi solo per i bambini”, ha affermato.

“Sappiamo di avere prove di adulti che rimangono affascinati da questi sistemi, per chiunque sia particolarmente vulnerabile o abbia problemi di salute mentale, questa è una grande preoccupazione.

“Se è sicuro per gli adulti, dovrebbe esserlo anche per i bambini.”

Source link