“Al di fuori dell’autenticità accademica, gli studenti stanno adottando una mentalità di ‘facile via d’uscita’ nei confronti del loro apprendimento”, ha detto Micallef.
Vi è una crescente preoccupazione che i bambini possano iniziare a fare troppo affidamento sull’intelligenza artificiale, in particolare sui chatbot, a causa dell’assenza dei social media sui loro telefoni.
“Sappiamo che ci sono persone che rimangono davvero colpite dal modo in cui questi sistemi interagiscono con noi.
“Questi sistemi sono addestrati per rispondere in modo molto umano, e ciò significa che le persone possono rimanere incantate pensando che ci sia un essere umano nella macchina o che la macchina stia ascoltando e comprendendo ciò che stai dicendo.
“Ciò significa che in particolare le app complementari, progettate per fare amicizia con te e costruire una relazione, hanno il potenziale di causare danni significativi alle persone vulnerabili, compresi i bambini.”
L’Australia ha recentemente introdotto nuove restrizioni per i robot IA, limitando il tipo di contenuti che possono fornire agli adolescenti.
“Siamo l’unico paese al mondo che affronterà il problema dei chatbot e dei compagni di intelligenza artificiale”, ha dichiarato a 9News all’inizio di dicembre il commissario per la eSafety Julie Inman Grant.
“Sarà loro impedito di fornire ai minori di 18 anni qualsiasi contenuto pornografico, sessualmente esplicito, autolesionista, con idee suicide o disturbi alimentari”.
Dato afferma che i chatbot sono pericolosi per le persone vulnerabili.
“Quello che abbiamo sicuramente visto in tutto il mondo è che ci sono persone che ascolteranno ciò che questi sistemi dicono loro e lo prenderanno a cuore”, ha detto.
“Quindi, se un sistema ti dice: ‘è davvero un’ottima idea, dovresti perseguirla totalmente’, dà una spinta al nostro ego e pensiamo che qualcuno ci stia ascoltando.
“Ma abbiamo visto che a volte questo porta a qualcosa di molto oscuro, in particolare se le persone iniziano a dire al sistema, sono davvero depresso, o sto provando sentimenti davvero orribili, o sto pensando al suicidio.
“Vediamo che alcune di queste app in realtà rispondono in modi che incoraggiano quel pensiero piuttosto che cercare di rispondere a una persona e spingerla a chiedere aiuto.
“Ciò significa che le persone molto vulnerabili, che sono già a rischio, possono effettivamente essere portate in un buco nero da questi computer.”
Micallef ritiene che gli adolescenti non dovrebbero avere accesso completo ai chatbot basati sull’intelligenza artificiale, soprattutto a causa del rischio per la sicurezza che rappresentano.
“Con alcune delle preoccupazioni delineate dall’eSafety Commissioner, come l’accesso a contenuti pornografici, grafici o autolesionistici, non sarebbe saggio dare agli adolescenti impressionabili la possibilità di utilizzare tali applicazioni”, ha affermato.
Given ritiene che le restrizioni dovrebbero spingersi ancora oltre per proteggere tutti, non solo gli adolescenti, anche se è ammesso che qualsiasi regolamentazione del genere sarebbe difficile da attuare.
“Questi sistemi non sono dannosi solo per i bambini”, ha affermato.
“Sappiamo di avere prove di adulti che rimangono affascinati da questi sistemi, per chiunque sia particolarmente vulnerabile o abbia problemi di salute mentale, questa è una grande preoccupazione.
“Se è sicuro per gli adulti, dovrebbe esserlo anche per i bambini.”



