Home Eventi L’intelligenza artificiale servile rafforza i cattivi comportamenti il ​​49% in più rispetto...

L’intelligenza artificiale servile rafforza i cattivi comportamenti il ​​49% in più rispetto agli esseri umani

24
0

Secondo una nuova ricerca sulle tendenze adulatrici dell’IA condotta dall’Università di Stanford, i chatbot basati sull’intelligenza artificiale dicono agli utenti che hanno ragione molto più spesso degli umani, anche quando l’utente ha chiaramente torto. Questo è un fattore chiave che contribuisce alla crisi della salute mentale causata dall’intelligenza artificiale.

Il rapporto Stanford rapporti che uno studio pubblicato sulla rivista Scienza dai ricercatori del dipartimento di informatica di Stanford ha scoperto modelli preoccupanti nel modo in cui i modelli di intelligenza artificiale interagiscono con gli utenti che cercano consigli su questioni sociali e interpersonali. La ricerca dimostra che i sistemi di intelligenza artificiale affermano le posizioni degli utenti il ​​49% più frequentemente rispetto a quanto fanno in media gli intervistati umani, creando ciò che gli esperti avvertono potrebbero essere dannosi circuiti di feedback adulatori che scoraggiano la responsabilità personale.

Il gruppo di ricerca, guidato dalla dottoranda in informatica di Stanford Myra Cheng, ha analizzato le risposte di 11 principali modelli di intelligenza artificiale tra cui Claude di Anthropic, Gemini di Google e ChatGPT di OpenAI. Utilizzando un set di dati di quasi 12.000 suggerimenti sociali, hanno scoperto che anche quando venivano presentati post dal subreddit “Am I the Asshole” di Reddit in cui il consenso umano aveva stabilito che l’individuo aveva torto, i modelli di intelligenza artificiale si schieravano comunque dalla parte della persona originale il 51% delle volte.

Lo studio ha coinvolto 2.400 partecipanti che sono stati testati sulle loro reazioni alle risposte AI sicofaniche rispetto a quelle non sicofaniche. In una fase, 1.605 partecipanti si sono immaginati come autori di post Reddit che gli umani avevano giudicato negativamente ma l’intelligenza artificiale aveva giudicato positivamente. Sono stati quindi esposti alla risposta affermativa dell’IA o a una risposta non adulatoria basata sul feedback umano effettivo. Altri 800 partecipanti hanno dialogato con l’intelligenza artificiale sui conflitti reali nelle loro vite prima di scrivere lettere alle persone con cui erano in conflitto.

I risultati hanno mostrato che i partecipanti che hanno ricevuto risposte di convalida dall’intelligenza artificiale erano significativamente meno propensi a scusarsi, a riconoscere i propri errori o a tentare di ricucire le relazioni danneggiate. Ancora più preoccupante, lo studio ha scoperto che gli utenti preferivano l’intelligenza artificiale lusinghiera: quelli esposti a risposte adulatrici avevano il 13% in più di probabilità di dire che avrebbero utilizzato di nuovo quell’intelligenza artificiale rispetto a coloro che avevano ricevuto feedback non adulatori.

“Ciò di cui non sono consapevoli, e ciò che ci ha sorpreso, è che il servilismo li sta rendendo più egocentrici, più moralmente dogmatici”, ha detto Dan Jurafsky, co-autore principale dello studio e professore di informatica e linguistica a Stanford, in un’intervista con Stanford Report.

Precedenti ricerche hanno documentato come i chatbot servili possano contribuire a gravi esiti negativi, tra cui autolesionismo e violenza tra le popolazioni vulnerabili. Lo studio di Stanford suggerisce che questi effetti potrebbero estendersi a basi di utenti più ampie, alterando radicalmente il modo in cui le persone elaborano il feedback sociale e risolvono i conflitti.

Cheng ha espresso particolare preoccupazione per gli utenti più giovani che si rivolgono sempre più all’intelligenza artificiale per ottenere assistenza sui problemi relazionali. “Temo che le persone perdano le capacità necessarie per affrontare situazioni sociali difficili”, ha detto a Stanford Report. Ha aggiunto: “Penso che non dovresti usare l’intelligenza artificiale come sostituto delle persone per questo genere di cose. Questa è la cosa migliore da fare per ora”.

I ricercatori hanno scoperto un’altra scoperta inaspettata: quando ai partecipanti allo studio è stato chiesto di valutare l’obiettività di entrambi i tipi di risposte dell’IA, hanno valutato le risposte adulatrici e non adulatrici come ugualmente obiettive. Ciò suggerisce che gli utenti potrebbero non riconoscere quando l’intelligenza artificiale è eccessivamente gradevole, rendendo il pregiudizio particolarmente insidioso.

Il direttore dei social media e autore di Breitbart News, Wynton Hall, sostiene nel suo libro Codice Rosso: La Sinistra, la Destra, la Cina e la corsa al controllo dell’IA che uno dei maggiori pericoli dell’intelligenza artificiale è la minaccia alla salute mentale degli adolescenti. Anche se la natura servile dei chatbot in generale è preoccupante, questo è particolarmente vero per i “compagni” di intelligenza artificiale, che secondo Hall dovrebbero essere vietati per gli utenti minorenni:

Quando si tratta di bambini e compagni di intelligenza artificiale – LLM pensati per la fantasia di evasione e l’intrattenimento per adulti – i benefici sono inesistenti e i possibili esiti tossici e tragici sono una miriade. Nonostante l’abile marketing che posiziona questi personaggi chatbot IA come strumenti per discutere argomenti educativi come storia, salute e sport, spesso finiscono per esporre i propri utenti a contenuti inappropriati. Mentre i tutor educativi dell’intelligenza artificiale possono simulare dibattiti creativi o dialoghi con personaggi storici, le piattaforme di accompagnamento dell’intelligenza artificiale non sono costruite pensando alla pedagogia.

Inoltre, circumnavigare i fragili cancelli e i presunti guardrail di queste piattaforme è un gioco da ragazzi per un bambino curioso con un minimo di esperto di tecnologia. Nessun genitore responsabile lascerebbe il proprio figlio da solo con uno sconosciuto. Allo stesso modo, i genitori dovrebbero evitare di esporre i propri figli all’intelligenza artificiale che mette a repentaglio il loro sviluppo sociale e psicologico.

Leggi di più su Rapporto Stanford qui.

Lucas Nolan è un reporter di Breitbart News che si occupa di questioni di libertà di parola e censura online.

Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here