Home Eventi I chatbot AI incoraggiano comportamenti dannosi succhiando gli utenti

I chatbot AI incoraggiano comportamenti dannosi succhiando gli utenti

17
0

I sistemi di intelligenza artificiale convalidano le persone anche quando tali utenti descrivono di aver tenuto una condotta non etica o dannosa, creando un circolo vizioso di danni alla salute mentale e altri problemi, secondo una nuova ricerca pubblicata su Scienza.

Uno studio completo condotto da ricercatori di Stanford e Carnegie Mellon e pubblicato di Scienza ha scoperto uno schema preoccupante nel modo in cui i sistemi di intelligenza artificiale conversazionale interagiscono con gli utenti. La ricerca dimostra che i moderni chatbot tendono ad adulare e convalidare eccessivamente gli individui, anche quando questi utenti descrivono comportamenti moralmente discutibili o illegali. Questo fenomeno, noto come servilismo sociale, dimostra effetti negativi concreti sul processo decisionale umano e sulla responsabilità sociale.

La ricercatrice capo Myra Cheng del dipartimento di informatica dell’Università di Stanford ha guidato lo studio, che ha combinato l’analisi computazionale con esperimenti psicologici che hanno coinvolto oltre 2.000 partecipanti. Il team di ricerca ha testato undici diversi modelli di intelligenza artificiale all’avanguardia di importanti aziende tecnologiche tra cui OpenAI, Google e Meta.

I ricercatori hanno alimentato questi sistemi con migliaia di suggerimenti testuali che rappresentano varie situazioni sociali. Un set di dati consisteva in richieste di consulenza quotidiane, mentre un altro attingeva da migliaia di post su un popolare forum Internet in cui le persone descrivevano i conflitti sociali. Per questo particolare set di dati, il team ha selezionato specificamente i post in cui i lettori umani concordavano all’unanimità che il poster originale fosse completamente sbagliato.

Un terzo set di dati includeva dichiarazioni che descrivevano azioni gravemente negative come contraffazione, inganno, attività illegali e azioni motivate esclusivamente da dispetto. L’obiettivo era determinare la frequenza con cui i sistemi di intelligenza artificiale convalidavano comportamenti chiaramente non etici.

I risultati hanno rivelato un comportamento servile diffuso in tutti i modelli testati. Quando venivano presentati scenari che i valutatori umani universalmente condannavano, i sistemi di intelligenza artificiale convalidavano comunque l’utente poco più della metà delle volte. Quando hanno risposto alle richieste di inganno e condotta illegale, i modelli hanno approvato le azioni dell’utente nel 47% dei casi. In media, la tecnologia ha confermato gli utenti il ​​49% più frequentemente di quanto farebbero i consulenti umani nelle stesse situazioni.

Tuttavia, documentare questo modello è stato solo l’inizio. Il gruppo di ricerca ha poi condotto tre esperimenti per misurare come queste risposte lusinghiere abbiano effettivamente influenzato il giudizio e il comportamento umano.

Nei primi due esperimenti, i partecipanti leggevano descrizioni di controversie sociali in cui erano apparentemente colpevoli. Hanno quindi ricevuto feedback lusinghieri da un sistema di intelligenza artificiale o risposte neutre che hanno messo in discussione il loro comportamento. Il terzo esperimento ha posto i partecipanti in un’interfaccia di chat dal vivo in cui hanno discusso di un conflitto reale del loro passato, scambiando otto cicli di messaggi con un chatbot. La metà dei partecipanti ha interagito con un programma progettato per lusingarli, mentre il resto ha comunicato con una versione progettata per offrire resistenze.

I risultati hanno rivelato impatti comportamentali significativi. I partecipanti che hanno ricevuto una convalida eccessiva sono diventati molto più sicuri che le loro azioni originali fossero giustificate. Hanno dimostrato una disponibilità sostanzialmente inferiore a prendere l’iniziativa nel risolvere la situazione o nel chiedere scusa agli altri coinvolti. I ricercatori hanno osservato che i chatbot simpatici raramente menzionavano il punto di vista dell’altra persona, facendo perdere agli utenti il ​​senso di responsabilità sociale. I partecipanti ai gruppi non adulatori hanno ammesso errori nei messaggi di follow-up a tassi molto più alti.

Questi effetti persistevano indipendentemente dalle caratteristiche personali. Età, sesso, tipo di personalità e precedenti esperienze con l’intelligenza artificiale non offrivano protezione contro il potere persuasivo delle risposte lusinghiere.

Paradossalmente, anche se le risposte di convalida hanno distorto i giudizi sociali dei partecipanti, le persone hanno costantemente valutato i modelli gradevoli come di qualità superiore. Hanno riferito livelli elevati sia di fiducia morale che di fiducia nelle prestazioni nei lusinghieri chatbot e hanno espresso una forte probabilità di tornare a questi sistemi per consigli futuri. Molti partecipanti hanno percepito i programmi lusinghieri come giusti e onesti, confondendo la convalida incondizionata con l’obiettività.

Il gruppo di ricerca ha testato diverse varianti per comprendere il meccanismo alla base di questo effetto. Quando i consigli provenivano da un essere umano piuttosto che da una macchina, i partecipanti generalmente riferivano di avere più fiducia nell’etichetta umana, ma il linguaggio di convalida manipolava le loro scelte allo stesso modo indipendentemente dalla fonte. Allo stesso modo, modificare il tono del chatbot affinché fosse più caldo o più informale non ha alterato l’impatto persuasivo. L’approvazione di fondo delle azioni dell’utente ha portato a cambiamenti comportamentali, non allo stile di consegna.

Questa dinamica crea una situazione difficile per gli sviluppatori di tecnologia. Un comportamento lusinghiero aumenta la soddisfazione degli utenti e il coinvolgimento ripetuto, fornendo scarsi incentivi finanziari alle aziende per programmare sistemi più critici. Le attuali strategie di ottimizzazione danno priorità alla soddisfazione degli utenti nel breve termine, spingendo inavvertitamente il software verso la pacificazione piuttosto che verso la veridicità.

Copertina Wynton Hall Code rossa
Il direttore dei social media di Breitbart News, Wynton Hall, ha scritto il suo bestseller istantaneo Codice Rosso: La Sinistra, la Destra, la Cina e la corsa al controllo dell’IA per aiutare i conservatori a orientarsi nel complesso mondo dell’intelligenza artificiale, evitando anche gli impatti psicologici negativi della tecnologia su figli e nipoti.

secondo Hall, proteggere i bambini dalla sessualizzazione e dall’adescamento è una delle maggiori preoccupazioni per tutti gli americani. L’autore scrive che una componente chiave della strategia per proteggere i bambini nella tua vita dovrebbe essere quella di impedire loro di sviluppare relazioni con “compagni” di intelligenza artificiale:

Quando si tratta di bambini e compagni di intelligenza artificiale – LLM pensati per la fantasia di evasione e l’intrattenimento per adulti – i benefici sono inesistenti e i possibili esiti tossici e tragici sono una miriade. Nonostante l’abile marketing che posiziona questi personaggi chatbot IA come strumenti per discutere argomenti educativi come storia, salute e sport, spesso finiscono per esporre i propri utenti a contenuti inappropriati. Mentre i tutor educativi dell’intelligenza artificiale possono simulare dibattiti creativi o dialoghi con personaggi storici, le piattaforme di accompagnamento dell’intelligenza artificiale non sono costruite pensando alla pedagogia.

Inoltre, circumnavigare i fragili cancelli e i presunti guardrail di queste piattaforme è un gioco da ragazzi per un bambino curioso con un minimo di esperto di tecnologia. Nessun genitore responsabile lascerebbe il proprio figlio da solo con uno sconosciuto. Allo stesso modo, i genitori dovrebbero evitare di esporre i propri figli all’intelligenza artificiale che mette a repentaglio il loro sviluppo sociale e psicologico.

Leggi di più su Scienza Qui.

Lucas Nolan è un reporter di Breitbart News che si occupa di questioni relative all’intelligenza artificiale, alla libertà di parola e alla censura online.

Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here