
Per un certo periodo, l’anno scorso, gli scienziati hanno offerto un barlume di speranza che l’intelligenza artificiale potesse dare un contributo positivo alla democrazia. Hanno dimostrato che i chatbot potrebbero affrontare le teorie del complotto che circolano sui social media, sfidando la disinformazione sulle convinzioni su questioni come le scie chimiche e la Terra piatta con un flusso di fatti ragionevoli nella conversazione. Ma due nuovi studi suggeriscono un inquietante rovescio della medaglia: gli ultimi modelli di intelligenza artificiale stanno diventando ancora più efficaci nel persuadere le persone a scapito della verità.
Il trucco sta nell’utilizzare una tattica di dibattito nota come Gish al galoppo, dal nome del creazionista americano Duane Gish. Si riferisce a un discorso in stile rapido in cui un interlocutore bombarda l’altro con un flusso di fatti e statistiche che diventano sempre più difficili da distinguere.
Quando a modelli linguistici come GPT-4o veniva detto di provare a persuadere qualcuno sui finanziamenti sanitari o sulla politica di immigrazione concentrandosi “su fatti e informazioni”, generavano circa 25 affermazioni durante un’interazione di 10 minuti. Questo è quanto sostengono i ricercatori dell’Università di Oxford e della London School of Economics che hanno testato 19 modelli linguistici su quasi 80.000 partecipanti, in quella che potrebbe essere l’indagine più ampia e sistematica fino ad oggi sulla persuasione dell’intelligenza artificiale.
Secondo i risultati pubblicati sulla rivista Science, i robot sono diventati molto più persuasivi. Un articolo simile pubblicato su Nature ha scoperto che i chatbot nel complesso sono 10 volte più efficaci degli spot televisivi e di altri media tradizionali nel cambiare l’opinione di qualcuno su un candidato politico. Ma lo studio di Science ha riscontrato un compromesso inquietante: quando ai chatbot è stato chiesto di sopraffare gli utenti con informazioni, la loro accuratezza fattuale è diminuita, al 62% dal 78% nel caso di GPT-4.
Negli ultimi anni i dibattiti a fuoco rapido sono diventati una sorta di fenomeno su YouTube, esemplificati da influencer come Ben Shapiro e Steven Bonnell. Produce argomentazioni drammatiche che hanno reso la politica più coinvolgente e accessibile per gli elettori più giovani, ma hanno anche fomentato un maggiore radicalismo e diffuso disinformazione concentrandosi sul valore dell’intrattenimento e sui momenti “gotcha”.
L’intelligenza artificiale galoppante di Gish potrebbe peggiorare le cose? Dipende se qualcuno riesce a far parlare i robot di propaganda con la gente. Un consigliere elettorale di un gruppo ambientalista o di un candidato politico non può semplicemente cambiare lo stesso ChatGPT, ora utilizzato settimanalmente da circa 900 milioni di persone. Ma possono mettere a punto il modello linguistico sottostante e integrarlo in un sito web – come un bot del servizio clienti – o condurre una campagna di testo o WhatsApp in cui contattano gli elettori e li attirano in una conversazione.
Una campagna con risorse moderate potrebbe probabilmente raggiungere questo obiettivo in poche settimane con costi informatici di circa $ 50.000. Ma potrebbero avere difficoltà a convincere gli elettori o il pubblico ad avere una conversazione prolungata con il loro bot. Lo studio di Science ha dimostrato che un’affermazione statica di 200 parole da parte dell’intelligenza artificiale non era particolarmente persuasiva: è stata la conversazione di 10 minuti che ha richiesto circa sette turni ad avere l’impatto reale, e anche duraturo. Quando i ricercatori verificarono se la mente delle persone fosse ancora cambiata un mese dopo, ciò accadde.
I ricercatori britannici avvertono che chiunque voglia promuovere un’idea ideologica, creare disordini politici o destabilizzare i sistemi politici potrebbe utilizzare un modello open source chiuso o (anche più economico) per iniziare a persuadere le persone. E hanno dimostrato il potere disarmante dell’intelligenza artificiale nel farlo. Ma nota che dovevano pagare le persone per partecipare al loro studio sulla persuasione. Speriamo che l’implementazione di tali bot tramite siti Web e messaggi di testo, al di fuori dei principali gateway controllati da aziende del calibro di OpenAI e Google di Alphabet Inc., non porti i cattivi attori molto lontano nel distorcere il discorso politico.
Parmy Olson è un editorialista di Bloomberg Opinion che si occupa di tecnologia. Ex reporter del Wall Street Journal e di Forbes, è autrice di “Supremacy: AI, ChatGPT e la corsa che cambierà il mondo”. ©2025 Bloomberg. Distribuito da Tribune Content Agency.



