Home Eventi I ricercatori creano malattie false, i chatbot basati sull’intelligenza artificiale diffondono prontamente...

I ricercatori creano malattie false, i chatbot basati sull’intelligenza artificiale diffondono prontamente disinformazione medica

26
0

Un team di ricercatori ha inventato una condizione medica completamente falsa chiamata “bixonimania” e ha pubblicato online documenti chiaramente fraudolenti al riguardo, quindi ha monitorato i principali chatbot di intelligenza artificiale mentre iniziavano a raccomandarla come una vera malattia alle persone in cerca di consulenza medica.

Natura rapporti che un ricercatore medico svedese ha rivelato una preoccupante vulnerabilità nei sistemi di intelligenza artificiale creando una malattia immaginaria che i chatbot di intelligenza artificiale hanno successivamente presentato agli utenti come informazioni mediche legittime. L’esperimento, condotto da Almira Osmanovic Thunström dell’Università di Göteborg, ha rivelato con quanta facilità modelli linguistici di grandi dimensioni possono assorbire e diffondere la disinformazione medica.

La bixonimania, una patologia oculare completamente inventata presumibilmente causata da un’eccessiva esposizione alla luce blu degli schermi, è nata il 15 marzo 2024, quando Osmanovic Thunström ha pubblicato due post sul blog a riguardo su Medium. Ha poi pubblicato due articoli prestampati sul social network accademico SciProfiles tra la fine di aprile e l’inizio di maggio dello stesso anno. L’autore principale elencato in questi articoli era Lazljiv Izgubljenovic, un ricercatore immaginario la cui fotografia è stata generata utilizzando l’intelligenza artificiale.

Il ricercatore ha deliberatamente riempito i documenti falsi con evidenti segnali d’allarme per avvisare i lettori che il lavoro era fraudolento. Izgubljenovic risultava lavorare presso l’inesistente Asteria Horizon University nell’altrettanto falsa Nova City, California. I documenti includevano ringraziamenti alla Professoressa Maria Bohm dell’Accademia della Flotta Stellare e finanziamenti accreditati dalla Fondazione Professor Sideshow Bob e dall’Università della Compagnia dell’Anello. I documenti contenevano anche dichiarazioni esplicite che dichiaravano che l’intero lavoro era inventato e che cinquanta persone fittizie erano state reclutate per lo studio.

Nonostante questi evidenti segnali di allarme, i principali chatbot di intelligenza artificiale hanno rapidamente iniziato a presentare la bixonimania come una vera condizione medica. Entro il 13 aprile 2024, il copilota di Microsoft Bing descriveva la bixonimania come una condizione intrigante e relativamente rara. Lo stesso giorno, Gemini di Google ha informato gli utenti che la bixonimania era causata da un’eccessiva esposizione alla luce blu e ha consigliato di visitare un oculista. Più tardi quel mese, sia Perplexity AI che ChatGPT di OpenAI fornivano informazioni sulla prevalenza della condizione e aiutavano gli utenti a determinare se i loro sintomi corrispondevano alla malattia immaginaria.

Osmanovic Thunström ha spiegato la motivazione dell’esperimento, affermando: “Volevo vedere se potevo creare una condizione medica che non esisteva nel database”. Ha scelto il nome bixonimania proprio perché sembrava ridicolo e nessuna condizione oculare legittima sarebbe stata chiamata mania, che è un termine psichiatrico. Voleva rendere abbondantemente chiaro a qualsiasi professionista medico che la condizione era inventata.

Il problema si estendeva oltre i chatbot basati sull’intelligenza artificiale che rigurgitavano informazioni false. A quanto pare alcuni ricercatori hanno citato i documenti falsi nella letteratura sottoposta a revisione paritaria senza leggere le fonti sottostanti. Uno studio pubblicato in Cureoun giornale di Springer Nature, ha citato uno dei preprint fraudolenti e ha affermato che la bixonimania era una forma emergente di melanosi periorbitale legata all’esposizione alla luce blu. La rivista ha ritirato l’articolo il 30 marzo 2026, dopo essere stata contattata in merito alla questione, sottolineando che la presenza di tre riferimenti irrilevanti, di cui uno a una malattia fittizia, ha minato la fiducia nell’accuratezza del lavoro.

Alex Ruani, ricercatore di dottorato in disinformazione sanitaria presso l’University College di Londra, ha definito l’esperimento una lezione di perfezionamento su come funziona la disinformazione. “Sembra divertente, ma aspetta, abbiamo un problema qui”, ha detto Ruani, sottolineando che, sebbene i dettagli possano sembrare sciocchi, la questione fondamentale è seria. “Se il processo scientifico stesso e i sistemi che supportano tale processo sono qualificati e non catturano e filtrano pezzi come questi, siamo condannati”, ha aggiunto Ruani.

Le risposte delle aziende di intelligenza artificiale sono variate di fronte ai fallimenti dei loro sistemi. Un portavoce di OpenAI ha affermato che i modelli alla base delle attuali versioni di ChatGPT sono significativamente migliori nel fornire informazioni mediche sicure e accurate, sostenendo che gli studi condotti prima del GPT-5 riflettono capacità che gli utenti non avrebbero incontrato oggi. Un portavoce di Google ha riconosciuto i limiti dell’intelligenza artificiale generativa e ha osservato che per questioni delicate come la consulenza medica, Gemini consiglia agli utenti di consultare professionisti qualificati. Microsoft non ha risposto alle richieste di commento.

Prima di condurre l’esperimento, Osmanovic Thunström si è consultato con un consulente etico e ha scelto deliberatamente una condizione relativamente bassa per limitare i potenziali danni. David Sundemo, un medico che ha condotto ricerche sanitarie sull’intelligenza artificiale presso l’Università di Göteborg e che ha ricoperto il ruolo di consulente etico, ha riconosciuto che il lavoro era controverso ma prezioso. “Dal mio punto di vista, vale la pena pagare il costo etico di diffondere false informazioni a questo riguardo”, ha detto Sundemo.

Copertina Wynton Hall Code rossa

Il direttore dei social media e autore di Breitbart News, Wynton Hall, spiega nel suo libro Codice Rosso: La Sinistra, la Destra, la Cina e la corsa al controllo dell’IA che i conservatori a livello governativo così come all’interno del nucleo familiare devono aiutare i giovani a creare un futuro luminoso lavorando con l’intelligenza artificiale come strumento, non come sostituto degli esseri umani. Hall ha recentemente scritto che la sinistra tenterà di farlo armare la paura sulla potenziale perdita di posti di lavoro per mano dell’intelligenza artificiale per influenzare le elezioni di medio termine, un timore evidente nei dati dei sondaggi tra gli studenti universitari.

Dentro CODICE ROSSOscoprirai:

  • Perché l’intelligenza artificiale è predisposta per l’indottrinamento del risveglio e come resistervi.
  • Come le élite pianificano di sfruttare la perdita di posti di lavoro nell’intelligenza artificiale come arma per aumentare la dipendenza.
  • Come l’America può battere la Cina senza diventare Cina.
  • Come preparare i tuoi figli alla velocità accecante dell’interruzione dell’intelligenza artificiale.
  • Le nuove minacce alla sicurezza nazionale scatenate dall’intelligenza artificiale e il modo in cui ci difendiamo da esse.
  • Perché le “fidanzate AI” attirano milioni di persone e cosa servirà per preservare un’autentica connessione umana.
  • In che modo l’intelligenza artificiale metterà alla prova la fede e il significato e perché il rinnovamento spirituale potrebbe essere il suo risultato più sorprendente.

Leggi di più su Natura Qui.

Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here