Home Cronaca I consigli medici sull’intelligenza artificiale possono comportare rischi “pericolosi”: cosa sapere

I consigli medici sull’intelligenza artificiale possono comportare rischi “pericolosi”: cosa sapere

19
0

Usare modelli linguistici di grandi dimensioni per ottenere consigli medici e prendere decisioni mediche è una pratica rischiosa, avverte un nuovo studio.

Lo studio, condotto da ricercatori A Oxford University, ha coinvolto 1.300 partecipanti a cui sono state somministrate condizioni mediche specifiche sviluppate dai medici.

I partecipanti sono stati quindi divisi in due gruppi: a uno è stato chiesto consiglio medico a LLM simili OpenAI ChatGPTmentre l’altro raccoglieva informazioni da fonti tradizionali.

I risultati hanno mostrato importanti divari tra LLM e utenti.

Artificial intelligence

Anche se i LLM eccellono nella comprensione della medicina e delle pratiche standard, aiutare gli utenti con i loro problemi medici richiedeva un livello di comunicazione che i LLM faticavano a fornire.

“Nonostante tutto il clamore, AI semplicemente non è pronto ad assumere il ruolo di medico”, ha spiegato in un comunicato stampa la dottoressa Rebecca Payne, responsabile dello studio.

“I pazienti devono essere consapevoli che chiedere un ampio modello linguistico riguardo ai loro sintomi può essere pericoloso, dando diagnosi sbagliate e non riuscendo a riconoscere quando è necessario un aiuto urgente”.

Interruzione della comunicazione

I risultati del studio hanno dimostrato che gli LLM non fornivano risultati migliori rispetto ai metodi tradizionali di valutazione delle condizioni mediche, come la ricerca di informazioni su Internet o l’utilizzo del miglior giudizio di un individuo.

I LLM non sempre capivano cosa chiedeva un partecipante e gli utenti spesso non sapevano come fornire al LLM le informazioni giuste.

Le interruzioni della comunicazione tra l’individuo e la macchina rendevano meno probabile che il LLM fornisse il consiglio giusto.

“I sistemi di intelligenza artificiale necessitano di test rigorosi”

Nel frattempo, i LLM spesso fornivano un mix di consigli buoni e cattivi. Senza l’aiuto di a medicoi partecipanti allo studio spesso non erano in grado di vagliare e separare i due.

L’autore senior Adam Mahdi dell’Oxford Internet Institute ha affermato che il divario tra LLM e pazienti dovrebbe essere un “campanello d’allarme” per sviluppatori e regolatori.

“Non possiamo fare affidamento solo su test standardizzati per determinare se questi sistemi sono sicuri per l’uso pubblico”, ha affermato Mahdi. “Proprio come abbiamo bisogno di sperimentazioni cliniche per nuovi farmaci, i sistemi di intelligenza artificiale necessitano di test rigorosi con utenti diversi e reali per comprendere le loro vere capacità in contesti ad alto rischio come l’assistenza sanitaria”.

Un problema comune

Consultare un LLM per una consulenza medica è una pratica sempre più comune, soprattutto negli Stati Uniti, dove l’assistenza sanitaria è spesso proibitivamente costoso.

Secondo a uno studio pubblicato a settembre da una piattaforma di intelligenza artificiale, più di un quinto degli americani ha ammesso di aver seguito i consigli di un chatbot che si sono poi rivelati imprecisi.

In un altro studio pubblicato nel giugno 2025, i ricercatori hanno utilizzato strumenti di sviluppo per vedere se potessero programmare i LLM per fornire informazioni errate.

Hanno scoperto che potevano farlo facilmente e i chatbot fornivano con sicurezza informazioni errate nell’88% dei casi.

“Se questi sistemi possono essere manipolati per produrre segretamente consigli falsi o fuorvianti, allora possono creare una nuova potente strada per la disinformazione che è più difficile da individuare, più difficile da regolamentare e più persuasiva di qualsiasi cosa vista prima”, ha avvertito in una dichiarazione l’autore dello studio Natansh Modi dell’Università del Sud Africa.

Newsweek ha contattato gli autori dello studio per un commento via e-mail.

Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here