Home Eventi La “Panoramica AI” di Google fornisce consigli medici estremamente imprecisi

La “Panoramica AI” di Google fornisce consigli medici estremamente imprecisi

26
0

Un’indagine ha rivelato che la “Panoramica AI” di Google, trovata in cima alla maggior parte delle ricerche, forniva agli utenti informazioni mediche false e potenzialmente dannose quando cercavano informazioni relative alla salute, come il significato dei risultati di un test di funzionalità epatica. Il colosso della ricerca ha cancellato dal web le panoramiche sull’intelligenza artificiale nei casi di disinformazione medica scoperti dai ricercatori.

Il Guardiano rapporti che Google ha rimosso alcuni dei suoi riepiloghi sanitari generati dall’intelligenza artificiale in seguito alle rivelazioni secondo cui la funzionalità forniva agli utenti informazioni mediche imprecise e fuorvianti. La rimozione è avvenuta dopo che un’indagine ha rivelato gravi preoccupazioni sull’affidabilità dei contenuti relativi alla salute prodotti dalla funzione “Panoramiche AI” dell’azienda.

Lo strumento AI Overviews utilizza l’intelligenza artificiale generativa per creare istantanee di informazioni su argomenti o domande poste dagli utenti. Questi riepiloghi vengono visualizzati in primo piano nella parte superiore dei risultati di ricerca. Google ha precedentemente descritto la funzionalità come utile e affidabile per gli utenti che cercano risposte rapide alle loro domande.

Tuttavia, l’indagine ha rilevato che alcuni riassunti relativi alla salute contenevano significative inesattezze che potevano mettere a rischio gli utenti. In un esempio particolarmente preoccupante, l’intelligenza artificiale ha fornito informazioni errate sui test di funzionalità epatica. Gli esperti hanno definito questo caso specifico pericoloso e allarmante a causa delle potenziali conseguenze per i pazienti.

Quando gli utenti cercavano informazioni sugli intervalli normali per gli esami del sangue del fegato, le panoramiche AI ​​di Google mostravano numerosi numeri con un contesto minimo. I riassunti non hanno tenuto conto di variabili importanti come la nazionalità, il sesso, l’etnia o l’età del paziente. Questi fattori possono influenzare in modo significativo ciò che costituisce un normale risultato del test.

Gli esperti medici hanno sottolineato che i valori indicati dall’intelligenza artificiale di Google come normali potrebbero differire drasticamente da ciò che i professionisti medici considerano effettivamente intervalli normali. Questa discrepanza crea un serio rischio che i pazienti con gravi malattie epatiche possano interpretare i risultati anomali dei test come normali e di conseguenza saltare cruciali appuntamenti sanitari di follow-up.

A seguito dell’indagine, Google ha rimosso le panoramiche AI ​​per le ricerche che includevano i termini “qual è l’intervallo normale per gli esami del sangue del fegato” e “qual è l’intervallo normale per i test di funzionalità epatica”. Un portavoce dell’azienda ha dichiarato che Google non commenta la rimozione di singoli contenuti all’interno della sua piattaforma di ricerca. Il portavoce ha aggiunto che quando le panoramiche AI ​​non hanno un contesto appropriato, l’azienda lavora per implementare ampi miglioramenti e, quando necessario, interviene in base alle proprie politiche.

Sue Farrington, presidente del Patient Information Forum, un’organizzazione che promuove informazioni sanitarie basate sull’evidenza per i pazienti, il pubblico e gli operatori sanitari, ha accolto con favore la rimozione dei riassunti. Tuttavia, ha sottolineato che permangono preoccupazioni significative riguardo a questa funzionalità.

Farrington ha descritto la rimozione come un risultato positivo, ma l’ha definita solo come il passo iniziale di ciò che deve accadere per mantenere la fiducia nei risultati di ricerca relativi alla salute di Google. Ha notato che esistono ancora numerosi esempi di panoramiche AI ​​di Google che forniscono agli utenti informazioni sanitarie imprecise.

Secondo Farrington, milioni di adulti in tutto il mondo già incontrano difficoltà nell’accedere a informazioni sanitarie attendibili. Questa sfida esistente rende di fondamentale importanza per Google indirizzare gli utenti verso informazioni sanitarie affidabili e ricercate e risorse sanitarie provenienti da organizzazioni affidabili.

L’indagine ha inoltre individuato altre panoramiche AI ​​problematiche che rimangono attive sulla piattaforma. Questi includono riassunti su argomenti relativi al cancro e alla salute mentale che gli esperti hanno descritto come completamente sbagliati e veramente pericolosi. Questi riepiloghi continuano ad apparire nei risultati di ricerca nonostante le preoccupazioni sollevate.

Quando è stato chiesto perché queste panoramiche aggiuntive sull’intelligenza artificiale non fossero state rimosse, Google ha dichiarato che si collegano a fonti note e affidabili e informano gli utenti quando è importante chiedere il parere di esperti. Un portavoce dell’azienda ha affermato che un team interno di medici ha esaminato i materiali e ha stabilito che in molti casi le informazioni non erano imprecise ed erano supportate da siti Web di alta qualità.

Leggi di più su IL Custode Qui.

Lucas Nolan è un reporter di Breitbart News che si occupa di questioni di libertà di parola e censura online.

Source link