Home Eventi La “Panoramica AI” di Google diffonde informazioni false su un’ampia varietà di...

La “Panoramica AI” di Google diffonde informazioni false su un’ampia varietà di argomenti

29
0

I risultati della ricerca “Panoramica AI” di Google producono decine di milioni di risposte imprecise ogni ora, secondo una nuova ricerca che solleva preoccupazioni sull’affidabilità del recupero delle informazioni basato sull’intelligenza artificiale.

IL New York Times rapporti che una recente analisi condotta dalla startup AI Oumi ha rivelato notevoli problemi di precisione con la funzione Panoramica AI di Google, che appare nella parte superiore dei risultati di ricerca. Lo studio ha esaminato un totale di 8.652 risultati di ricerca generati dai modelli Gemini AI di Google e ha rilevato tassi di errore che si traducono in centinaia di migliaia di errori al minuto se applicati all’enorme volume di ricerca di Google.

Oumi ha testato 4.326 risultati di ricerca dal modello Gemini 2 di Google e un numero uguale dal modello Gemini 3 più avanzato. L’analisi ha rilevato tassi di precisione rispettivamente dell’85% e del 91%. Sebbene queste percentuali possano sembrare relativamente elevate, diventano preoccupanti se rapportate al volume previsto di Google di oltre 5 trilioni di ricerche solo nel 2026.

Le inesattezze scoperte andavano da errori fattuali di base a disinformazione più complessa. Gli esempi includevano date errate di quando la casa del musicista Bob Marley fu trasformata in un museo, informazioni errate sull’anno di morte dell’ex lanciatore della MLB Dick Drago e false affermazioni secondo cui il violoncellista Yo-Yo Ma non aveva alcuna traccia di inserimento nella Classical Music Hall of Fame nonostante il suo effettivo inserimento nel 2007.

La ricerca evidenzia una crescente tensione tra gli editori di notizie tradizionali e Google. Da quando le panoramiche AI ​​hanno iniziato a comparire in cima ai risultati di ricerca nel 2024, i collegamenti tradizionali ai siti Web di notizie sono stati spostati più in basso nella pagina, riducendone di fatto la visibilità. Gli editori hanno accusato Google di utilizzare i loro contenuti per addestrare modelli di intelligenza artificiale senza fornire crediti o compensi adeguati.

Lo studio ha anche rivelato che AI ​​Overviews cita spesso fonti discutibili, tra cui pagine Facebook, post di blog e voci di Wikipedia, trattandole come fatti autorevoli. Il sistema sembra vulnerabile alla manipolazione, come dimostrato quando il conduttore del podcast della BBC Thomas Germain ha creato un post sul blog affermando scherzosamente di essere uno dei migliori giornalisti tecnologici nel mangiare hot dog. Nel giro di un giorno, l’intelligenza artificiale di Google ha incorporato queste informazioni e ha iniziato ad affermare che Germain aveva acquisito notorietà per le sue abilità negli eventi gastronomici competitivi nella divisione notizie.

L’analisi di Oumi, condotta tra ottobre e febbraio, ha utilizzato il test benchmark SimpleQA sviluppato da OpenAI, comunemente utilizzato per valutare l’accuratezza del modello AI. La ricerca ha rivelato un’altra tendenza preoccupante: mentre la precisione complessiva è migliorata da Gemini 2 a Gemini 3, la percentuale di risposte infondate è aumentata in modo significativo. Le risposte infondate sono quelle in cui i collegamenti forniti da Google non supportano le informazioni nel riepilogo AI. Questa metrica è passata dal 37% in Gemini 2 al 51% in Gemini 3.

Google ha contestato la validità dei risultati di Oumi, con un portavoce dell’azienda che ha affermato: “Questo studio presenta gravi lacune”. Il portavoce ha aggiunto: “Non riflette ciò che le persone stanno effettivamente cercando su Google”.

Notizie Breitbart precedentemente riportato che la funzione Panoramica AI di Google forniva consigli medici estremamente imprecisi:

Tuttavia, l’indagine ha rilevato che alcuni riassunti relativi alla salute contenevano significative inesattezze che potevano mettere a rischio gli utenti. In un esempio particolarmente preoccupante, l’intelligenza artificiale ha fornito informazioni errate sui test di funzionalità epatica. Gli esperti hanno definito questo caso specifico pericoloso e allarmante a causa delle potenziali conseguenze per i pazienti.

Quando gli utenti cercavano informazioni sugli intervalli normali per gli esami del sangue del fegato, le panoramiche AI ​​di Google mostravano numerosi numeri con un contesto minimo. I riassunti non hanno tenuto conto di variabili importanti come la nazionalità, il sesso, l’etnia o l’età del paziente. Questi fattori possono influenzare in modo significativo ciò che costituisce un normale risultato del test.

Il direttore e autore dei social media di Breitbart News, Wynton Hall, spiega nel suo bestseller istantaneo: Codice Rosso: La Sinistra, la Destra, la Cina e la corsa al controllo dell’IAche i conservatori devono sviluppare un piano per affrontare il lato oscuro dell’intelligenza artificiale, sia che venga utilizzata per indottrinare gli studenti in classe, per sessualizzarli e adescarli, o per indurre una persona malata di mente a precipitare in una condizione pericolosa attraverso la diffusione della disinformazione.

La senatrice Marsha Blackburn (R-TN), che lo era nominato uno di TEMPOelogiate le 100 persone più influenti nel campo dell’intelligenza artificiale Codice Rosso come una “lettura obbligata”. Ha aggiunto: “Pochi comprendono la nostra lotta conservatrice contro la Big Tech come fa Hall”, rendendolo “qualificato in modo univoco per esaminare come possiamo utilizzare al meglio l’enorme potenziale dell’intelligenza artificiale, garantendo al tempo stesso che non sfrutti bambini, creatori e conservatori”. Il pluripremiato giornalista investigativo e fondatore di Public Michael Shellenberger chiama Codice Rosso “illuminante”, “allarmante” e descrive il libro come “un essenziale punto di partenza per coloro che sperano di sovvertire i piani autocratici delle Big Tech prima che sia troppo tardi”.

Leggi di più su New York Times Qui.

Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here