Home Eventi I test interni di Meta rivelano che l’intelligenza artificiale non ha superato...

I test interni di Meta rivelano che l’intelligenza artificiale non ha superato i controlli di sicurezza dei bambini

21
0

I documenti di test interni di Meta di Mark Zuckerberg mostrano che un prodotto chatbot inedito non è riuscito a proteggere i minori dallo sfruttamento sessuale in quasi il 70% degli scenari di test, secondo la testimonianza del tribunale presentata lunedì come parte della causa sullo sfruttamento minorile del New Mexico contro il gigante di Internet.

Axios rapporti che gli accertamenti sono emersi nel corso del procedimento giudiziario in a causa intentata dal procuratore generale del New Mexico Raúl Torrez (D) contro il colosso dei social media. Il testimone esperto Damon McCoy, professore alla New York University, ha testimoniato sui risultati del red-teaming interno di Meta dopo aver esaminato i documenti forniti dalla società durante la fase conoscitiva del contenzioso.

Secondo il rapporto interno presentato in tribunale, Meta ha testato il suo prodotto chatbot in tre categorie critiche di sicurezza. I risultati hanno mostrato fallimenti significativi in ​​tutte e tre le aree. Nella categoria dello sfruttamento sessuale minorile, il prodotto ha dimostrato un tasso di fallimento del 66,8%. Per i crimini legati al sesso, i crimini violenti e i contenuti che incitano all’odio, il tasso di fallimento ha raggiunto il 63,6%. Anche nella categoria suicidio e autolesionismo, il prodotto non è riuscito a fornire una protezione adeguata nel 54,8% dei casi.

McCoy ha testimoniato che i chatbot di Meta hanno violato le politiche sui contenuti dell’azienda quasi due terzi delle volte sulla base dei risultati di questi test interni. Ha affermato che, data la gravità di alcuni tipi di conversazione identificati durante i test, il prodotto non era qualcosa a cui avrebbe voluto che gli utenti sotto i 18 anni fossero esposti. La sua testimonianza ha fatto specifico riferimento a Meta AI Studio, un prodotto che consente agli utenti di creare chatbot personalizzati.

La causa è incentrata sulle accuse secondo cui Meta ha fatto scelte di progettazione che non riescono a proteggere adeguatamente i bambini online dai predatori e che la società ha rilasciato i suoi chatbot di intelligenza artificiale senza implementare adeguate garanzie. L’azione legale di Torrez arriva nel contesto di un esame più ampio dei prodotti chatbot di Meta, che sono stati accusati di flirtare e di impegnarsi in conversazioni dannose con minori. Queste preoccupazioni hanno spinto sia le indagini dei tribunali che le richieste dei legislatori di Capitol Hill.

Meta ha risposto alla testimonianza chiarendo la natura e l’esito del processo di test. Un portavoce dell’azienda ha dichiarato che il prodotto in questione non è mai stato lanciato appositamente perché i test hanno rivelato preoccupazioni. Il portavoce ha sottolineato che il cosiddetto “red teaming” è un esercizio specificamente progettato per suscitare risposte in violazione in modo che l’azienda possa affrontare i problemi prima del lancio e che i risultati non riflettono il modo in cui gli utenti sperimenterebbero effettivamente un prodotto rilasciato.

Tuttavia, la testimonianza di McCoy ha caratterizzato il documento in modo diverso, riferendosi ad esso come se fornisse i risultati del prodotto quando è stato distribuito. Questa discrepanza evidenzia un punto chiave di controversia nel caso riguardante l’interpretazione delle procedure e dei risultati dei test interni di Meta.

Il contesto più ampio di questo caso coinvolge Meta AI Studio, che la società ha rilasciato al grande pubblico nel luglio 2024. Questo prodotto consente agli utenti di creare i propri chatbot AI personalizzati. Proprio il mese scorso Meta è intervenuta sospendere l’accesso degli adolescenti ai suoi personaggi IA, una mossa arrivata in mezzo a crescenti preoccupazioni sulla sicurezza dei minori che utilizzano queste funzionalità.

Leggi di più su Axios qui.

Lucas Nolan è un reporter di Breitbart News che si occupa di questioni di libertà di parola e censura online.



Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here