Home Eventi Un ricercatore di OpenAI si dimette per la pubblicità su ChatGPT e...

Un ricercatore di OpenAI si dimette per la pubblicità su ChatGPT e confronta la strategia di Sam Altman con quella di Facebook

23
0

Un ex ricercatore di OpenAI si è dimesso pubblicamente dal colosso dell’intelligenza artificiale per protestare contro la sua decisione di introdurre annunci pubblicitari in ChatGPT, avvertendo che il CEO Sam Altman potrebbe seguire lo stesso percorso travagliato di Facebook di Mark Zuckerberg.

IL New York Times ha pubblicato un editoriale dell’economista e ricercatrice Zoë Hitz in cui annuncia le sue dimissioni da OpenAI. La sua partenza è avvenuta lunedì, lo stesso giorno in cui OpenAI ha iniziato a testare gli annunci pubblicitari all’interno della sua piattaforma ChatGPT. Hitzig aveva trascorso due anni presso l’azienda contribuendo a definire il modo in cui venivano costruiti e fissati i prezzi dei suoi modelli di intelligenza artificiale.

Nel suo saggio, Hitzig ha espresso disillusione per la direzione presa da OpenAI. “Una volta credevo di poter aiutare le persone che costruiscono l’intelligenza artificiale a superare i problemi che avrebbe creato”, ha scritto. “Questa settimana ha confermato la mia lenta consapevolezza che OpenAI sembra aver smesso di porre le domande a cui mi ero iscritto per contribuire a rispondere.”

La critica di Hitzig non si concentrava sulla pubblicità in quanto intrinsecamente immorale, ma piuttosto sui rischi unici posti dagli annunci in ChatGPT a causa della natura sensibile dei dati degli utenti coinvolti. Ha notato che gli utenti hanno condiviso informazioni profondamente personali con il chatbot, comprese preoccupazioni mediche, problemi relazionali e credenze religiose, spesso partendo dal presupposto che stessero comunicando con qualcosa senza secondi fini. Ha descritto questa raccolta di rivelazioni personali come “un archivio di candore umano che non ha precedenti”.

Tracciando parallelismi con la storia dei social media, Hitzig ha fatto riferimento alla traiettoria di Facebook come un ammonimento. Ha sottolineato che Facebook inizialmente aveva promesso agli utenti il ​​controllo sui propri dati e la possibilità di votare sui cambiamenti politici, ma questi impegni sono gradualmente diminuiti.

Hitzig ha espresso preoccupazione per il fatto che ChatGPT possa seguire un modello simile. “Credo che la prima iterazione degli annunci probabilmente seguirà questi principi. Ma sono preoccupata che le iterazioni successive non lo faranno, perché l’azienda sta costruendo un motore economico che crea forti incentivi a scavalcare le proprie regole”, ha avvertito.

Le dimissioni arrivano nel mezzo di un acceso dibattito all’interno del settore dell’intelligenza artificiale sulle pratiche pubblicitarie. OpenAI ha annunciato a gennaio che avrebbe testato gli annunci pubblicitari negli Stati Uniti per gli utenti con i livelli di abbonamento gratuito e da otto dollari al mese, mentre gli abbonati a pagamento Plus, Pro, Business, Enterprise ed Education rimarranno senza pubblicità. La società ha dichiarato che gli annunci appariranno in fondo alle risposte di ChatGPT, saranno chiaramente etichettati e non influenzeranno le risposte del chatbot.

Il lancio pubblicitario è seguito a una settimana di conflitto pubblico tra OpenAI e il suo concorrente Anthropic. Anthropic ha dichiarato che Claude sarebbe rimasto senza pubblicità e ha pubblicato annunci pubblicitari per il Super Bowl con lo slogan raffigurante chatbot di intelligenza artificiale che inseriscono goffamente posizionamenti di prodotti nelle conversazioni personali.

Il CEO di OpenAI, Sam Altman, ha definito gli annunci “divertenti” ma “chiaramente disonesti”, affermando sui social media che OpenAI “ovviamente non pubblicherebbe mai annunci nel modo in cui Anthropic li descrive”. Ha difeso il modello supportato dalla pubblicità come metodo per fornire accesso all’intelligenza artificiale agli utenti che non possono permettersi abbonamenti, aggiungendo che Anthropic “offre un prodotto costoso ai ricchi”.

Anthropic ha risposto che includere annunci pubblicitari nelle conversazioni con Claude “sarebbe incompatibile con ciò che vogliamo che Claude sia: un assistente veramente utile per il lavoro e per il pensiero profondo”. La società ha osservato che oltre l’80% dei suoi ricavi proviene da clienti aziendali.

Secondo la documentazione di supporto di OpenAI, la personalizzazione degli annunci è abilitata per impostazione predefinita per gli utenti del test. Una volta attivati, gli annunci vengono selezionati utilizzando le informazioni dei thread di chat attuali e passati, nonché le interazioni passate con gli annunci. OpenAI sostiene che gli inserzionisti non ricevono le chat o i dettagli personali degli utenti e che gli annunci non verranno visualizzati vicino a conversazioni su salute, salute mentale o politica.

Nel suo saggio, Hitzig ha identificato quella che ha definito una tensione esistente nei principi di OpenAI. Ha osservato che mentre la società afferma di non ottimizzare l’attività degli utenti esclusivamente per generare entrate pubblicitarie, i report suggeriscono che OpenAI già ottimizza per gli utenti attivi giornalieri, potenzialmente incoraggiando il modello a essere più lusinghiero e gradevole.

Ha avvertito che questa ottimizzazione potrebbe aumentare la dipendenza degli utenti dai modelli di intelligenza artificiale, facendo riferimento a psichiatri che hanno documentato casi di “psicosi da chatbot” e accuse secondo cui ChatGPT avrebbe rafforzato pensieri suicidi. OpenAI attualmente deve affrontare numerose cause legali per omicidio colposo, inclusi casi relativi a ChatGPT ha aiutato un adolescente a pianificare il suo suicidio e convalidato i deliri paranoici di un uomo prima di un omicidio-suicidio.

Invece di opporsi semplicemente alla pubblicità, Hitzig ha proposto diverse alternative strutturali. Questi includevano sussidi incrociati modellati sul fondo per il servizio universale della FCC, in cui le aziende che pagavano per manodopera basata sull’intelligenza artificiale di alto valore sovvenzionavano il libero accesso per altri. Ha anche suggerito comitati di vigilanza indipendenti con autorità vincolante sull’uso dei dati conversazionali nel targeting degli annunci e trust o cooperative di dati che consentano agli utenti di mantenere il controllo delle proprie informazioni. Come possibili modelli ha citato la cooperativa svizzera MIDATA e le leggi tedesche sulla cogestione.

Hitzig ha concluso il suo saggio descrivendo le sue due più grandi paure: “una tecnologia che manipoli le persone che la usano senza alcun costo, e una che avvantaggia esclusivamente i pochi che possono permettersi di usarla”.

Hitzig non è stato il solo a lasciare un’importante azienda di intelligenza artificiale questa settimana. Domenica, Mrinank Sharma, che guidava il Safeguards Research Team di Anthropic, ha annunciato le sue dimissioni in una lettera avvertendo che “il mondo è in pericolo”. Lunedì anche il co-fondatore di xAI Yuhuai Wu si è dimesso, seguito dal collega co-fondatore Jimmy Ba il giorno successivo. Almeno nove dipendenti di xAI hanno annunciato pubblicamente la partenza nel corso della scorsa settimana, e sei dei dodici cofondatori originari dell’azienda se ne sono andati.

Leggi di più su IL New York Times Qui.

Lucas Nolan è un reporter di Breitbart News che si occupa di questioni di libertà di parola e censura online.

Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here