Home Cronaca Esperti legali intervengono sulle immagini sessualizzate dell’intelligenza artificiale di Grok

Esperti legali intervengono sulle immagini sessualizzate dell’intelligenza artificiale di Grok

162
0

Immagini sessualizzate di donne hanno inondato X nelle ultime settimane in quella che viene soprannominata la “tendenza del bikini Grok”. Le immagini, create utilizzando il chatbot AI “Grok”, hanno suscitato proteste e preoccupazioni diffuse.

Newsweek ha visto numerosi esempi di questo tipo di immagini e le istruzioni utilizzate per crearle.

X ha risposto alle conseguenze e ha detto che stanno prendendo provvedimenti contro di esse. In risposta ad una richiesta di commento da parte di Newsweek a proposito di questa storia, un portavoce di X ha condiviso una dichiarazione, originariamente pubblicata sulla piattaforma il 4 gennaio. Si legge: “Agiamo contro i contenuti illegali su X, incluso il materiale pedopornografico (CSAM), rimuovendolo, sospendendo permanentemente gli account e collaborando con i governi locali e le forze dell’ordine, se necessario. Chiunque utilizzi o induca Grok a creare contenuti illegali subirà le stesse conseguenze che se caricasse contenuti illegali.”

Newsweek ha anche contattato XAI, la società dietro Grok, per un commento e ha ricevuto la seguente risposta: “Legacy Media Lies”.

X ha ora limitato la funzione di modifica delle immagini di Grok ai soli utenti paganti, ma alcuni hanno criticato questa mossa perché non è sufficientemente ampia. X è attualmente sotto indagine da parte di Ofcom, un regolatore nel Regno Unito, e un portavoce di Ofcom ha dichiarato venerdì in una dichiarazione sull’indagine: “Abbiamo contattato urgentemente lunedì e fissato una scadenza fissa per oggi per spiegare se stessi, alla quale abbiamo ricevuto una risposta. Stiamo ora intraprendendo una valutazione accelerata con urgenza e forniremo ulteriori aggiornamenti a breve.”

In risposta alle minacce di un possibile divieto della piattaforma X, Musk ha accusato il governo britannico di voler “sopprimere la libertà di parola”.

Nel dibattito globale suscitato dalle immagini, molti si chiedono quali potrebbero essere le implicazioni legali di questi contenuti. Newsweek ha parlato con esperti legali per saperne di più.

Immagini Getty. Newsweek/Illustrazione

Il contesto

L’allarme era già scattato risuonava su Grok, e la sua capacità di farlo creare immagini di natura sessuale. Ma nelle ultime settimane la questione è diventata più diffusa. COME artisti del calibro della principessa Kate e l’influencer conservatrice Ashley St. Clair sono stati presi di mira creazione di queste immagini e le loro implicazioni si sono trasformate in una conversazione importante.

La questione, però, è tutt’altro che isolata. Sono ormai anni che ci sono preoccupazioni sui deepfake generati dall’intelligenza artificiale e sull’impatto che stanno avendo sulle donne. Uno studio del marzo 2025 condotto da SWGfL, un ente di beneficenza dedicato alla creazione di un uso sicuro e protetto della tecnologia, ha stimato che più di 40 milioni di donne in tutto il mondo sono vittime di abusi di immagini intime non consensuali (NCII).

Nel frattempo, un sondaggio del 2025 della National Organization for Women (NOW) e di Incogni ha rilevato che circa il 25% delle donne ha subito molestie consentite dalla tecnologia, tra cui Pornografia deepfake generata dall’intelligenza artificiale.

Negli Stati Uniti sono in vigore leggi che sono pronte a gestire la condivisione di immagini intime non consensuali. Il TAKE IT DOWN Act è stato approvato dall’amministrazione Trump nel 2025. Tale atto criminalizza la pubblicazione di immagini intime non consensuali, con la reclusione fino a due anni. Sono previste sanzioni più severe per i contenuti che coinvolgono bambini.

Quali barriere sono in atto per impedire la creazione di immagini non consensuali?

Sono presenti guardrail e protezioni per cercare di impedire la creazione di immagini non consensuali. Ad esempio, Grok rifiuterà le richieste di creare immagini totalmente nude. Ma gli utenti dei social media hanno trovato il modo di aggirare questo problema, incluso chiedere al bot di creare immagini di un utente in bikini, con alcuni utenti di social media che sono arrivati ​​al punto di richiedere che il bikini sia trasparente o una pellicola trasparente.

Ciò ha portato sia le persone che gli esperti a chiedersi se i guardrail in atto siano sufficienti.

Annie Seifullah, socia fondatrice di Incendii Law PLLC, uno studio legale antiviolenza di proprietà femminile e co-presidente della New York Cyber ​​Abuse Task force, ha detto Newsweek in un’e-mailEsistono pochissime barriere significative che impediscono la creazione di immagini sessualizzate non consensuali con l’intelligenza artificiale.

“Alcune piattaforme tradizionali dispongono di sistemi di sicurezza che impediscono agli utenti di generare contenuti dannosi. Ma da anni molte app e strumenti online offrono apertamente strumenti abusivi di manipolazione delle immagini che prendono di mira persone reali.”

Newsweek ha parlato anche con Carrie Goldberg, avvocato specializzata in diritti delle vittime e fondatrice di CA Goldberg PLLC, uno studio legale specializzato in diritti delle vittime. “In questo momento, la maggior parte dei ‘guardrail’ dell’intelligenza artificiale sono volontari, incoerenti e facili da eludere, il che significa che funzionano più come punti di discussione che come vere e proprie misure di sicurezza”, ha affermato.

“Ciò va a scapito degli utenti, in particolare donne e bambini. Sfortunatamente, le vittime spesso scoprono i limiti di queste protezioni solo dopo che il danno si è già verificato. L’esistenza di guardrail non significa che la tecnologia sia sicura. Significa che le aziende hanno riconosciuto il rischio, non che lo hanno affrontato adeguatamente”, ha aggiunto Goldberg.

Le immagini generate dall’intelligenza artificiale possono avere conseguenze legali?

Per quanto riguarda la possibilità che le immagini generate dall’intelligenza artificiale possano avere conseguenze legali, la risposta è chiara: sì. Tuttavia, il punto in cui le cose si complicano è nell’implementazione di questo, e ci sono molteplici variabili in gioco.

Newsweek ha parlato con Michael P. Goodyear, professore associato alla New York Law School. In una email a Newsweekha sottolineato il TAKE IT DOWN Act, che, a suo dire, “crea conseguenze legali per i creatori e le piattaforme”.

Sebbene questo atto rappresenti una delle tutele legali più significative, Goodyear ha evidenziato alcune questioni chiave. Ad esempio, “Il governo è l’esecutore del TAKE IT DOWN Act. Sebbene le vittime abbiano il potere di inviare avvisi di rimozione, non possono utilizzare la legge per citare in giudizio il creatore o la piattaforma per imporre la conformità”.

“La rimozione delle immagini sessuali dai social media e dai siti web è stata l’obiettivo della legge perché il danno più significativo si verifica nella fase di diffusione”, ha aggiunto Goodyear.. “La legge non si è concentrata sulla regolamentazione degli strumenti di intelligenza artificiale per prevenire in primo luogo la creazione di deepfake sessualizzati. Mentre le aziende di intelligenza artificiale dovrebbero continuare a sviluppare protezioni adeguate, la natura non deterministica dei modelli di intelligenza artificiale significa che non potremo mai prevedere ogni risultato con certezza”, ha aggiunto Goodyear.

Goldberg, nel frattempo, ha spiegato come le conseguenze legali possano funzionare a livello individuale. “Gli individui che creano o distribuiscono immagini sessuali non consensuali, comprese quelle generate dall’intelligenza artificiale, possono affrontare gravi conseguenze civili e penali ai sensi delle leggi che affrontano lo sfruttamento sessuale, le molestie, le violazioni della privacy e gli abusi”, ha affermato.

E anche le piattaforme possono essere responsabili, quando “i loro strumenti contribuiscono materialmente alla creazione del danno attraverso scelte di progettazione del prodotto che ne rendono prevedibile l’uso improprio”, ha affermato Goldberg.

Seifullah ha tuttavia sottolineato che la geografia può svolgere un ruolo nelle conseguenze per gli individui. “Le conseguenze legali dipendono da fattori tra cui il luogo in cui le immagini sono state create e distribuite”, ha affermato. “A New York, ad esempio, le vittime possono citare in giudizio qualcuno che crea o condivide immagini deepfake non consensuali e sessualmente esplicite. Gli autori spesso si nascondono dietro account anonimi, rendendo difficile collegare le prove all’autore dell’abuso”, ha detto.

Guardando avanti

L’intelligenza artificiale è una tecnologia in rapida espansione che sta cambiando la forma del mondo alla velocità della luce. Ciò a sua volta significa che i legislatori, i legislatori e i creatori hanno la necessità di continuare ad adattarsi alla tecnologia e ai potenziali danni che essa comporta.

La conversazione innescata dalla creazione di queste immagini su X ha visto diffuse richieste di cambiamento. Lindsey Song, direttrice del Technology-Facilitated Abuse Initiative Sanctuary for Families e co-presidente della New York Cyber ​​Abuse Task Force, ha condiviso questi sentimenti con Newsweek.

“Senza un cambiamento significativo nei guardrail e nelle tutele legislative, credo che stiamo assistendo a un’ondata devastante di abusi che si scatenerà sulle sopravvissute alla violenza domestica”, ha affermato.

“Con ogni avvento della tecnologia, la facilità di creare account di social media, messaggistica, localizzatori Bluetooth, auto connesse e altro ancora, abbiamo subito visto queste tecnologie diventare un’arma contro i sopravvissuti quasi immediatamente.

“La potente tecnologia dell’intelligenza artificiale che crea immagini sessuali realistiche dei clienti è uno strumento straordinariamente pericoloso che deve essere regolamentato.”

Source link