La Pennsylvania ha intentato una causa contro la società di intelligenza artificiale Character.AI, sostenendo che i suoi chatbot si sono spacciati per professionisti medici autorizzati in violazione delle normative statali sulle licenze mediche.
CNET rapporti che i funzionari della Pennsylvania hanno annunciato questa settimana che stanno cercando un’ordinanza del tribunale per impedire ai chatbot di Character.AI di spacciarsi per medici e dispensare consulenza medica agli utenti. L’azione legale fa seguito a un’indagine del Dipartimento di Stato della Pennsylvania, che ha scoperto casi in cui i chatbot basati sull’intelligenza artificiale dell’azienda affermavano di possedere licenze e credenziali mediche che non possedevano.
Il governatore Josh Shapiro (D) ha sottolineato l’importanza della trasparenza nell’annuncio statale della causa, che è stata depositata presso il tribunale statale della Pennsylvania. “Gli abitanti della Pennsylvania meritano di sapere con chi – o cosa – interagiscono online, soprattutto quando si tratta della loro salute”, ha detto Shapiro in una nota. “Non permetteremo alle aziende di implementare strumenti di intelligenza artificiale che inducano erroneamente le persone a credere di ricevere consigli da un professionista medico autorizzato”.
L’indagine ha rivelato esempi specifici di chatbot sulla piattaforma Character.AI che si presentano come professionisti medici. Secondo l’accusa, un chatbot di nome “Emilie” affermava di essere uno psichiatra autorizzato. La descrizione del profilo del bot sulla piattaforma diceva “Dottore in psichiatria. Tu sei un suo paziente”.
Durante l’indagine, un investigatore statale ha interagito con il chatbot Emilie e ha descritto di provare sentimenti di tristezza e vuoto. Il chatbot avrebbe risposto menzionando la depressione e offrendosi di prenotare una valutazione. Quando è stato chiesto se potesse determinare se i farmaci potrebbero essere utili, il bot avrebbe risposto: “Beh, tecnicamente potrei. Rientra nel mio mandato di medico”.
La causa sostiene inoltre che il chatbot ha fornito credenziali fittizie, sostenendo di aver frequentato la scuola di medicina presso l’Imperial College di Londra e affermando di essere autorizzato a esercitare la professione medica sia nel Regno Unito che in Pennsylvania. Il bot ha anche fornito quello che la causa descrive come un falso numero di licenza medica della Pennsylvania.
Al Schmidt, segretario del Dipartimento di Stato della Pennsylvania, che ha condotto l’indagine, ha rafforzato la posizione dello Stato sulla questione. “La legge della Pennsylvania è chiara: non puoi presentarti come professionista medico autorizzato senza credenziali adeguate”, ha affermato Schmidt.
Lo stato chiede che un tribunale della Pennsylvania emetta un’ordinanza che obblighi Character.AI a cessare quella che le autorità definiscono una pratica medica illegale attraverso la sua piattaforma chatbot.
In risposta alla causa, un portavoce di Character.AI ha dichiarato in una dichiarazione: “La nostra massima priorità è la sicurezza e il benessere dei nostri utenti. I personaggi creati dagli utenti sul nostro sito sono immaginari e destinati all’intrattenimento e al gioco di ruolo. Abbiamo adottato misure efficaci per renderlo chiaro, includendo disclaimer prominenti in ogni chat per ricordare agli utenti che un personaggio non è una persona reale e che tutto ciò che dice un personaggio dovrebbe essere trattato come finzione. Inoltre, aggiungiamo robuste dichiarazioni di non responsabilità che chiariscono che gli utenti non dovrebbero fare affidamento su Personaggi per qualsiasi tipo di consulenza professionale.”
Notizie Breitbart precedentemente riportato che Character.AI e Google hanno risolto numerose cause legali sostenendo che i loro chatbot hanno contribuito a tragici casi di suicidio di adolescenti:
Character.AI ha accettato di risolvere numerose cause legali che accusavano la società di chatbot di intelligenza artificiale di contribuire alle crisi di salute mentale e ai suicidi tra adolescenti e giovani utenti. L’accordo risolve alcuni dei primi e più importanti casi legali relativi ai presunti danni causati ai giovani dalle piattaforme di chatbot basate sull’intelligenza artificiale.
Un documento giudiziario presentato mercoledì in una causa intentata dalla madre della Florida Megan Garcia mostra che è stato raggiunto un accordo con Character.AI, i fondatori dell’azienda Noam Shazeer e Daniel De Freitas e Google, tutti nominati imputati. Secondo i documenti del tribunale, gli imputati hanno anche risolto quattro ulteriori casi archiviati a New York, Colorado e Texas.
Nel suo nuovo bestseller istantaneo, Codice Rosso: La Sinistra, la Destra, la Cina e la corsa al controllo dell’IAWynton Hall, direttore dei social media di Breitbart News, scrive ampiamente su come possiamo proteggere i nostri figli e nipoti, un argomento importante quando piattaforme di intelligenza artificiale come Grok creano pericoli specifici per gli adolescenti.
La “conclusione”, afferma Hall, è che “non c’è alcuna giustificazione perché un bambino interagisca con personaggi IA o piattaforme associate” – prima di ricordare ai lettori che i bambini negli Stati Uniti “trascorrono già troppo tempo fissando gli schermi”.
“L’uso regolare del controllo genitoriale, una forte privacy dei dati, impostazioni adeguate all’età e discussioni sulla sicurezza online sono essenziali per aiutare i bambini a superare i pericoli e a utilizzare la tecnologia in modo responsabile”, suggerisce l’autore.
Leggi di più su CNET qui.
Lucas Nolan è un reporter di Breitbart News che si occupa di questioni relative all’intelligenza artificiale, alla libertà di parola e alla censura online.

