
Una recente causa intentata presso la Corte Superiore di San Diego sostiene che Sharp HealthCare ha registrato conversazioni tra medici e pazienti senza consenso scritto, utilizzando le informazioni per documentare le visite con un intelligenza artificiale programma sviluppato da una società privata a Pittsburgh.
Sebbene la causa si concentri su un particolare operatore sanitario nella contea di San Diego, che tenta di creare un’azione legale collettiva composta da pazienti Sharp, punta anche i riflettori sulla silenziosa ma ampia adozione del software di trascrizione clinica basato sull’intelligenza artificiale in tutta la medicina tradizionale.
Un sondaggio tra i fornitori di servizi sanitari di San Diego, effettuato dopo la presentazione della causa il 26 novembre, mostra che diversi fornitori nella regione stanno utilizzando sistemi simili.
Il Rady Children’s Hospital di San Diego ha dichiarato in una e-mail che “sta attualmente conducendo un progetto pilota limitato di tecnologia di scrittura ambientale con i medici tenuti a ottenere il consenso del paziente prima dell’uso”. L’UC San Diego Health ha confermato di utilizzare un sistema chiamato Nabla, che ha installato “dopo un approfondito controllo della sicurezza”. Il sistema sanitario universitario afferma di richiedere il consenso del paziente prima di utilizzare il sistema, che include “un consenso scritto annuale (più) un consenso verbale da parte del paziente e di tutte le parti presenti nell’aula d’esame ad ogni visita”. Kaiser Permanente ha affermato in una nota che i suoi medici “hanno accesso a uno strumento di assistenza alla documentazione clinica che li supporta nell’acquisizione sicura delle note cliniche iniziali durante le visite con i pazienti, consentendo loro di concentrarsi maggiormente sulla cura del paziente”. Kaiser afferma che il suo sistema “richiede che il team di assistenza chieda il permesso ai nostri pazienti e alle altre persone che li accompagnano prima di utilizzare lo strumento”.
Scripps Health, uno dei quattro grandi fornitori di servizi sanitari nel mercato di San Diego, ha rifiutato di discutere se utilizza un tale sistema, affermando in una dichiarazione che “non è un argomento di cui discuteremo”.
Il Paradise Valley Hospital ha affermato di non utilizzare alcun tipo di sistema di intelligenza artificiale per prendere appunti, mentre Palomar Health e Tri-City Medical Center nella contea di North non hanno risposto alla domanda.
Alla richiesta di un commento sull’accusa della causa secondo cui non avrebbe informato adeguatamente i pazienti del suo sistema di documentazione medica, Sharp ha affermato che mentre “la sicurezza e la privacy dei pazienti sono le nostre massime priorità in ogni momento”, non è “in grado di commentare le controversie in corso”.
La causa, intentata per conto del paziente Sharp Jose Saucedo dall’avvocato Robert Salgado, chiede la certificazione come azione collettiva e sostiene che Sharp ha violato le leggi sulla privacy medica “registrando di nascosto intere consultazioni mediche utilizzando dispositivi di registrazione elettronica e sistemi di elaborazione basati su cloud senza preavviso o consenso”.
La causa chiede danni compensativi e punitivi non specificati, affermando inoltre che il codice penale statale consente un risarcimento di 5.000 dollari per violazione.
Le registrazioni, afferma la causa, sono state trasmesse ad Abridge, una società tecnologica con sede a Pittsburgh che ha recentemente ricevuto importanti investimenti nel settore tecnologico nel suo sistema abilitato all’intelligenza artificiale, che, secondo quanto affermato in un comunicato stampa del 10 dicembre, è ora utilizzato “in più di 200 strutture di assistenza ambulatoriale all’anno”.
L’azienda ha pubblicato informazioni sul proprio sito Web che aiutano i propri clienti e il pubblico a conoscere come opera.
Una voce “nozioni di base sulla registrazione” nel centro di assistenza clienti dell’azienda esorta i medici ad “assicurarsi di seguire le linee guida raccomandate dalla propria organizzazione per il consenso del paziente”, fornendo anche un linguaggio di esempio che potrebbe essere utilizzato in tali situazioni.
Abridge suggerisce che i medici potrebbero dire: “Utilizzerò uno strumento che registra la nostra conversazione per aiutarmi a scrivere la mia nota clinica, così potrò prestare più attenzione alla nostra conversazione e meno tempo al computer. Per te va bene?”
La tecnologia utilizza un’applicazione installata sullo smartphone del medico per effettuare la registrazione, che un elenco di “migliori pratiche” indica dovrebbe essere posizionata “tra te e il tuo paziente senza ostacoli”. Abridge afferma inoltre sul suo sito Web che la sua tecnologia è “conforme al 100% HIPAA e utilizza le migliori pratiche del settore per proteggere le informazioni dei pazienti”, indicando che i dati raccolti “vengono sempre archiviati tramite canali sicuri” conformi all’HIPAA, l’Health Insurance Portability and Accountability Act del 1996, che impedisce la divulgazione non autorizzata di informazioni sensibili sui pazienti.
Ma Abridge punta anche sulla privacy politica per il suo sito web che crea accordi sulla privacy separati con ciascuno dei suoi clienti, indirizzando i pazienti a “fare riferimento all’Informativa sulle pratiche sulla privacy del vostro fornitore per informazioni su come gestiscono le vostre (informazioni sanitarie protette). Sharp elenca una privacy politica sul suo sito web, sebbene il documento sia datato 14 aprile 2003.
Abridge dichiara di essere conforme al California Consumer Privacy Act e ai suoi sito web afferma che soddisfa i requisiti di livello due “Controlli di sistema e organizzazione” creati dall’American Institute of Certified Public Accountants. Tali norme specificano come le informazioni digitali dovrebbero essere mantenute sicure contro l’accesso non autorizzato, prive di corruzione e private. Abridge indica che la sua conformità alle regole SOC 2 è stata “convalidata da un revisore indipendente di terze parti per la sicurezza e la riservatezza”.
Un pubblico dichiarazione che Abridge ha pubblicato sul suo sito web nel 2020 afferma di aver utilizzato 10.000 ore di conversazioni trascritte tra medici e pazienti per addestrare i suoi modelli di intelligenza artificiale e che queste informazioni “non identificate” provenivano da “pazienti pienamente informati e consenzienti”. Un separato dichiarazione nel 2020 indica che tutte le attività di ricerca e sviluppo utilizzano dati anonimi e che tali informazioni vengono “acquisite con il consenso del paziente”. Ma non è chiaro se l’azienda utilizzi o meno le conversazioni del mondo reale trasmesse dai suoi clienti ai server di Abridge per analizzarle al fine di addestrare le future generazioni dei modelli dell’azienda.
La società non ha risposto a una richiesta di commento sulla questione.
I difensori della privacy sono sempre più preoccupati Di il mondo in rapido movimento dell’intelligenza artificiale mentre entra negli spazi più sensibili del mondo.
Sara Geoghegan, consulente legale senior dell’Electronic Privacy Information Center di Washington, DC, ha affermato che è abbastanza chiaro che è necessario il permesso del paziente quando vengono effettuate le registrazioni.
“Sicuramente, la trasparenza è un passo necessario così come lo sono la divulgazione e il consenso significativo”, ha affermato Geoghegan.
E quel consenso, ha aggiunto, non dovrebbe essere ottenuto una volta sola. Dovrebbe essere ottenuto da solo, ha aggiunto, e non aggiunto al voluminoso processo di pratiche burocratiche che i pazienti spesso devono affrontare durante una visita in studio.
“Dovrebbe essere un consenso liberamente informato e che possa essere revocato”, ha detto Geoghegan. “Una volta ogni 10 anni non è sufficiente.”
Il problema più grande, ha aggiunto, è quando l’uso dell’intelligenza artificiale nell’assistenza sanitaria passa dalla semplice trascrizione al processo decisionale. È già stato scoperto che le compagnie assicurative utilizzano sistemi di intelligenza artificiale per negare i sinistri, una pratica diventata illegale nel 2025 a causa di una nuova leggeil “Physicians Make Decisions Act”, che richiede che le determinazioni della necessità medica siano prese “solo da un medico autorizzato o da un professionista sanitario autorizzato competente a valutare le specifiche questioni cliniche coinvolte nei servizi sanitari richiesti dal fornitore”.
“Penso che sia qui che conta l’uso e quali siano i limiti della tecnologia”, ha detto Geoghegan. “Per me, un medico che svolge tutto il lavoro medico ma utilizza la tecnologia per prendere parte degli appunti, è molto diverso da una situazione che coinvolge l’intelligenza artificiale generativa, in cui un medico sta conversando con un paziente e quindi uno strumento di intelligenza artificiale generativa è quello che diagnostica, segnala e, sai, svolge quei compiti che appartengono al medico.”
Non sembra che Abridge abbia attraversato quel particolare Rubicone. Le dichiarazioni pubbliche dell’azienda sui suoi prodotti indicano che lo scopo principale del sistema è documentare accuratamente le conversazioni medico-paziente, ma i medici devono rivedere le informazioni risultanti e apportare le correzioni necessarie prima che vengano aggiunte alla cartella clinica ufficiale del paziente.



