HomeCronacaIntelligenza artificiale contro intelligenza artificiale: i pazienti utilizzano robot per combattere gli...

Intelligenza artificiale contro intelligenza artificiale: i pazienti utilizzano robot per combattere gli assicuratori sanitari che negano le cure

Nuovi programmi basati sull’intelligenza artificiale offrono aiuto ai pazienti ostacolati dai rifiuti assicurativi.

Di Anna Claire Vollers per confine di stato


Mentre gli stati si sforzano di frenare l’uso dell’intelligenza artificiale da parte degli assicuratori sanitari, pazienti e medici si stanno armando di strumenti di intelligenza artificiale per combattere il rifiuto delle richieste di indennizzo, le autorizzazioni preventive e l’impennata delle spese mediche.

Diverse aziende e organizzazioni no-profit hanno lanciato strumenti basati sull’intelligenza artificiale per aiutare i pazienti a ottenere il pagamento delle richieste di indennizzo assicurativo e a gestire le bizantine fatture mediche, creando un tiro alla fune robotico su chi riceve le cure e chi ne paga le spese.

Sheer Health, un’azienda fondata tre anni fa che aiuta pazienti e fornitori a gestire l’assicurazione sanitaria e la fatturazione, ora ha un’app che consente ai consumatori di collegare il proprio conto di assicurazione sanitaria, caricare fatture e richieste di risarcimento e porre domande su franchigie, ticket e benefici coperti.

“Si potrebbe pensare che ci sia una sorta di tecnologia in grado di spiegare in inglese reale perché ricevo una fattura di 1.500 dollari”, ha detto il cofondatore Jeff Witten. Il programma utilizza sia l’intelligenza artificiale che gli esseri umani per fornire risposte gratuitamente, ha affermato. I pazienti che desiderano ulteriore supporto per contestare una richiesta respinta o gestire rimborsi fuori rete possono pagare Sheer Health per gestirli per loro.

Nella Carolina del Nord, l’organizzazione no-profit Salute della controforza ha progettato un assistente AI per aiutare i pazienti a presentare ricorso contro le richieste di risarcimento negate all’assicurazione sanitaria e a combattere ingenti spese mediche. Il servizio gratuito utilizza modelli di intelligenza artificiale per analizzare la lettera di rifiuto di un paziente, quindi esamina la politica del paziente e la ricerca medica esterna per redigere una lettera di ricorso personalizzata.

Altri servizi incentrati sul consumatore utilizzano l’intelligenza artificiale per rilevare errori di fatturazione O analizzare il gergo medico. Alcuni pazienti sono pari rivolgendosi ai chatbot IA come Grok per chiedere aiuto.

FILE - La storia di ChatGPT raccontata da un adolescente viene vista in un bar a Russellville, Ark., il 15 luglio 2025. (AP Photo/Katie Adkins, File)
La cronologia ChatGPT di una persona viene vista in un bar in Arkansas a luglio.

Secondo uno studio, un quarto degli adulti sotto i 30 anni ha dichiarato di utilizzare un chatbot dotato di intelligenza artificiale almeno una volta al mese per informazioni o consigli sanitari. sondaggio l’organizzazione no profit KFF per la ricerca sanitaria pubblicata nell’agosto 2024. Ma la maggior parte degli adulti hanno affermato di non essere sicuri che le informazioni sanitarie siano accurate.

I legislatori statali su entrambi i fronti, nel frattempo, stanno facendo di tutto per tenere il passo, approvando nuove normative che regolano il modo in cui assicuratori, medici e altri utilizzano l’intelligenza artificiale nell’assistenza sanitaria. Già quest’anno, più di una dozzina di stati hanno approvato leggi che regolano l’intelligenza artificiale nell’assistenza sanitaria, secondo Manatt, una società di consulenza.

“Non sembra un risultato soddisfacente avere solo due robot che discutono avanti e indietro sull’opportunità o meno di un paziente di accedere a un particolare tipo di cura”, ha affermato Carmel Shachar, assistente professore di diritto clinico e direttore della facoltà della Health Law and Policy Clinic presso la Harvard Law School.

“Non vogliamo salire su un tapis roulant abilitato all’intelligenza artificiale che accelera semplicemente.”

Una scatola nera

L’assistenza sanitaria può sembrare una scatola nera. Se il tuo medico dice che hai bisogno di un intervento chirurgico, ad esempio, il costo dipende da un numero vertiginoso di fattori, tra cui il tuo fornitore di assicurazione sanitaria, il tuo piano sanitario specifico, i suoi requisiti di ticket, la tua franchigia, dove vivi, la struttura in cui verrà eseguito l’intervento, se quella struttura e il tuo medico sono in rete e la tua diagnosi specifica.

Alcuni assicuratori potrebbero richiedere l’autorizzazione preventiva prima che un intervento chirurgico venga approvato. Ciò può comportare un’ampia documentazione medica. Dopo un intervento chirurgico, il risultato conto può essere difficile da analizzare.

Witten, di Sheer Health, ha detto che la sua azienda ha visto migliaia di casi di pazienti i cui medici raccomandavano una determinata procedura, come un intervento chirurgico, e poi pochi giorni prima dell’intervento il paziente apprende che l’assicurazione non l’ha approvata.

Negli ultimi anni, come hanno fatto più compagnie di assicurazione sanitaria si è rivolto all’intelligenza artificiale per automatizzare l’elaborazione dei sinistri e le autorizzazioni preventive, la quota dei sinistri respinti è aumentata. Quest’anno, secondo l’indagine, il 41% dei medici e degli altri operatori sanitari ha affermato che le loro richieste vengono respinte più del 10% delle volte, rispetto al 30% degli operatori che lo affermavano tre anni fa. un rapporto di settembre dalla società di reporting creditizio Experian.

Gli assicuratori sui mercati Affordable Care Act hanno negato quasi 1 su 5 richieste in rete nel 2023, rispetto al 17% nel 2021e più di un terzo dei sinistri fuori rete, secondo gli ultimi dati disponibili di KFF.

Il gigante assicurativo UnitedHealth Group è finito nel mirino media e da federale legislatori per aver utilizzato algoritmi per negare sistematicamente l’assistenza agli anziani, mentre Umanità e altri assicuratori devono affrontare cause legali E indagini normative che affermano di aver utilizzato sofisticati algoritmi per bloccare o negare la copertura per le procedure mediche.

Gli assicuratori affermano che gli strumenti di intelligenza artificiale possono migliorare l’efficienza e ridurre i costi automatizzando attività che possono comportare l’analisi di grandi quantità di dati. E le aziende affermano che stanno monitorando la propria intelligenza artificiale per identificare potenziali problemi. Un rappresentante di UnitedHealth ha indirizzato Stateline all’AI Review Board dell’azienda, un team di medici, scienziati e altri esperti che esamina i suoi modelli di intelligenza artificiale per verificarne l’accuratezza e l’equità.

“I piani sanitari si impegnano a utilizzare in modo responsabile l’intelligenza artificiale per creare un’esperienza del cliente più fluida e in tempo reale e per rendere la gestione dei sinistri più rapida ed efficace per pazienti e fornitori”, ha detto a Stateline un portavoce di America’s Health Insurance Plans, il gruppo commerciale nazionale che rappresenta gli assicuratori sanitari.

FILE - Un agente assicurativo parla con i clienti all'interno della sede principale di Las Madrinas de los Seguros, in spagnolo
Un agente assicurativo parla con i clienti nel 2024.

Ma gli Stati stanno intensificando la vigilanza.

Arizona, Maryland, Nebraska E Texasad esempio, hanno vietato alle compagnie di assicurazione di utilizzare l’intelligenza artificiale come unico decisore nell’autorizzazione preventiva o nel rifiuto di necessità mediche.

Il dottor Arvind Venkat è un medico del pronto soccorso nella zona di Pittsburgh. È anche un rappresentante dello stato democratico della Pennsylvania e lo sponsor principale di un bipartisan conto regolamentare l’uso dell’IA in sanità.

Ha visto le nuove tecnologie rimodellare l’assistenza sanitaria durante i suoi 25 anni in medicina, ma l’intelligenza artificiale sembra completamente diversa, ha detto. È un “attore attivo” nella cura delle persone in un modo che altre tecnologie non lo sono state.

“Se saremo in grado di sfruttare questa tecnologia per migliorare l’erogazione e l’efficienza delle cure cliniche, sarà un enorme vantaggio”, ha affermato Venkat. Ma è preoccupato per l’uso dell’intelligenza artificiale senza guardrail.

La sua legislazione costringerebbe gli assicuratori e gli operatori sanitari in Pennsylvania a essere più trasparenti su come utilizzano l’intelligenza artificiale; richiedere che sia un essere umano a prendere la decisione finale ogni volta che viene utilizzata l’intelligenza artificiale; e imporre loro di dimostrare di ridurre al minimo i pregiudizi nell’uso dell’intelligenza artificiale.

“Nell’assistenza sanitaria, dove è così personale e la posta in gioco è così alta, dobbiamo assicurarci di imporre a ogni paziente di applicare l’intelligenza artificiale in modo da considerare il singolo paziente”, ha affermato Venkat.

Supervisione del paziente

Storicamente, i consumatori raramente contestano le richieste respinte: un’analisi KFF ha rilevato che meno dell’1% dei dinieghi di copertura sanitaria vengono impugnati. E anche quando lo sono, i pazienti perdono più della metà di questi ricorsi.

Nuovi strumenti di intelligenza artificiale incentrati sul consumatore potrebbero spostare questa dinamica rendendo i ricorsi più facili da presentare e il processo più semplice da comprendere. Ma ci sono dei limiti; senza la supervisione umana, dicono gli esperti, l’intelligenza artificiale è vulnerabile agli errori.

“Può essere difficile per un profano capire quando l’intelligenza artificiale sta facendo un buon lavoro e quando è un’allucinazione o dà qualcosa che non è del tutto accurato”, ha detto Shachar, della Harvard Law School.

Ad esempio, uno strumento di intelligenza artificiale potrebbe redigere una lettera di appello che un paziente ritiene impressionante. Ma poiché la maggior parte dei pazienti non sono esperti medici, potrebbero non riconoscere se l’intelligenza artificiale riporta in modo errato le informazioni mediche, facendo fallire un appello, ha detto.

“La sfida è: se è il paziente a guidare il processo, sarà in grado di supervisionare adeguatamente l’intelligenza artificiale?” ha detto.

All’inizio di quest’anno, Mathew Evins ha appreso solo 48 ore prima dell’intervento programmato alla schiena che il suo assicuratore non l’avrebbe coperto. Evins, un dirigente delle pubbliche relazioni di 68 anni che vive in Florida, ha collaborato con il suo medico per presentare appello, ma non è arrivato a nulla. Ha utilizzato un chatbot basato sull’intelligenza artificiale per redigere una lettera al suo assicuratore, ma anche questo ha fallito.

Su consiglio di suo figlio, Evins si è rivolto a Sheer Health. Ha detto che Sheer ha identificato un errore di codifica nella sua cartella clinica e ha gestito le comunicazioni con il suo assicuratore. L’intervento è stato approvato circa tre settimane dopo.

“È un peccato che il sistema sanitario pubblico sia così compromesso da aver bisogno che una terza parte intervenga a favore del paziente”, ha detto Evins a Stateline. Ma è grato che la tecnologia abbia reso possibile un intervento chirurgico che cambia la vita.

“L’intelligenza artificiale di per sé non è una risposta”, ha detto. “L’intelligenza artificiale, se utilizzata da un professionista che comprende le problematiche e le ramificazioni di un particolare problema, è una storia diversa. Allora hai uno strumento efficace.”

La maggior parte degli esperti e dei legislatori concordano che sia necessario un essere umano per tenere sotto controllo i robot.

L’intelligenza artificiale ha consentito alle compagnie assicurative di valutare rapidamente i casi e decidere se autorizzare interventi chirurgici o coprire determinate cure mediche. Ma quella capacità di prendere decisioni fulminee dovrebbe essere mitigata da un essere umano, ha detto Venkat.

“Ecco perché abbiamo bisogno di una regolamentazione governativa e perché dobbiamo assicurarci di imporre una valutazione individualizzata con un decisore umano”.

Vignetta di David Horsey

Witten ha affermato che ci sono situazioni in cui l’intelligenza artificiale funziona bene, come quando esamina una polizza assicurativa – che è essenzialmente un contratto tra l’azienda e il consumatore – e collega i punti tra la copertura della polizza e una corrispondente richiesta di indennizzo assicurativo.

Ma, ha detto, “ci sono casi complicati là fuori che l’intelligenza artificiale non riesce proprio a risolvere”. Questo è il momento in cui è necessario un essere umano per la revisione.

“Penso che ci sia un’enorme opportunità per l’intelligenza artificiale di migliorare l’esperienza del paziente e l’esperienza complessiva del fornitore”, ha affermato Witten. “Il punto in cui mi preoccupo è quando ci sono compagnie assicurative o altri attori che utilizzano l’intelligenza artificiale per sostituire completamente l’assistenza clienti e l’interazione umana”.

Inoltre, un crescente numero di ricerche ha scoperto che l’intelligenza artificiale può rafforzare i pregiudizi riscontrati altrove in medicina, discriminante donne, minoranze etniche e razziali e coloro che hanno un’assicurazione pubblica.

“Le conclusioni dell’intelligenza artificiale possono rafforzare i modelli discriminatori e violare la privacy in modi contro i quali abbiamo già legiferato”, ha affermato Venkat.

Source link

RELATED ARTICLES

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Most Popular

Recent Comments