Non proprio, secondo il dottor Michael Wright, presidente del Royal Australian College of General Practitioners (RACGP).
“I medici di base, come tutti gli altri, stanno esaminando da vicino l’intelligenza artificiale e cercando di capire dove può aiutarci a essere più efficienti, ottenere informazioni migliori e fornire cure migliori”, ha detto a nine.com.au.
“Ma certamente non è qualcosa che qualcuno dovrebbe sentire come se gli venisse imposto.”
Circa il 40% dei medici di famiglia australiani sta già utilizzando gli strumenti di scrittura dell’intelligenza artificiale per semplificare le consultazioni e migliaia presto avranno accesso alla nuova piattaforma di intelligenza artificiale MedLuma.
Per rispondere alle domande del medico di famiglia, si basa sulle linee guida cliniche australiane, su prove sottoposte a revisione paritaria, su contenuti approvati dal RACGP e sulla letteratura internazionale pertinente.

“Alcuni dei miei medici nel mio studio hanno nove o dieci schede aperte cercando di cercare in tutta una serie di siti diversi, linee guida mediche e articoli”, ha detto Barnett a nine.com.au.
“Ma se riesci a sintetizzarli rapidamente, questo aiuta.”
E con un milione di nuovi articoli pubblicati ogni anno nella letteratura medica, è diventato impossibile per i medici di base mantenersi aggiornati da soli.
MedLuma sarà distribuito su circa 40.000 desktop GP in agosto, a cui seguirà un’implementazione più ampia.
Barnett spera che possa aiutare i medici di famiglia oberati di lavoro accelerando le ricerche e semplificando le consultazioni dei pazienti.
Alcuni pazienti stanno già utilizzando strumenti generali di intelligenza artificiale come ChatGPT, Claude e Gemini per rispondere a domande mediche (con successo variabile).
Ma non tutti gli australiani sono d’accordo con l’introduzione dell’intelligenza artificiale nelle loro visite mediche.
Alcuni sono veementemente contrari all’intelligenza artificiale, citando la privacy dei dati e le preoccupazioni ambientali.
Hanno motivo di essere cauti, soprattutto considerando la frequenza con cui gli strumenti di intelligenza artificiale hanno allucinazioni e sputano con sicurezza false informazioni.
MedLuma afferma di disporre di validatori clinici umani per verificare le sue informazioni e di programmi integrati per proteggere la privacy dei dati dei pazienti, ma non tutti gli strumenti di intelligenza artificiale sono adatti all’uso clinico.
Wright ha affermato che i pazienti possono parlare con il proprio medico di famiglia o con il responsabile dello studio se hanno dubbi sull’uso dell’intelligenza artificiale durante i loro appuntamenti.

Ma ha anche affermato che gli strumenti di intelligenza artificiale clinica come MedLuma diventeranno solo più comuni.
Il RACGP, l’Agenzia australiana per la salute digitale e gli assicuratori medici sono tutti in procinto di sviluppare linee guida per regolamentare il modo in cui i medici di base utilizzano questi strumenti di intelligenza artificiale.
“Ciò che vogliamo veramente essere sicuri è che utilizziamo questi strumenti, ma lo facciamo in modo sicuro e con la cura del paziente al centro”, ha affermato Wright.
Resta ancora da vedere come il pubblico in generale risponderà all’aumento dell’uso dell’intelligenza artificiale nella pratica medica locale.
NON PERDERE MAI UNA STORIA: Ricevi prima le ultime notizie e le storie esclusive seguendoci su tutte le piattaforme.



