ChatGPT nella lettura dei referti di laboratorio
Data:
Argomento: Medicina Clinica





Il sistema è stato testato come strumento per supportare il paziente nella interpretazione dei risultati degli esami di laboratorio.


E’ di esperienza quotidiana la difficoltà delle persone a comprendere le risposte degli esami e la sempre maggiore tendenza a ricercare le informazioni su internet, tanto che è stato coniato il termine Dr. Google. La disponibilità di un software validato a cui chiedere spiegazione in prima istanza con parole semplici potrebbe essere sicuramente utile.

Il gruppo di lavoro sull’intelligenza artificiale (WG-AI) della Federazione europea di chimica clinica e medicina di laboratorio (EFLM) ha testato l’efficacia del sistema di Ai nell’eseguire questo compito.
I ricercatori hanno dapprima stabilito i parametri di laboratorio da utilizzare poi definito 10 scenari clinici simulati ma “realistici” e li hanno sottoposti a ChatGPT, il sistema di intelligenza artificiale (IA) che da diversi mesi abbiamo iniziato a conoscere per le sue grandi potenzialità in ogni campo della medicina.

Lo strumento è stato in grado di riconoscere tutti i test di laboratorio, evidenziare i risultati anormali e fornire una interpretazione complessiva, peraltro superficiale, non sempre corretta e, solo in alcuni casi, valutata in maniera coerente. In pratica il sistema, nella sua forma attuale, non essendo specificatamente addestrato su dati medici o di laboratorio in particolare, può soltanto interpretare un singolo referto di laboratorio, ma non un quadro diagnostico nel suo complesso.

ChatGPT è risultato sicuro, nel senso che evita di dare raccomandazioni sbagliate, ma nel complesso di scarsa utilità clinica, perché i suggerimenti forniti non hanno la qualità di quelli dei medici e sollevano il paziente dal bisogno di rivolgersi a loro solo nei casi più semplici. Gli autori fanno l’esempio di alcune risposte come: “l’ematocrito è basso, ciò suggerisce che la proporzione di volume ematico composta da globuli rossi è più bassa del normale” oppure: “il glucosio è basso, ciò potrebbe indicare ipoglicemia”. Queste frasi sono sicuramente corrette, rilevanti e sicure ma non veramente utili.

Secondo i ricercatori, questi strumenti non sono ancora pronti per una valida implementazione, ma le generazioni future di IA simili, addestrate con dati di qualità, potranno sicuramente rivoluzionare la pratica medica……staremo a vedere.


Giampaolo Collecchia e Riccardo De Gobbi


Bibliografia

Cadamuro J, Cabitza F, Debeljak Z et al. Potentials and pitfalls of ChatGPT and natural-language artificial intelligence models for the understanding of laboratory medicine test results. An assessment by the European Federation of Clinical Chemistry and Laboratory Medicine (EFLM) Working Group on Artificial Intelligence (WG-AI). Clin Chem Lab Med 2023; 61(7): 1158-1166







Questo Articolo proviene da Scienza e Professione - (Daniele Zamperini Medico)
http://www.scienzaeprofessione.it

L'URL per questa storia è:
http://www.scienzaeprofessione.it/modules.php?name=News&file=article&sid=2633