Responsabile: 
Daniele Zamperini 
O.M. Roma 19738 -
O. d. G. Lazio e Molise 073422  
daniele.zamperini@gmail.com
 
 
I Principi di questo sito 
Ordine_medici_padova.gif (3418 byte)
Patrocinato da O.M. della Provincia di Padova
Scienza e Professione
Portale Telematico di informazione scientifica e professionale



Mezzo secolo di professione Medica.

Medicina, Biologia, Psicologia, Normativa e Scienze Varie: tutto cio' che fa cultura - Sito Gratuito - Gestore Daniele Zamperini - P.IVA: 01743690586

Modules
· Home
· Archivio Generale
· Ultimi Articoli per Argomento
· Utilità scaricabili
· FAQ - Cosa faccio se...?
· Cerca in Archivio
· Archivio Cronologico
· Web Links
· Amministrazione


 
Come usare la IA in medicina: preziosi suggerimenti dal NEJM
Pubblicato da dzamperini in data 15/03/2026 00:00
Pensieri e opinioni professionali



Un recente articolo affronta il problema di come guidare e supervisionare l’uso dell’Intelligenza Artificiale da parte di studenti e medici in formazione


Gli autori iniziano definendo i concetti di deskilling, never-skilling e mis-skilling [1]. Per deskilling si intende la perdita progressiva di competenze che il discente aveva iniziato a sviluppare: ad esempio, un giovane medico che si affida sempre al referto automatico dell’ECG può, nel tempo, perdere la propria abilità di interpretarlo da solo [2]. Never-skilling indica competenze che non nascono mai, perché sin dall’inizio il lavoro viene delegato alla macchina: lo studente usa l’IA per fare diagnosi, scrivere appunti o preparare casi, senza mai esercitare veramente il proprio ragionamento clinico.
Mis-skilling descrive invece l’apprendimento di schemi errati, quando l’IA è imprecisa o distorta e il discente interiorizza inconsapevolmente quei bias.

Alla base di questi fenomeni c’è il cognitive off-loading: l’abitudine a “scaricare” su strumenti esterni funzioni mentali come memoria, calcolo, analisi dei dati, decisione. L’off-loading non è di per sé negativo: può ridurre il carico sulla memoria di lavoro, aumentare l’efficienza, liberare tempo per compiti complessi. Ma, se diventa sistematico e non viene gestito criticamente, genera quello che gli autori chiamano debito cognitivo: un vantaggio immediato in termini di comodità e velocità, pagato nel tempo con una riduzione dell’impegno mentale, dell’approfondimento e della capacità di pensare in modo autonomo.

Per aiutare docenti e tutor clinici a strutturare questa supervisione, viene proposto il modello DEFT-AI. La sigla riassume una sequenza di passi: Diagnosis/Discussion/Discourse, Evidence, Feedback, Teaching e, infine, AI engagement recommendation. Nella fase di “Diagnosis/Discussion/Discourse” il tutor chiede allo studente di esplicitare il proprio ragionamento: quali diagnosi aveva in mente, che informazioni aveva considerato, come ha usato l’IA e quali prompt ha inserito. Nella fase “Evidence” si valutano le prove: sia le evidenze cliniche a favore di una certa ipotesi diagnostica, sia le evidenze a supporto dell’uso di quello specifico strumento di IA per quel compito. Segue la fase di “Feedback”, in cui l’educatore stimola l’auto-valutazione del discente, lo aiuta a riconoscere punti di forza e criticità nel modo in cui ha ingaggiato l’IA. La fase di “Teaching” è il momento in cui si consolidano apprendimenti clinici e si chiariscono i limiti, i bias e le corrette modalità d’uso dell’IA. Infine, con “AI engagement recommendation”, il tutor dà indicazioni pratiche su come e quando, in futuro, lo studente dovrebbe usare l’IA: quando è appropriato, quando servirà una supervisione più stretta, quando è meglio affidarsi prima al proprio ragionamento e solo dopo confrontarsi con la macchina.

Un altro contributo dell’articolo è la distinzione tra due profili metaforici di collaborazione uomo–IA: il “centauro” e il “cyborg”. Il “centauro” rappresenta una cooperazione in cui il professionista divide i compiti con l’IA: alcune attività sono svolte dalla macchina (sintesi o riassunto di testi, analisi dati, conversazioni, stesura di bozze, prima versione di testi, documenti), altre restano chiaramente in mano all’umano (giudizio clinico, processo decisionale ultimo. In questa modalità, l’IA è principalmente uno strumento di decision support: suggerisce, offre spunti, ma il giudizio finale rimane saldamente umano. Il profilo “cyborg” descrive invece una integrazione più stretta, in cui l’utente e l’IA co-producono l’output attraverso iterazioni continue, correzioni, co-scrittura; questa modalità può essere molto efficiente per compiti ripetitivi e a basso rischio, ma se non viene regolata può favorire deskilling e dipendenza. L’idea degli autori è che il clinico debba sviluppare la capacità di passare flessibilmente dall’una all’altra modalità, in base al rischio del compito, al livello di validazione dello strumento e al proprio livello di esperienza.

Su questo sfondo, l’articolo insiste sulla necessità di una vera alfabetizzazione all’IA (AI literacy) in ambito medico. Non basta saper “usare” un chatbot: occorre saper valutare la qualità del tool e dei suoi output con la stessa mentalità con cui si valutano studi e linee guida. Questo significa porsi domande come: per quale scopo è stato progettato questo modello? Con quali dati è stato addestrato? Quali sono i suoi limiti e i possibili bias? Ci sono evidenze pubblicate sulla sua accuratezza per il compito che gli sto assegnando?
Parallelamente, è importante imparare a formulare prompt efficaci, espliciti e non fuorvianti, evitando domande che spingano l’IA a confermare ciò che l’utente pensa già. In molti casi, può essere utile chiedere all’IA di esplicitare il proprio “ragionamento”, in modo da poterlo discutere criticamente con il tutor.

Nelle conclusioni, gli autori propongono di sostituire la logica ingenua del “trust and go” con una prospettiva di “verify and trust”: prima si verifica la coerenza e la qualità dell’output, poi ci si può fidare entro limiti chiari, mantenendo comunque un atteggiamento vigile. Allo stesso tempo, riconoscono che non si può scaricare solo sul singolo clinico la responsabilità di controllare tutto: servono curricula formativi che includano l’IA, regole chiare per lo sviluppo e l’uso degli strumenti, procedure di validazione rigorose e un monitoraggio sistematico degli errori e degli effetti educativi dell’automazione. Solo in questo modo l’IA potrà diventare un fattore di up-skilling, capace di potenziare apprendimento e pratica clinica, invece che un motore silenzioso di deskilling.


Giampaolo Collecchia e Riccardo De Gobbi


Bibliografia

1) Raja-Elie E. Abdulnour et al. Educational Strategies for Clinical Supervision of Artificial Intelligence Use. N Engl J Med 2025;393:786-797 DOI: 10.1056/NEJMra2503232
2) http://https://www.pillole.org/public/aspnuke/news.asp?id=8843

 
Links Correlati
· Inoltre Pensieri e opinioni professionali
· News by dzamperini


Articolo più letto relativo a Pensieri e opinioni professionali:
La scelta di una Linea guida in Medicina generale



Valuta Articolo
Punteggio Medio: 0
Voti: 0

Per favore, prenditi qualche secondo e vota questo articolo:

Eccellente
Molto buono
Buono
Nella media
Pessimo



Opzioni

 Pagina Stampabile Pagina Stampabile



Argomenti Associati

Pensieri e opinioni professionali

Sito gestito e diretto da Daniele Zamperini, Roma, Medico e Giornalista-Pubblicista - Ultima modifica strutturale della pagina: 30/09/2012 - I singoli articoli riportano la data della loro pubblicazione
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2005 by me.
You can syndicate our news using the file backend.php or ultramode.txt
PHP-Nuke Copyright © 2005 by Francisco Burzi. This is free software, and you may redistribute it under the GPL. PHP-Nuke comes with absolutely no warranty, for details, see the license.
Generazione pagina: 0.43 Secondi