Responsabile: 
Daniele Zamperini 
O.M. Roma 19738 -
O. d. G. Lazio e Molise 073422  
daniele.zamperini@gmail.com
 
 
I Principi di questo sito 
Ordine_medici_padova.gif (3418 byte)
Patrocinato da O.M. della Provincia di Padova
Scienza e Professione
Portale Telematico di informazione scientifica e professionale

Noi aderiamo ai principi HONcode.Verify here  .

Medicina, Biologia, Psicologia, Normativa e Scienze Varie: tutto cio' che fa cultura - Sito Gratuito - Gestore Daniele Zamperini - P.IVA: 01743690586

Modules
· Home
· Archivio Generale
· Ultimi Articoli per Argomento
· Utilità scaricabili
· FAQ - Cosa faccio se...?
· Cerca in Archivio
· Archivio Cronologico
· Web Links
· Pannello utente
· Amministrazione


Who's Online
In questo momento ci sono, 23 Visitatori(e) e 0 Utenti(e) nel sito.

Vuoi accedere ai servizi del sito Scienza E Professione? Registrati Qui


Login
Nickname

Password

Se vuoi diventare un utente del sito puoi iscriverti Cliccando Qui. L'iscrizione permetterà di accedere ai servizi del sito.


 
Anche le super Intelligenze Artificiali sbagliano
Pubblicato da dzamperini in data 15/03/2021 00:00
Opinioni extraprofessionali



Ecco perché!  Solo il controllo sistematico ci può salvare


Negli ultimi anni i nuovi sistemi di intelligenza artificiale (IA) basati sull'apprendimento automatico non supervisionato (Deep Learning automatico) hanno destato forti entusiasmi per i risultati che continuano ad ottenere.
Tuttavia, come già avvenuto diverse volte nella storia dell'umanità, l'uomo si innamora spesso delle proprie scoperte e finisce con il sopravvalutarle, ignorandone i limiti e sottovalutandone i pericoli; questo fenomeno psicologico è ben noto agli studiosi di psicologia cognitiva che ne hanno ben descritto le conseguenze: è il noto bias della “overconfidence” la sopravvalutazione inconsapevole (1).
A ciò dobbiamo aggiungere il fatto che una quota significativa della letteratura tecnico-scientifica sulla intelligenza artificiale è prodotta da ricercatori retribuiti dalle multinazionali della informatica: a chi avesse perplessità in merito ricordiamo che un secolo di esperienza nella ricerca farmacologica ci ha dimostrato oltre ogni ragionevole dubbio che i conflitti di interesse condizionano sempre pesantemente il giudizio dei ricercatori, spesso in maniera inconsapevole (2).
Uno dei limiti delle soluzioni fornite dai sistemi di intelligenza artificiale è che queste non si basano solo sulla potenza delle reti neurali ma anche e soprattutto sulla qualità, quantità e modalità di introduzione dei dati.

A questo proposito è importante ricordare che:

1) I dati non parlano da soli: la modalità di ordinamento e di immissione delle informazioni influenzano le conclusioni che ne vengono tratte, sia nei sistemi controllati dagli uomini che, ancor più, nei sistemi non supervisionati: ad esempio dati raccolti in intervalli temporali diversi non sono sempre confrontabili perché le variabili e le dinamiche possono essere molto differenti (3)

2) Le variabili devono essere tutte ben note e definite così come dovrebbero essere note e definite le correlazioni tra le varie variabili: i dispositivi di intelligenza artificiale non sono spesso infatti in grado di riconoscere od escludere tali interferenze autonomamente.

3) E’ molto importante conoscere approfonditamente il problema e definire chiaramente gli obiettivi tenendo ben presente il contesto ed i fattori influenzanti. E’ famoso il simpatico episodio del premio IG Nobel per la medicina conferito nel 2019 a Silvano Gallus, geniale ricercatore dell'Istituto Mario Negri, per una ricerca sulla pizza. Una parte consistente della stampa medica divulgativa interpretò lo studio (correttamente descritto dal ricercatore!) come una dimostrazione dell'effetto protettivo della pizza verso vari tipi di cancro e malattie cardiovascolari. Gallus chiarì che l'effetto protettivo non era tanto nella pizza ma nella dieta mediterranea alla quale il frequente consumo di pizza era strettamente correlato (4)

4) Una quota importante degli errori dei sistemi di intelligenza artificiale sono dovuti al fatto che l'uomo utilizza vari tipi di memoria ( episodica, semantica, operativa-procedurale ecc),nonchè conoscenze implicite utilizzate all'occorrenza, mentre nei sistemi di intelligenza artificiale i processi di ragionamento devono essere accuratamente e dettagliatamente descritti fin nei minimi particolari dagli algoritmi. L'uomo, di fronte ad un problema inaspettato, non si mette a consultare algoritmi ma attinge a risorse di cui egli stesso non è consapevole, mentre l'intelligenza artificiale segue meccanicamente l'algoritmo.

Questo dato può forse spiegare tragici eventi come le tragedie dei Boeing schiantatisi al suolo per incapacità dei sistemi di guida automatica di modificare in tempi brevi la traiettoria, ma più spesso per fortuna hanno risvolti comici come quei sistemi super intelligenti che di fronte al problema di far passare un tavolo per una porta stretta anziché voltarlo od inclinarlo come avrebbe fatto un bambino di 10 anni, proposero di segare le gambe (5).


Ecco uno schema che può aiutare a comprendere I limiti della IA:

Modello tradizionale: esempio di ricerca basata su procedure di regressione logistica
1) Si raccolgono i dati sui pazienti
2) Si estraggono i fattori di rischio (ad esempio età, familiarità, abitudini voluttuarie precedenti malattie, etc)
3) Si assegna un “peso” a questi fattori e si calcola quindi il rischio totale ponderato.

Modello basato sul Deep Learning non supervisionato
1)Introduzione di grandi quantità di dati
2) Ricerca di correlazioni di ogni genere, anche casuali e spurie, tra i vari dati utilizzando in genere milioni di simulazioni matematiche
3)Si ottiene un risultato preliminare, si testa questo primo risultato e si valuta se sia coerente con le aspettative iniziali
4) Si ripete il processo per un numero elevato di volte fino ad ottenere le soluzioni desiderate.

Nell'approccio tradizionale la funzione critica ed autocritica di controllo è costantemente attiva: più precisamente vi è un controllo di struttura, di processo, e di risultato.
Nel Deep Learning supervisionato dovrebbe esservi altrettanta accuratezza, mentre in quello non supervisionato, molto più semplice e meno faticoso per gli umani, la incontrollabilità del processo porta ad accettare facilmente tutti quei risultati che siano compatibili con le nostre aspettative (si cade quindi spesso nel bias della aspettativa, ascertainment bias)
Il controllo è pertanto limitato alla struttura ed al risultato, il processo è incontrollabile.



Il problema degli sconosciuti limiti della IA, decisamente sottovalutato anche nel nostro Paese, è invece seriamente considerato dalla elite medica USA che recentemente nel prestigioso Jama ha proposto una vera e propria guida alla lettura critica degli studi che usano la IA in medicina (6).

Ne proponiamo qui i punti salienti:

Criteri di verifica di studi basati sul Deep Learning non supervisionato
1) Le conoscenze apportate dalla ricerca presentata sono coerenti con quanto già noto e dimostrato da altre ricerche?
2) Lo studio apporta nuove conoscenze?
3)Lo studio comporta modifiche nella consueta pratica diagnostica o terapeutica?
4) Tali innovazioni possono migliorare la qualità della diagnostica e della terapia? Ed a quale prezzo?
5)Tali innovazioni possono applicarsi ai nostri pazienti nella pratica quotidiana?
6)I benefici attesi sono chiaramente superiori ai costi economici sociali ed esistenziali?



Continua in una prossima pillola…


Riccardo De Gobbi e Giampaolo Collecchia




Bibliografia

1) Pat Croskerry: Bias: a normal operating characteristic of the diagnosing brain Diagnosis 2014; 1(1): 23–27 DOI 10.1515/dx-2013-0028      
2) Camilla H Nejstgaard et al.: Association between conflicts of interest and favourable recommendations in clinical guidelines, advisory committee reports, opinion pieces, and narrative reviews: systematic review BMJ 2020;371:m4234 | doi: 10.1136/bmj.m4234
3) Martin Bland: Statistica Medica Maggiolo Ed.2019
4)http:// https://www.marionegri.it/magazine/dieta-mediterranea
5) John Pavlus : Common Sense Comes Closer to Computers Quanta Magazine https://www.quantamagazine.org/common-sense-comes-to-computers-20200430/
6) Yun Liu, Po-Hsuan Cameron Che net Al.: How to Read Articles That Use Machine Learning Users’ Guides to the Medical Literature JAMA. 2019;322(18):1806-1816. doi:10.1001/jama.2019.16489



Per approfondire:

Collecchia G. De Gobbi R.: Intelligenza Artificiale e Medicina Digitale Il Pensiero Scientifico Ed. Roma 2020
http://pensiero.it/catalogo/libri/pubblico/intelligenza-artificiale-e-medicina-digitale

 
Links Correlati
· Inoltre Opinioni extraprofessionali
· News by dzamperini


Articolo più letto relativo a Opinioni extraprofessionali:
Criticita' procedurali e tecniche sulla Ricetta Elettronica



Valuta Articolo
Punteggio Medio: 0
Voti: 0

Per favore, prenditi qualche secondo e vota questo articolo:

Eccellente
Molto buono
Buono
Nella media
Pessimo



Opzioni

 Pagina Stampabile Pagina Stampabile



Argomenti Associati

Scienze Varie

Sito gestito e diretto da Daniele Zamperini, Roma, Medico e Giornalista-Pubblicista - Ultima modifica strutturale della pagina: 30/09/2012 - I singoli articoli riportano la data della loro pubblicazione
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2005 by me.
You can syndicate our news using the file backend.php or ultramode.txt
PHP-Nuke Copyright © 2005 by Francisco Burzi. This is free software, and you may redistribute it under the GPL. PHP-Nuke comes with absolutely no warranty, for details, see the license.
Generazione pagina: 0.56 Secondi