A cura di MIUR - Direzione Generale per il coordinamento la promozione e la valorizzazione della ricerca

Artificial intelligence in medicine: better robot doctors or doctor robots?

Artificial intelligence in medicine: better robot doctors or doctor robots?

We publish (in Italian) an editorial by Federico Cabitza, Professor of Human-Computer Interaction at the University of Milano-Bicocca, on the application of artificial intelligence in the medical field, its possible advantages and the obscure aspects that have emerged from the latest scientific research.

L'intelligenza artificiale (IA) è una classe di tecnologie informatiche la cui applicazione in medicina è al centro di un dibattito sempre più ampio, non solo tra gli addetti ai lavori, ma anche da parte del grande pubblico. Le sfide della medicina del XXI secolo sono impegnative: una popolazione che invecchia, e una prevalenza sempre maggiore di malattie cardiovascolari, oncologiche, metaboliche, degenerative, spesso associate a quadri clinici di multimorbilità, per i quali le evidenze scientifiche, disponibili in una quantità sempre maggiore di studi scientifici spesso di difficile interpretazione, trovano limitata applicazione. E, non ultima, una crescente aspettativa da parte dei malati e dei loro cari, nell’idea che le malattie siano spiacevoli ostacoli, che si frappongono tra noi e il nostro diritto alla salute e che i medici sono tenuti a rimuovere efficientemente.

Un aiuto per diagnosi e trattamenti
Non sorprende quindi che l'IA, con i suoi sistemi in grado di identificare un tumore piccolissimo in immagini radiologiche 9 volte su 10, o di scandagliare milioni di articoli scientifici per suggerire trattamenti oncologici personalizzati, sembri la strada giusta per potenziare le capacità dei medici nel loro compito di “risolutori di problemi” di salute: si pensi che i radiologi spesso devono leggere e refertare tra le 50 e 70 immagini al giorno e che mediamente a fine turno lavorativo la loro accuratezza peggiora di circa il 3% rispetto alle prestazioni di inizio giornata; e che, nonostante ogni loro sforzo, gli oncologi non riescano, mediamente, a salvare un paziente oncologico su due per molti tumori, e con molte differenze tra gli stati del mondo. Insomma, riporre grandi speranze nei confronti di una nuova e potente tecnologia sembra essere naturale e giusto, anche se la spesa per sviluppare e adottare questi sistemi è ingente e non è ancora associata a miglioramenti delle cure che giustificherebbero questi investimenti importanti. Ma oltre alla sostenibilità ed efficacia è giusto chiedersi se, come ogni rimedio che si crede miracoloso, anche l'adozione di sistemi di IA basati su tecniche di apprendimento automatico non porti con sé degli effetti collaterali o, come li abbiamo chiamati in un articolo uscito sul JAMA l'estate scorsa, delle conseguenze inattese.

Noi ne abbiamo identificate principalmente tre, tutte strettamente connesse, anche se relative a fenomeni la cui insorgenza segue dinamiche diverse e non è stata osservata con lo stesso livello di dettaglio.

Algoritmi “affamati” di dati
Il primo effetto collaterale è la desensibilizzazione al contesto. Gli algoritmi di IA sono avidi di dati, perché solo sulla base di questi possono produrre le loro predizioni. Questi dati sono presi dalle cartelle cliniche informatizzate dove, oltre a immagini diagnostiche e risultati di esami di laboratorio, i medici sono chiamati a descrivere un caso clinico: che lo facciano nel loro lessico professionale, o attraverso categorie e codici particolari, si tratta pur sempre di ricondurre un fenomeno complesso e multidimensionale in termini linguistici o simbolici. Qualcosa può andar perso. Poiché i medici passano quasi metà del loro tempo a compilare cartelle cliniche e in una visita media il paziente non riesce a parlare al medico per più di mezzo minuto prima di essere interrotto, si può prevedere che l'impiego di IA in reparto possa richiedere sempre più dati e quindi al medico di concentrarsi sempre di più su quegli aspetti che sono datificabili e rappresentati in questionari predefiniti, a spese di una comunicazione più ricca e a volte anche costituita da non detti, tra medico e paziente.

Una scorciatoria pericolosa
Il secondo effetto collaterale riguarda invece la tendenza dei medici ad affidarsi sempre più spesso ai suggerimenti e alle raccomandazioni che i sistemi di IA mettono loro a disposizione. E perché non dovrebbero tenerne conto, se tali sistemi sono affidabili come certi studi affermano? È esattamente quello che pensa ciascuno di noi quando ci chiediamo perché dovremmo ricordarci il numero di telefono dei nostri amici o conoscenti più prossimi quando il nostro cellulare può facilmente recuperarli dalla sua memoria in frazioni di secondo: e infatti sono pochi quelli di noi che ricordano più di 5 o 6 numeri di telefono. In ambito medico la cosa è però più delicata e le competenze in gioco sono un po’ più critiche del semplice ricordare delle sequenze di numeri. Infatti fare affidamento sui sistemi di IA che propongono diagnosi o piani terapeutici costituisce una specie di scorciatoia cognitiva, come sbirciare sempre alle soluzioni di un gioco enigmistico prima di cimentarcisi seriamente. Questo può condizionare la capacità dei medici di far fronte a casi complessi e interpretarli correttamente, costituendo un “bias” (un fattore distorcente) nel loro processo decisionale, che nello specifico si chiama “automation bias”.

Possono indebolire le capacità dei medici?
A lungo andare questo bias può indebolire le capacità diagnostiche o prognostiche dei medici in quel fenomeno noto con il termine di deskilling, il terzo e ultimo, forse più temibile, effetto collaterale dell’impiego dell’IA in ambito medico. Questo fenomeno non è stato ancora studiato a fondo, anche se le prime avvisaglie del suo impatto potenziale sono state osservate nei medici specializzandi, in termini di interferenza nel processo di apprendimento e di rallentamento nel processo di ritenzione delle nozioni apprese.

Essere consapevoli di questi possibili effetti dell’IA sulle competenze e capacità di chi ci cura non vuole costituire un deterrente allo sviluppo di tali tecnologie, ma piuttosto uno sprone ad investire risorse anche in ricerche volte a comprendere queste dinamiche dell’interazione uomo-IA. In questo modo gli studiosi potranno avere elementi per proporre indicazioni utili per la regolamentazione dell’impiego di queste tecnologie e la loro valutazione in ambito medico, nella consapevolezza che ogni supporto tecnologico ci apre un mondo di nuove possibilità, ma condiziona sempre un po’ il nostro modo di agire in tale mondo.

Federico Cabitza, professore di interazione uomo-macchina all’Università degli Studi di Milano-Bicocca