Intelligenza artificiale in medicina: limiti di big data e algoritmi

Gentile Direttore,
le interessanti riflessioni del Dott. Aldo Di Benedetto, a proposito del rischio che il medico del futuro sia un robot in camice bianco, in una cornice di assoggettamento passivo alla tecnologia, mi offrono lo spunto per una breve disamina sui limiti della “cosiddetta” intelligenza artificiale (IA) nella pratica medica.

Il dato non è “dato”
Il primo problema è la disponibilità di dati digitali validi a disposizione degli algoritmi.Un grande volume di informazioni non corrisponde infatti automaticamente a una migliore qualità delle inferenze e delle applicazioni che da queste derivano. I dati di per sé sono inutili. Affinché possano essere realmente utili, devono essere selezionati, strutturati e interpretati[1]. Non sono pertanto le tecnologie ad essere decisive ma la capacità di estrarre valore dal loro uso. Il dato non è un’entità chiusa, “data”, ma un costrutto sociale, risultato concreto di specifiche scelte culturali, sociali, tecniche ed economiche messe in campo da individui, istituzioni o società per raccogliere, analizzare e utilizzare informazione e conoscenza.

Algo(a)ritmie
Le grandi aspettative nei confronti dell’IA rischiano inoltre di sottovalutare i rischi relativi ad una accettazione acritica delle tecnologie correlate, in particolare dei sistemi decisionali basati sul deep learning, algoritmi in grado non di seguire regole predefinite ma di “imparare” dai dati stessi, in maniera autonoma, rilevando pattern “nascosti”, che spesso nemmeno gli addetti ai lavori sono in grado di spiegare, tanto che la modalità operativa di questi sistemi è stata definita come black box, ovvero scatola nera[2].

I dati necessari all’addestramento degli algoritmi per elaborare i modelli predittivi sono in genere di qualità non ottimale, perché non sottoposti a quel processo di “ripulitura” e di rielaborazione che sarebbe insostenibile nella pratica clinica quotidiana[3]e quindi possono non essere in grado di fornire risposte implementabili per decisioni e trattamenti clinici, anche perché, talvolta, potrebbero “imparare” gli errori delle intelligenze naturali.

Oltre che non strutturati, i dati del cosiddetto real world, ad esempio i registri o le cartelle cliniche elettroniche, non sempre sono disponibili, non lo sono ovunque e il loro valore è inoltre limitato al setting di raccolta. Gli aspetti di contesto, richiamati da Di Benedetto, difficilmente esplicitabili in termini quantitativi, possono pertanto essere sottovalutati e sotto-rappresentati, basti pensare alle condizioni non ben definibili in termini di patologia, la “fragilità”, le condizioni di disagio extra-cliniche, i fattori psicologici, sociali, familiari, le condizioni di svantaggio economico o culturale, logistico, che influiscono sempre sulla gestione clinica del paziente. Ad esempio, i dati clinici da soli hanno limitato potere predittivo nel caso di pazienti il cui rischio di re-ospedalizzazione sia dipendente soprattutto da determinanti sociali[4].

Un altro limite all’attendibilità dei dati è legato all’incertezza, variabile inevitabile in medicina, caratterizzata da ampie aree grigie di conoscenza, per il dominio incompleto del sapere disponibile ed i limiti intrinseci del sapere medico. Nel caso degli studi su nuovi test diagnostici, ad esempio, il “gold standard” di riferimento può essere multiplo e comunque sottoposto al rischio di incertezza nell’interpretazione. A seconda della scelta di quale utilizzare per l’addestramento dell’algoritmo, i livelli di accuratezza possono essere differenti.

Un’altra criticità riguarda le capacità predittive della IA in ambito prognostico. L’utilizzo dei big data presenta infatti dei limiti che dipendono dalla loro stessa natura: rischi di bias nella selezione del campione, nella raccolta e nell’interpretazionedelle informazioni che vengono elaborate, in grado di minacciare la validità e la generalizzabilità delle conclusioni. In ambito epidemiologico, ad esempio, i flussi di dati sono particolarmente utili in quanto permettono di fare una fotografia, spesso istantanea, di un certo fenomeno in un dato momento, ma non consentono di cogliere gli aspetti legati alle interazioni tra i cittadini/pazienti e il contesto, spesso di difficile rappresentazione ed espressione esplicita in termini di digitalizzazione, a causa della possibile presenza di variabili confondenti e correlazioni spurie.

È pertanto necessaria una validazione da parte di fonti epidemiologiche esterne, al fine di non giungere a inferenze causali sbagliate che potrebbero determinare una sottrazione di risorse a interventi di dimostrata efficacia[5].

Conclusioni 
L’IA sta cambiando il paradigma culturale della medicina: le sue applicazioni potrebbero diventare sempre più indispensabili per fornire risposte in contesti ad elevata complessità e incertezza e consentire ai medici di avere più tempo per prendere in carico i bisogni assistenziali del proprio paziente. I dati peraltro non sono valori, qualunque intervento basato su di essi deve essere personalizzato, tenendo anche conto della frequente contraddittorietà delle conoscenze fornite dalla letteratura.La IA sarà utile essenzialmente in quanto complementare per il medico, che potrà delegare alle macchine i calcoli e le operazioni sui dati ma tenere per sé l’interpretazione dei fenomeni complessi e le conseguenti possibili soluzioni.

I sistemi di IA  devono essere considerati uno strumento, come il microscopio, il fonendoscopio, l’elettrocardiografo, sviluppati nel tempo per sopperire alla limitata capacità percettiva dei medici. I risultati migliori sono attesi quando l’IA lavora di supporto al personale sanitario, “secondo set di occhi”, modalità di integrazione culturale tra umani e macchine smart[6], evitando di enfatizzare dispute, in fondo abbastanza irrilevanti, su quale sistema cognitivo, umano o artificiale, sia più “intelligente”.

Come affermato da A. Verghese, “i clinici dovrebbero ricercare un’alleanza in cui le macchine predicono (con una accuratezza significativamente maggiore) e gli esseri umani spiegano, decidono e agiscono”[7].

I medici devono pertanto svolgere un ruolo di guida, supervisione e monitoraggio, utilizzando la propria intelligenzae le capacità che li rendono superiori alle macchine, in particolare l’astrazione, l’intuizione, la flessibilità e l’empatia, per esercitare un approccio conservativo e costruttivamente critico, evidenziandone le enormi potenzialità, spesso enfatizzate acriticamente per motivi commerciali, ma anche i limiti (e le possibili minacce, come la distopia fantascientifica delle macchine al potere !).

Ciò significa ad esempio rilevare la mancanza di studi sull’efficacia della IA in rapporto ad esiti clinici importanti, come la riduzione della morbilità/mortalità o il miglioramento della qualità di vita dei pazienti. Gli obiettivi dovrebbero comprendere anche il livello di soddisfazione, sia dei medici che dei pazienti, nel nuovo contesto relazionale di integrazione del mondo digitale con quello reale.

E’ ironico che proprio quando il tempo nella pratica clinica è sempre più limitato, è invece indispensabile una profonda riflessione sui possibili effetti della trasformazione in atto, in termini di accettazione da parte dei curanti e di tutti gli operatori, di cambiamenti di ruolo professionale, di relazione con il paziente, di indispensabili necessità formative.  La responsabilità della scelta dovrebbe rimanere personale, condivisa con il paziente, sia nel caso che il professionista decida di avvalersi dei sistemi di IA, sia che decida di non avvalersene, anche se in generale è più probabile che si sviluppi un meccanismo psicologico di de-responsabilizzazione e di delega dell’intelligenza alle macchine: “non sono io che sbaglio”, con relative conseguenze medico-legali tutte da considerare in un ambito ancora sostanzialmente sconosciuto.

Sicuramente è necessaria una sensibilizzazione di tutto il personale sanitario per iniziare un percorso di confronto con i cittadini allo scopo di stabilire le strategie e le politiche nei confronti di una tecnologia che, in un futuro non lontano, è destinata a cambiare l’essenza della medicina.

Come affermato da Hegel  “……La filosofia arriva sempre troppo tardi. Come pensiero nel mondo, essa appare per la prima volta nel tempo, dopo che la realtà ha compiuto il suo processo di formazione ed è bell’e fatta… Quando la filosofia dipinge a chiaroscuro, allora un aspetto della vita è invecchiato, e, dal chiaroscuro esso non si lascia ringiovanire, ma soltanto riconoscere: la nottola di Minerva inizia il suo volo sul far del crepuscolo”[8].

L’alternativa è proprio perdere la partita o comunque arrivare a conoscere la vastità del fenomeno troppo tardi, a cose fatte, come la nottola di Minerva, che arriva quando la realtà è “bell’e fatta”[9].

Dottor Giampaolo Collecchia 
MMG, CSeRMEG, Massa

Bibliografia e sitografia


[1]
Obermeyer Z, Emanuel EJ. Predicting the future – big data, machine learning, and clinical medicine. New Engl J Med 2016; 375: 1216-1219
[2]Rasoini R et al. Intelligenza artificiale in medicina: tra hype, incertezza e scatole nere. Toscana Medica 2017; 11:18-20
[3]Cabitza et al. Potenziali conseguenze inattese dell’uso di sistemi di intelligenza  artificiale oracolari in medicina. Recenti Prog Med 2017; 108: 397-401
[4]Chen JH et al. Machine learning and prediction in medicine – Beyond the peak of inflated expectations. N Engl J Med 2017; 376: 2507-2509
[6]Davenport TH. Artificial intelligence and the augmentation of health care decision-making. N Engl J Med Catalyst 2018.
[7]Verghese A et al. What this computer needs is a physician. Humanism and artificial intelligence. JAMA 2017; 319: 19-20
[8]Hegel GWF. Lineamenti di filosofia del diritto, Bompiani, 2006
[9] Collecchia G. Intelligenza umana e artificiale: culture a confronto. Assist Inferm Ric 2018; 37: 212-217


Lettera pubblicata su QuotidianoSanità

Autore: Redazione

© 2023 - FNOMCeO All Rights Reserved. Via Ferdinando di Savoia, 1 00196 ROMA CF: 02340010582

Impostazioni dei Cookie.