L’intelligenza artificiale sta ridefinendo i confini della medicina. Dalla diagnostica alla ricerca, dal supporto clinico alla scoperta di nuovi farmaci, l’AI ottimizza decisioni, processi e risorse. Ma perché tutto questo diventi davvero utile al paziente, è necessario un utilizzo etico, trasparente e consapevole, capace di rafforzare — e non sostituire — il rapporto tra medico e paziente.

Un esempio concreto della potenza dell’AI applicata alla medicina è OpenEvidence, startup fondata nel 2022 a Miami da Daniel Nadler, capace di analizzare milioni di pubblicazioni peer-reviewed e fornire ai medici risposte rapide, affidabili e documentate. Secondo le statistiche, infatti, ogni 30 secondi viene pubblicato un nuovo studio medico, e restare aggiornati è diventato impossibile.

Qui entra in gioco l’intelligenza artificiale, che può filtrare, riassumere e collegare i dati in modo intelligente, offrendo supporto nella diagnosi, nella scelta terapeutica e persino nella comunicazione con i pazienti. Il software di OpenEvidence – gratuito per gli operatori sanitari – sta già trasformando la pratica clinica negli Stati Uniti: oltre 430mila medici lo utilizzano regolarmente per rispondere a quesiti clinici complessi in pochi secondi, con citazioni scientifiche complete e verificate.

È fondamentale ricordare che non si tratta di uno strumento diagnostico, né intende sostituire il ragionamento clinico. Come ha dichiarato John Doerr, presidente di Kleiner Perkins, «OpenEvidence sarà per la medicina quello che Google è stato per Internet».

Anche al di fuori degli Stati Uniti, l’AI inizia a diffondersi nella pratica clinica quotidiana. Uno studio pubblicato su BMJ Health and Care Informatics ha rivelato che un medico di base su cinque nel Regno Unito utilizza strumenti di intelligenza artificiale generativa, come ChatGPT o Bing AI, per scrivere lettere ai pazienti, proporre diagnosi alternative o suggerire trattamenti.

In un contesto segnato da carenza di personale e burnout crescente, l’AI può dunque rappresentare un valido supporto per alleggerire il carico lavorativo. Nonostante ciò, non mancano diverse criticità in termini di accuratezza delle informazioni, tutela della privacy e protezione dei dati. Come ha osservato Ellie Mein, consulente medico-legale presso la Medical Defence Union, «quando si tratta di disturbi dei pazienti, le risposte redatte dall’IA possono sembrare plausibili, ma contenere imprecisioni e riferimenti a linee guida errate, difficili da individuare se intessuti in passaggi molto eloquenti. È fondamentale che i medici utilizzino l’intelligenza artificiale in modo etico e rispettino le normative pertinenti».

La lezione è chiara: l’intelligenza artificiale in sanità non è un sostituto del medico, né probabilmente potrà mai esserlo. È, piuttosto, uno strumento utile, da integrare con criterio, etica e trasparenza. Un utilizzo consapevole può davvero migliorare la medicina, favorendo decisioni più accorte, accurate, e sollevando i medici dallo stress lavorativo. Sta a noi, tuttavia, decidere con quali valori alimentarla.