L’ho scritto in un articolo del maggio scorso: l’Intelligenza artificiale (IA o AI a seconda della diversa dizione in italiano o in inglese) sta facendo capolino anche nel mondo delle cure palliative pediatriche. Riferivo i risultati di uno studio condotto in Arabia sulla possibile integrazione in particolare del modello linguistico ChatGPT-4, nelle discussioni degli esperti in ambito di cure palliative pediatriche.
Corre l’obbligo di riprendere l’argomento perché un secondo studio adesso prova a immaginare altri e diversi scenari, dove l’IA addirittura potrebbe “parlare” in nome e per conto di pazienti impossibilitati a farlo per le condizioni di salute in cui si trovano nello stadio finale della loro malattia.
Oltre alla peculiarità dell’argomento, la necessità di tornarci sopra deriva da un’altra considerazione. Lo studio arabo è stato pubblicato sulla rivista scientifica Cureus, che fa parte del prestigioso gruppo editoriale Springer Nature. Questo nuovo studio compare invece su Jama Internal Medicine, la rivista dell’American Medical Association, altro <pilastro> della letteratura medico-scientifica internazionale.
Se le due <voci> scientifiche più prestigiose in campo hanno deciso di occuparsene, significa che i tempi sono maturi per una riflessione intorno alla quale tutti saremo presto o tardi chiamati ad esprimerci.
Allora, vediamo in dettaglio qual è il <caso di studio> ipotizzato. Immaginate una madre che ha subito un arresto cardiaco e si trova in uno stato di insufficienza multiorgano, incapace di comunicare. Senza direttive anticipate o una figura legale designata, la figlia si trova di fronte a decisioni difficili perché non hanno mai discusso con la madre cosa vorrebbe in una situazione simile.
Secondo gli autori dello studio (Teva D. Brender; Alexander K. Smith e Brian L. Block, tutti e tre medici dell’Università della California, San Francisco, Usa) in futuro potrebbe accadere questo: le visite mediche della madre sono state registrate in audio. Inoltre, è possibile accedere a un algoritmo di intelligenza artificiale (IA) in grado di identificare e riprodurre estratti della madre che parla di ciò che più le importava. Il medico e la figlia ascoltano queste registrazioni insieme. Quindi condividono che un altro algoritmo, addestrato su 7 milioni di cartelle cliniche, preveda che la madre abbia una probabilità di riprendere a camminare inferiore al 5%. Ma prevede anche che 3 persone su 4 come lei vorrebbero sottoporsi a cure palliative in questa situazione. Il medico chiede alla figlia cosa ne pensi e quali sono i suoi sentimenti, riguardo a queste notizie.
Lo scrivono gli autori stessi: <Per molti, l’idea di incorporare l’IA nelle conversazioni sugli obiettivi delle cure evocherà visioni da incubo di un futuro distopico in cui affidiamo decisioni profondamente umane agli algoritmi. Condividiamo queste preoccupazioni. Tuttavia, la nostra esperienza in geriatria, cure palliative e cure intensive rafforza quanto possa essere difficile per le famiglie prendere decisioni per pazienti “incapaci”. I familiari sperimentano uno stress emotivo e psicologico profondo, le disposizioni anticipate di trattamento scritte non si sono rivelate efficaci come sperato e la maggior parte dei pazienti gravemente malati non ha mai partecipato a una pianificazione anticipata delle cure completa. Inoltre, i clinici fanno prognosi perfette e ci sono grandi disparità nell’accesso alle cure palliative in base alla razza ed etnia, alla geografia e alla classe economica. Date queste significative limitazioni e gli inesorabili sviluppi dell’IA, è doveroso considerare come potrebbe essere impiegata in modo sicuro, etico ed equo per aiutare i legali rappresentanti di persone gravemente malate>.
Sulla stessa lunghezza d’onda Deborah Grady (epidemiologa dell’Università della California e vicedirettrice di Jama Internal Medicine), sottolinea in un editoriale di commento all’articolo come questa idea possa sembrare sorprendente e inquietante. <L’uso di tecnologie vocali per creare un database ricercabile di ogni incontro con i professionisti sanitari, l’analisi dei dati provenienti da dispositivi indossabili, ricerche su internet e storici di acquisti, solleva importanti questioni pratiche, etiche e di accuratezza. Nonostante queste preoccupazioni, la discussione è inevitabile dato l’avanzamento tecnologico e le sue potenziali applicazioni in medicina> aggiunge.
Dunque, cerchiamo di capire quali strumenti potrebbero allora essere utilizzati. Una delle applicazioni più promettenti dell’IA è l’uso della tecnologia vocale ambientale per creare un archivio consultabile delle visite mediche dei pazienti. Un algoritmo potrebbe consigliare passaggi significativi per i familiari e i medici da ascoltare, comprese conversazioni non scritte nella cartella clinica. <Analizzando il contenuto del discorso, il contesto e la pronuncia, l’intelligenza artificiale potrebbe espandere ciò che è tradizionalmente considerato una disposizione anticipata di trattamento, evidenziando conversazioni esplicite su obiettivi, valori e preferenze, nonché commenti spontanei su famiglia, hobby o programmi per il fine settimana che, di fatto, dimostrano come una persona ha vissuto>, scrivono gli autori. Con il duplice risultato di <umanizzare> il paziente agli occhi del team medico, nel momento in cui non è più la stessa persona di prima, e fornire un contesto più ricco per le decisioni di cura. <Questa tecnologia potrebbe ridurre le disparità esistenti, spostando l’attenzione dalle direttive anticipate formalmente documentate alle espressioni vocali autentiche del paziente.
Nel suo commento, la vicedirettrice Grady solleva un punto critico: siamo pronti a fidarci di un sistema che registra ogni incontro con i pazienti? <La prospettiva di utilizzare milioni di osservazioni dirette del comportamento di una persona per costruire un quadro autentico della sua vita può sembrare inquietante. Ma è anche vero che questa tecnologia potrebbe offrire una comprensione più profonda e accurata delle preferenze del paziente, andando oltre le limitazioni delle disposizioni anticipate tradizionali>.
L’Intelligenza artificiale ha una forte capacità predittiva. Proprio questa caratteristica, sostengono Teva D. Brender e colleghi, può consentirle di analizzare dati comportamentali e clinici per stimare le probabilità di raggiungere determinati risultati funzionali. <Se il paziente si trova nell’incapacità di comunicare e in mancanza di un valido aiuto da parte di un famigliare o di altra persona vicina al paziente, i medici potrebbero consultare l’IA per prevedere cosa sceglierebbe il paziente basandosi su una vasta gamma di dati, come post sui social media, partecipazione a eventi religiosi, donazioni e acquisti fatti, decisioni sanitarie prese in precedenza. Ad esempio, un algoritmo potrebbe suggerire un trattamento palliativo se i dati storici indicano che il paziente apprezzava l’indipendenza funzionale e questa è diventata improbabile a causa della condizione clinica attuale. <Ciò non è dissimile dalle attuali migliori pratiche, in cui i medici guardano alle famiglie, agli amici, ai medici precedenti e ad altri per capire cosa vorrebbe un paziente incapace. Gli algoritmi, con migliaia, milioni o persino miliardi di osservazioni dirette del comportamento di una persona, potrebbero effettivamente dipingere un ritratto più autentico del modo in cui una persona ha vissuto, rispetto ad esempio ad una madre la cui impressione è spesso corredata da un acuto stress psicologico, emotivo ed esistenziale>.
<L’uso dell’IA nella cura è inevitabile e presenta sia opportunità che rischi. Con una supervisione umana appropriata, gli algoritmi possono migliorare la prognosi e prevedere scelte autentiche per i pazienti incapaci, offrendo una nuova speranza per un’assistenza più umana e personalizzata alla fine della vita>, riflettono gli autori. Noi facciamo nostri i dubbi espressi da Deborah Grady: nonostante il potenziale dell’IA, ci sono significativi problemi di accuratezza e di etica da affrontare. I dati potrebbero essere distorti, e le previsioni dell’IA potrebbero non sempre riflettere i desideri attuali del paziente. Inoltre, il rischio di fidarsi eccessivamente delle raccomandazioni algoritmiche senza considerare il contesto umano è reale. L’accesso ai dati deve essere consentito dai pazienti e la privacy deve essere protetto. È cruciale che il controllo decisionale rimanga in mani umane, con l’IA che agisce solo come supporto. I dati di addestramento devono essere rappresentativi per evitare disparità sanitarie, e gli algoritmi devono essere costantemente aggiornati per riflettere le nuove opzioni di trattamento. Ma, lo ribadisco, una cosa è certa: bisogna affrontare l’argomento. E subito.