«A chi dovrebbe essere affidato il compito di prendere decisioni sul fine vita: pazienti, genitori o operatori sanitari?». La domanda è una delle più terribili, ma anche ineludibili, che una malattia o un evento particolare possano costringerci ad affrontare. La risposta non è affatto semplice, perché le variabili in gioco sono tante e non sempre prevedibili nella loro interazione, per quanto gli studi scientifici abbiano ampiamente trattato il tema.
Con l’avvento dell’Intelligenza artificiale (IA o AI, per Artificial intelligence in inglese) si sta cercando di capire se e come questi nuovi e potenti strumenti di innovazione tecnologica possano essere d’aiuto anche su questioni tanto delicate.
A prima vista, una forma di collaborazione tra uomo e macchina sembrerebbe paradossale e quasi improponibile. Tuttavia, prima di chiuderci a riccio, varrebbe la pena almeno di capire quali potrebbero essere i termini di una cooperazione simile.
È il tentativo alla base di uno studio, pubblicato sulla rivista scientifica Cureus e sottoposto a revisione paritaria, cioè ad una valutazione critica da parte di specialisti con competenze analoghe a quelle dell’autore: un processo che serve a capire se lo studio sia valido da un punto di vista scientifico.
L’articolo esplora l’integrazione in particolare del modello linguistico ChatGPT-4, nelle discussioni degli esperti in ambito di cure palliative pediatriche.
Innanzitutto, per chi ancora lo ignorasse, che cos’è ChatGPT ? Una forma di IA, la prima e più nota delle chat (chiamati anche agenti conversazionali) basate su tecniche di statistica avanzata (deep learning) che simulano appunto una conversazione tra esseri umani. Il «cervello» di questa chat è un algoritmo, cioè un modello in grado di parlare (scrivere) con un essere umano, ricordando l’oggetto della domanda fatta precedentemente nelle richieste successive (ha una memoria) e rifiutando richieste inappropriate (possiede barriere etiche imposte dagli sviluppatori).
ChatGPT-4 (dove GPT sta per Generative Pre-trained Transformer , versione 4) è la versione più potente di questo modello linguistico di IA, lanciato di recente.
Lo studio comparso su Cureus è interessante sotto diversi aspetti: presenta un approccio innovativo per ottimizzare e riassumere le raccomandazioni di un gruppo di medici esperti durante la prima Conferenza Ibrida Pan-Araba sulla Cure palliative pediatriche critiche, tenutasi a Riad, Arabia Saudita.
La premessa degli autori ci aiuta a capire il loro modo di accostarsi al problema. «Le cure palliative pediatriche sono un campo complesso e stimolante che coinvolge considerazioni etiche, processi decisionali relativi agli obiettivi di cura e allo stato della normativa, nonché l’impatto sulle famiglie – scrivono -. Nell’ ambito della Terapia intensiva pediatrica, determinare chi dovrebbe assumere le decisioni di fine vita – pazienti, genitori o operatori sanitari – è una questione particolarmente impegnativa nella pratica clinica. Approcci multidisciplinari che coinvolgono esperti del settore e membri della comunità in tavole rotonde o focus group possono migliorare il pensiero critico tra i professionisti medici, utilizzando casi reali o ipotetici».
«Le cure palliative pediatriche presentano numerose sfide, comprese considerazioni etiche e l’impatto significativo sulle famiglie, che hanno bisogno di una comunicazione efficace e di processi decisionali da parte degli operatori sanitari per affrontare queste complessità. Molti studi suggeriscono varie potenziali applicazioni per ChatGPT-4, il chatbot più avanzato di OpenAI (la company di San Francisco, California, che lo realizzato, ndr ) sviluppato per produrre risposte più sicure e utili. Lanciato il 14 marzo 2023, ChatGPT-4 dovrebbe funzionare a un livello equivalente a quello umano su diversi benchmark professionali e accademici. Nel contesto delle cure palliative pediatriche, i chatbot basati sull’IA artificiale come ChatGPT-4 possono offrire vantaggi unici, come facilitare discussioni mediche complesse, promuovere la collaborazione tra gli operatori sanitari e favorire l’assistenza incentrata sul paziente e sulla famiglia. Affrontando queste sfide e integrando i chatbot basati sull’IA nel processo decisionale, speriamo di migliorare la qualità complessiva dell’assistenza in questo campo delicato».
Durante la conferenza di Riad, sono stati sviluppati scenari ipotetici tramite ChatGPT-4, che hanno stimolato discussioni approfondite tra un gruppo di 4 specialisti in rianimazione pediatrica e con il coinvolgimento del pubblico presente, composto da circa 70 partecipanti. Questi scenari riguardavano decisioni delicate come quella di non rianimare, integrando la tecnologia AI per riformulare e intensificare le discussioni, garantendo che tutti gli aspetti venissero considerati attentamente e che le decisioni fossero comunicate chiaramente a tutte le parti interessate.
Negli Usa e in altri Paesi anglosassoni le sigle DNR o DNAR sono ben conosciute: sono l’acronimo per «Do not resuscitate (o Do not attempt resuscitation)» che in italiano si possono tradurre: «Non rianimare (o, non tentare la rianimazione)» . L’acronimo è anche noto come «No code», alludendo al «Codice blu» con il quale negli ospedali degli Stati Uniti e dei Paesi anglosassoni viene attivato il team dei rianimatori in caso di arresto cardiaco. O, ancora, come AND (Allow Natural Death, cioè consentire il decesso naturale) . Tecnicamente rappresentano una disposizione anticipata di trattamento, con la quale un paziente esprime, di solito in forma scritta e su un apposito modulo, la propria volontà di non essere sottoposto alle manovre di rianimazione cardiopolmonare (RCP) che teoricamente potrebbero salvargli la vita. In alcuni casi però, la sigla DNR può intendersi come la volontà del paziente di non essere sottoposto a trattamenti di supporto vitale di qualsiasi tipo (ventilazione meccanica, dialisi, supporto cardiocircolatorio etc.).
Il team di ricerca ha fornito a ChatGPT-4 due scenari immaginari, scritti da esseri umani, sulla fibrosi cistica e sull’encefalite meningococcica grave, relativi alla risoluzione dei conflitti DNR nelle cure palliative e critiche pediatriche. ChatGPT-4 ha poi trasformato questi scenari scritti da persone, in casi di studio più interattivi e stimolanti da discutere tra i relatori.
Il gruppo di esperti ha poi discusso lo scenario generato da ChatGPT-4, ponendo l’accento sulla risoluzione dei conflitti e sul desiderio del paziente e della famiglia di ricevere la migliore assistenza percepita. La tavola rotonda è stata registrata, trascritta parola per parola e inserita in ChatGPT-4. Gli schemi di discussione degli scenari sono stati rivisti sulla base del riepilogo creato con ChatGPT-4 e presentati al gruppo di esperti il giorno successivo alla conferenza. A seguito delle discussioni di gruppo mirate, ChatGPT-4 è stata utilizzata per analizzare i dati trascritti. Il modello di intelligenza artificiale ha identificato temi chiave come la comunicazione efficace, la collaborazione tra professionisti e le considerazioni etiche, essenziali nelle decisioni di fine vita. ChatGPT-4 ha poi generato una versione riassuntiva delle discussioni, evidenziando i punti principali e le conclusioni raggiunte dai partecipanti.
Ma che cosa significa tutto questo e in che modo potrebbe l’IA aiutarci in momenti così importanti e difficili come una decisione sul fine vita? Proviamo ad ipotizzare uno scenario: in un futuro, non molto lontano in verità, strumenti come ChatGPT-4 potrebbero essere chiamati a fornire il loro «punto di vista» all’interno di una discussione tra specialisti di Terapia intensiva e poi con i pazienti, laddove possibile, e i famigliari. La potenza di calcolo del Chatbot e la sua capacità di interagire con i suoi interlocutori, fornendo una sintesi rapida e affidabile delle discussioni fra essere umani coinvolti, potrebbe aiutare a sviluppare soluzioni affrontando le preoccupazioni dei partecipanti e favorendo una comprensione più profonda di argomenti complessi.
Ma, come sottolineano gli stessi autori, «è fondamentale rimanere consapevoli di potenziali pregiudizi o problemi all’interno dei contenuti generati dall’Intelligenza artificiale». Quali? Le considerazioni etiche, in primo luogo: «L’uso dell’intelligenza artificiale in campi sensibili come le cure palliative pediatriche solleva preoccupazioni etiche che devono essere rispettate, tra cui la privacy del paziente, il consenso informato e il potenziale uso improprio dei contenuti generati dall’intelligenza artificiale. Queste preoccupazioni devono essere affrontate e gestite in modo approfondito per garantire l’uso responsabile della tecnologia dell’intelligenza artificiale nelle strutture sanitarie», si spiega nello studio. E poi il rischio di dipendenza dall’IA: «L’eccessivo affidamento ai contenuti generati dall’intelligenza artificiale potrebbe potenzialmente portare i futuri operatori sanitari a ridurre il pensiero critico e le capacità decisionali, poiché potrebbero diventare eccessivamente dipendenti dalla tecnologia. È fondamentale trovare un equilibrio tra lo sfruttamento dei vantaggi dell’intelligenza artificiale e il mantenimento delle competenze umane nel processo decisionale».
Ma soprattutto, concludono gli autori, «è necessaria una meticolosa convalida dei risultati generati dall’intelligenza artificiale da parte di esperti umani, per garantire che le decisioni siano basate su informazioni accurate. Suggeriamo ulteriori ricerche per convalidare e sviluppare queste intuizioni, con maggiori esplorazioni e ricerche in contesti e culture diverse».
Come non essere d’accordo? Ma conviene iniziare tutti a riflettere su queste implicazioni e impegnarci a saperne sempre di più, per acquisire consapevolezza e poter poi rivendicare il nostro ruolo decisivo in quei momenti terribili e ineludibili. Senza che una macchina decida al posto nostro.