Nel Regno Unito, un quarto delle persone che si sono suicidate e stato in contatto con un operatore sanitario la settimana precedente e la maggior parte ha parlato con qualcuno nell’ultimo mese. Tuttavia, la valutazione del rischio di suicidio del paziente rimane estremamente difficile.
Ci sono stati 5.219 decessi per suicidio registrati in Inghilterra nel 2021. Mentre il tasso di suicidi in Inghilterra e Galles e diminuito di circa il 31% dal 1981, la maggior parte di questa diminuzione e avvenuta prima del 2000. Il suicidio e tre volte piu comune negli uomini che nelle donne, e questo divario e aumentato nel tempo.
Uno studio condotto nell’ottobre 2022, guidato dal Black Dog Institute dell’Universita del New South Wales, ha rilevato che i modelli di intelligenza artificiale (AI) hanno superato le valutazioni del rischio clinico. Ha intervistato 56 studi dal 2002 al 2021 e ha scoperto che l’IA prevedeva correttamente il 66% delle persone che avrebbero avuto un esito suicida e prevedeva l’87% delle persone che non lo avrebbero fatto. In confronto, i metodi di punteggio tradizionali eseguiti dagli operatori sanitari sono solo leggermente migliori di quelli casuali.
L’IA e ampiamente studiata in altri domini medici come il cancro. Tuttavia, nonostante la loro promessa, i modelli di intelligenza artificiale per la salute mentale devono ancora essere ampiamente utilizzati in ambito clinico.
Perche la previsione del suicidio e cosi difficile
Uno studio del 2019 del Karolinska Institutet in Svezia ha rilevato quattro scale tradizionali utilizzate per prevedere il rischio di suicidio dopo che recenti episodi di autolesionismo si sono comportati male. La sfida della previsione del suicidio deriva dal fatto che l’intento di un paziente puo cambiare rapidamente.
La guida sull’autolesionismo utilizzata dagli operatori sanitari in Inghilterra afferma esplicitamente che gli strumenti e le scale di valutazione del rischio di suicidio non dovrebbero essere invocati. Invece, i professionisti dovrebbero utilizzare un colloquio clinico. Sebbene i medici svolgano valutazioni del rischio strutturate, vengono utilizzate per ottenere il massimo dai colloqui piuttosto che fornire una scala per determinare chi riceve il trattamento.
Il rischio dell’IA
Lo studio del Black Dog Institute ha mostrato risultati promettenti, ma se 50 anni di ricerca sulla previsione tradizionale (non AI) hanno prodotto metodi solo leggermente migliori di quelli casuali, dobbiamo chiederci se dovremmo fidarci dell’IA. Quando un nuovo sviluppo ci da qualcosa che vogliamo (in questo caso migliori valutazioni del rischio di suicidio) puo essere allettante smettere di fare domande. Ma non possiamo permetterci di affrettare questa tecnologia. Le conseguenze di sbagliare sono letteralmente la vita e la morte.
I modelli di IA hanno sempre dei limiti, incluso il modo in cui vengono valutate le loro prestazioni. Ad esempio, l’utilizzo dell’accuratezza come metrica puo essere fuorviante se il set di dati non e bilanciato. Un modello puo ottenere una precisione del 99% prevedendo sempre che non ci sara alcun rischio di suicidio se solo l’1% dei pazienti nel set di dati e ad alto rischio.
E anche essenziale valutare i modelli di intelligenza artificiale su dati diversi da quelli su cui sono stati addestrati. Questo per evitare l’overfitting, in cui i modelli possono imparare a prevedere perfettamente i risultati dal materiale di formazione ma faticano a lavorare con nuovi dati. I modelli potrebbero aver funzionato perfettamente durante lo sviluppo, ma fanno diagnosi errate per i pazienti reali.
Ad esempio, e stato riscontrato che l’IA si adatta perfettamente ai segni chirurgici sulla pelle di un paziente quando viene utilizzata per rilevare il melanoma (un tipo di cancro della pelle). I medici usano penne blu per evidenziare lesioni sospette e l’IA ha imparato ad associare questi segni a una maggiore probabilita di cancro. Cio ha portato a una diagnosi errata in pratica quando non e stata utilizzata l’evidenziazione blu.
Puo anche essere difficile capire cosa hanno imparato i modelli di IA, ad esempio perche prevede un particolare livello di rischio. Questo e un problema prolifico con i sistemi di intelligenza artificiale in generale e porta a un intero campo di ricerca noto come IA spiegabile.
Il Black Dog Institute ha rilevato che 42 dei 56 studi analizzati presentavano un alto rischio di bias. In questo scenario, un bias significa che il modello sopra o sotto prevede il tasso medio di suicidio. Ad esempio, i dati hanno un tasso di suicidio dell’1%, ma il modello prevede un tasso del 5%. Un’elevata distorsione porta a diagnosi errate, o alla mancanza di pazienti ad alto rischio o all’assegnazione eccessiva del rischio a pazienti a basso rischio.
Questi pregiudizi derivano da fattori come la selezione dei partecipanti. Ad esempio, diversi studi avevano rapporti caso-controllo elevati, il che significa che il tasso di suicidi nello studio era piu alto che nella realta, quindi e probabile che il modello AI assegnasse troppo rischio ai pazienti.
Una prospettiva promettente
I modelli utilizzavano principalmente dati provenienti da cartelle cliniche elettroniche. Ma alcuni includevano anche dati da interviste, sondaggi di autovalutazione e note cliniche. Il vantaggio dell’utilizzo dell’intelligenza artificiale e che puo imparare da grandi quantita di dati in modo piu rapido ed efficiente rispetto agli esseri umani e individuare schemi persi da professionisti sanitari oberati di lavoro.
Mentre si stanno facendo progressi, l’approccio dell’IA alla prevenzione del suicidio non e pronto per essere utilizzato nella pratica. I ricercatori stanno gia lavorando per affrontare molti dei problemi con i modelli di prevenzione del suicidio dell’IA, ad esempio quanto sia difficile spiegare perche gli algoritmi hanno fatto le loro previsioni.
Tuttavia, la previsione del suicidio non e l’unico modo per ridurre i tassi di suicidio e salvare vite umane. Una previsione accurata non aiuta se non porta a un intervento efficace.
Di per se, la previsione del suicidio con l’IA non impedira ogni morte. Ma potrebbe fornire ai professionisti della salute mentale un altro strumento per prendersi cura dei loro pazienti. Potrebbe cambiare la vita come un intervento chirurgico al cuore all’avanguardia se desse l’allarme per i pazienti trascurati.