Il modello linguistico ampio prevede la riammissione del paziente
La dimissione dall'ospedale è un traguardo importante per i pazienti, ma a volte non è la fine del loro percorso verso la guarigione. Quasi il 15% dei pazienti ospedalieri negli Stati Uniti viene riammesso entro 30 giorni dalla dimissione iniziale, il che è spesso associato a esiti peggiori e costi più elevati sia per i pazienti che per gli ospedali.
I ricercatori della NYU Langone Health, il centro medico accademico della New York University, hanno collaborato con gli esperti NVIDIA per sviluppare un modello linguistico di grandi dimensioni (LLM) che prevede il rischio di riammissione del paziente entro 30 giorni, nonché altri esiti clinici.
Implementato nelle sei strutture ospedaliere del sistema sanitario, il modello NYUTron – presentato oggi sulla rivista scientifica Nature – fornisce ai medici informazioni basate sull’intelligenza artificiale che potrebbero aiutarli a identificare i pazienti che necessitano di un intervento clinico per ridurre la probabilità di riammissione.
"Quando dimetti un paziente dall'ospedale, non ti aspetti che debba tornare, o probabilmente avresti dovuto trattenerlo in ospedale più a lungo", ha affermato il dottor Eric Oermann, assistente professore di radiologia e neurochirurgia presso la NYU Grossman School. di Medicina e collaboratore principale di NYUtron. “Utilizzando l’analisi del modello AI, potremmo presto consentire ai medici di prevenire o risolvere situazioni che mettono i pazienti a maggior rischio di riammissione”.
Il modello è stato finora applicato a più di 50.000 pazienti dimessi nel sistema sanitario della New York University, dove condivide le previsioni del rischio di riammissione con i medici tramite notifiche e-mail. Il team di Oermann sta pianificando prossimamente una sperimentazione clinica per verificare se gli interventi basati sulle analisi del NYUtron riducono i tassi di riammissione.
Il governo degli Stati Uniti tiene traccia dei tassi di riammissione a 30 giorni come indicatore della qualità delle cure fornite dagli ospedali. Le istituzioni mediche con tariffe elevate vengono multate: un livello di controllo che incentiva gli ospedali a migliorare il processo di dimissione.
Ci sono molte ragioni per cui un paziente recentemente dimesso potrebbe dover essere riammesso in ospedale, tra cui infezioni, prescrizione eccessiva di antibiotici, drenaggi chirurgici rimossi troppo presto. Se questi fattori di rischio potessero essere individuati prima, i medici potrebbero intervenire adattando i piani di trattamento o monitorando i pazienti in ospedale più a lungo.
"Sebbene esistano modelli computazionali per prevedere la riammissione dei pazienti sin dagli anni '80, noi li consideriamo un compito di elaborazione del linguaggio naturale che richiede un corpus di testi clinici su scala di sistema sanitario", ha affermato Oermann. "Abbiamo addestrato il nostro LLM sui dati non strutturati delle cartelle cliniche elettroniche per vedere se poteva acquisire informazioni che le persone non avevano mai considerato prima."
NYUtron è stato pre-addestrato su 10 anni di cartelle cliniche della NYU Langone Health: più di 4 miliardi di parole di note cliniche che rappresentano quasi 400.000 pazienti. Il modello ha ottenuto un miglioramento della precisione di oltre il 10% rispetto a un modello di apprendimento automatico all’avanguardia per prevedere la riammissione.
Una volta addestrato il LLM per il caso d'uso iniziale della riammissione di 30 giorni, il team è stato in grado di elaborare altri quattro algoritmi predittivi in circa una settimana. Questi includono la previsione della durata della degenza ospedaliera di un paziente, la probabilità di mortalità intraospedaliera e le possibilità che le richieste di risarcimento assicurativo di un paziente vengano negate.
"Gestire un ospedale è in un certo senso come gestire un albergo", ha affermato Oermann. "Approfondimenti che aiutano gli ospedali a operare in modo più efficiente significano più letti e una migliore assistenza per un numero maggiore di pazienti."
NYUTron è un LLM con centinaia di milioni di parametri, addestrato utilizzando il framework NVIDIA NeMo Megatron su un ampio cluster di GPU NVIDIA A100 Tensor Core.
"Gran parte della conversazione sui modelli linguistici in questo momento riguarda modelli giganteschi e generici con miliardi di parametri, addestrati su set di dati disordinati utilizzando centinaia o migliaia di GPU", ha affermato Oermann. "Utilizziamo invece modelli di medie dimensioni addestrati su dati altamente raffinati per svolgere compiti specifici del settore sanitario."