Psichiatri, ‘intelligenza artificiale lontana dalla pratica clinica’
Roma, 31 mag. (Adnkronos Salute) – Si fa presto a dire ‘dr. Ia’, ma “la verità è che oggi non esistono algoritmi di intelligenza artificiale che possono essere implementati nella pratica clinica. Hanno ancora troppi difetti che, di fatto, li rendono poco affidabili e potenzialmente pericolosi. Gli algoritmi restano per il momento adatti a essere utilizzati in contesti sperimentali e accademici. Questo non significa che l’intelligenza artificiale non sarà mai pronta, ma solo che c’è ancora tanta strada da fare”. L’intervenro di algoritmi e intelligenza artificiale nella pratica clinica è stato al centro del congresso nazionale della Società italiana di Psichiatria (Sip), che sta celebrando i suoi 150 anni al Palazzo della Gran Guardia di Verona. Alla base della discussione anche un lavoro tutto italiano appena pubblicato sulla rivista ‘Italian Journal of Psychiatry’ e condotto da Antonio Vita, vicepresidente Sip, professore di psichiatria all’Università di Brescia e direttore del dipartimento di Salute Mentale Asst Spedali Civili di Brescia.
“La ricerca sulle possibili applicazioni dell’intelligenza artificiale in ambito sanitario non è mai stata così vivace come in questo momento – afferma la presidente Sip, Liliana Dell’Osso –. C’è in particolare un crescente interesse nel settore della salute mentale, nell’ambito del quale sono stati sviluppati e studiati numerosi algoritmi. È dunque facile lasciarsi trascinare dall’entusiasmo, ma c’è ancora molta strada da fare prima che queste tecnologie possano dare il loro contributo nella pratica clinica”. E questo è esattamente quello che dimostra la nuova review.
“L’Ia ha oggi una grande importanza sulla ricerca clinica, che si sta completamente innovando – sottolinea Emi Bondi, presidente uscente Sip –. Negli ultimi anni sono state effettuate numerose analisi e metanalisi che esplorano l’uso dell’IA nel campo della salute mentale, sempre focalizzate su singoli disturbi mentali, su algoritmi specifici o su metodiche strumentali precise. Questa nuova review è importante perché non si concentra su uno specifico algoritmo o su un singolo disturbo mentale, ma ha l’obiettivo di esaminare l’utilizzo attuale di questa tecnologia digitale nel campo della salute mentale”.
In particolare, i ricercatori hanno preso in considerazione tre tipologie di algoritmi: “il Natural Language Processing (Nlp), il machine learning e il deep learning. Nlp è una branca dell’intelligenza artificiale che aiuta i computer a capire, interpretare e manipolare il linguaggio umano. Un celebre esempio è ChatGpt. Il machine learning è invece un sottoinsieme dell’Intelligenza artificiale alimentato da dati e da algoritmi, affinché le macchine imparino e diventino sempre più capaci. Il deep learning impiega le reti neurali, algoritmi progettati per imitare il cervello umano, che devono essere addestrate mediante grandi set di dati affinché apprendano modelli e possano restituire previsioni accurate”, sottolinea la Sip.
“L’obiettivo della nostra review è stato quello di indagare le prestazioni della maggior parte degli algoritmi, analizzando in particolare i metodi più frequentemente utilizzati per raccogliere i dati per addestrarli – spiega Vita –. Per funzionare in modo ottimale, l’intelligenza artificiale richiede una grande quantità di dati: da parametri neurobiologici a registrazioni audio-video fino a database nazionali, anche assicurativi, o di dati di soggetti appositamente reclutati per testare uno specifico algoritmo. È dunque evidente che l’affidabilità di un algoritmo Ia dipende in gran parte dalla qualità dei dati utilizzati per elaborarlo. Le banche dati utilizzate non sono state create appositamente per questo scopo, dunque potrebbero esserci errori, carenze o semplificazioni che riducono l’affidabilità dell’Intelligenza artificiale”.
Inoltre, l’uso dell’Ia in campo clinico presenta ancora altri problemi, oltre a quelli relativi allo sviluppo di algoritmi efficienti e affidabili. “Questi problemi includono l’attribuzione di responsabilità e il rischio che dati sensibili finiscano nelle mani sbagliate – aggiunge Vita –. Attualmente manca una legislazione adeguata e in caso di errore dell’Ia, non è chiaro chi dovrebbe essere ritenuto responsabile: lo psichiatra che ha convalidato il risultato, il paziente che l’ha accettato, gli sviluppatori dell’algoritmo, il sistema sanitario che lo ha implementato, o nessuno? Inoltre, raccogliendo dati sensibili e monitorando le attività quotidiane, gli studi affrontano il rischio di mettere a repentaglio la privacy dei soggetti”.
Dunque, siamo ben lontani dall’essere curati dalle macchine, anche se intelligenti. “Nonostante i servizi di salute mentale abbiano subito una trasformazione importante verso la medicina digitalizzata, utilizzando la tecnologia a vari livelli, dalla diagnosi all’assistenza, ad oggi nessun metodo di intelligenza artificiale può dirsi pienamente promosso e adatto per essere utilizzato nella diagnosi, assistenza e cura dei pazienti – conclude Vita –. Tuttavia, essendo un settore in continua evoluzione, sono necessarie ulteriori ricerche per monitorare i progressi e gli algoritmi che potranno effettivamente essere di grande aiuto nella pratica clinica”.
La Ragione è anche su WhatsApp. Entra nel nostro canale per non perderti nulla!
Leggi anche