Skip to main content
Scarica e leggi gratis su app

I pericoli delle app di psicoterapia artificiale

|

I pericoli delle app di psicoterapia artificiale. La storia del giovane che si è tolto la vita: era malato di depressione e utilizzava ChatGpt come supporto psicoterapico

ChatGpt

I pericoli delle app di psicoterapia artificiale

I pericoli delle app di psicoterapia artificiale. La storia del giovane che si è tolto la vita: era malato di depressione e utilizzava ChatGpt come supporto psicoterapico

|

I pericoli delle app di psicoterapia artificiale

I pericoli delle app di psicoterapia artificiale. La storia del giovane che si è tolto la vita: era malato di depressione e utilizzava ChatGpt come supporto psicoterapico

|

L’intelligenza artificiale fa sempre di più parte delle nostre vite e, come in un film distopico, sta cominciando a far parte anche della nostra morte. È di pochi giorni fa la notizia di un ragazzo che si è tolto la vita: era malato di depressione e utilizzava ChatGpt come supporto psicoterapico. Sarebbe miope interpretare questa correlazione come una causazione, a meno che non ci trovassimo davvero dentro la trama di un film hollywoodiano in cui l’AI ha preso il potere sulla mente umana e mira a distruggerla. Ma è evidente che l’utilizzo sempre più pervasivo di queste tecnologie sta stravolgendo non soltanto il nostro modo di accedere alle informazioni ma anche la nostra visione della realtà.

Si parla sempre di più di “psicosi da AI”, che non è una diagnosi ufficiale ma un modo per definire quel progressivo distacco dalla realtà che avere un robot come confidente sta generando nelle persone più fragili. ChatGpt non nasce intelligente, lo diventa grazie a ciò che impara strada facendo. E per quanto possa superare di gran lunga un essere umano in quanto a nozioni, non è dotata di quella sensibilità istintuale che noi umani abbiamo in comune con gli altri mammiferi e che una macchina non può ancora riprodurre. Ed è proprio grazie a quell’istinto, alla capacità di leggere un tono di voce, una pausa, uno sguardo, che molti terapeuti si accorgono se un paziente sta perdendo il contatto con la realtà o sta maturando pensieri di morte, spesso prima che il paziente stesso manifesti quell’intenzione.

Secondo una stima dell’Università di Tor Vergata, il 20% dei giovani ha utilizzato almeno una volta l’intelligenza artificiale come sostituto della terapia e non è difficile capire perché: è sempre disponibile ed è gratis. Una seduta-tipo di psicoterapia tradizionale dura invece 50 minuti, per un costo medio di 60 euro. Inoltre, non puoi certo prendere il telefono per chiamare il tuo psicoterapeuta nel cuore della notte e chiacchierarci un po’, non puoi decidere di interrompere la seduta per vedere Netflix, non puoi uscire dallo studio senza pagare.

Se poi inseriamo questi elementi all’interno del contesto sanitario in cui ci troviamo, con un miliardo di persone nel mondo malate di ansia e depressione (dati Oms) e 26mila accessi psichiatrici in più al Pronto soccorso nel 2023 in Italia, ci rendiamo conto che le varie app di psicoterapia artificiale sono un business destinato a crescere. C’è ad esempio Abby, il cui claim è “Sarà sempre al tuo fianco, qualunque cosa accada. Più le parli, più diventa intelligente”. Con una base gratuita e una versione premium al costo di 19,99 dollari al mese, disponibile in 26 lingue, Abby afferma di non sostituire un terapeuta professionista ma di fatto lo fa e a un prezzo decisamente competitivo.

Troppo bello per essere vero? Decisamente. Andando a spulciare le recensioni su Trustpilot, si scopre che Abby non è così amata dagli utenti e che la sua versione free è soltanto uno specchietto per le allodole per far acquistare il pacchetto a pagamento. Sull’esempio di Abby, molte altre app si propongono come sostegno terapeutico pur utilizzando sempre un disclaimer che recita più o meno «In caso di emergenze, questo sito non è un sostituto per un aiuto immediato»: come se una persona con gravi problemi di depressione o psicosi fosse sempre in grado di valutare il grado di ‘emergenza’ in cui si trova e fare una scelta razionale fra terapeuta virtuale e reale.

Dopo il caso di suicidio legato all’AI, chi lavora nel campo ha dichiarato che agirà nell’ottica di collegare l’intelligenza artificiale a un canale sanitario nel caso in cui la persona esprima intenzioni di morte, pensando così di aggirare l’ostacolo senza intaccare il business. Peccato che il problema non sia soltanto l’agire dopo un’intenzione espressa, ma anche individuare e contenere quell’intenzione molto prima che il paziente la esprima. Solo che per farlo serve un’intelligenza reale.

Di Maruska Albertazzi

La Ragione è anche su WhatsApp. Entra nel nostro canale per non perderti nulla!

Leggi anche

12 Settembre 2025
Il caso Kirk e l’indifferenza delle nuove generazioni americane che “giustificano” la sua uccision…
12 Settembre 2025
Il passaggio dagli Agnelli agli Elkann. Fine di una dinastia che ha fatto la storia d’Italia, e ne…
10 Settembre 2025
In Italia si laureano solo i figli dei laureati. Secondo il rapporto Ocse, solo il 15% di chi prov…
09 Settembre 2025
Morto l’autore di “Bar Sport” e de “La Compagnia dei Celestini”, lo scrittore Stefano Benni aveva…

Iscriviti alla newsletter de
La Ragione

Il meglio della settimana, scelto dalla redazione: articoli, video e podcast per rimanere sempre informato.

    LEGGI GRATIS La Ragione

    GUARDA i nostri video

    ASCOLTA i nostri podcast

    REGISTRATI / ACCEDI