| |
|
|
 |
CHATBOT INTELLIGENTI per GIOVANI IN CRISI |
 |
 |
Inserito il 10 aprile 2027 da admin. - psichiatria_psicologia - segnala a:
Conversazione del Jama con un eminente psichiatra in merito ad un fenomeno sempre più diffuso BOZZA DA CORREGGERE
Conversazione con John Torous, psichiatra e direttore della digital psychiatry al Beth Israel Deaconess Medical Center.
l’uso dei chatbot basati su intelligenza artificiale nel campo della salute mentale dei giovani. Il tono generale non è né entusiastico né catastrofico. Il messaggio principale è più equilibrato: questi strumenti possono apparire utili, accoglienti e persino “terapeutici”, ma prima di considerarli davvero affidabili bisogna valutarli con gli stessi criteri seri che usiamo per qualunque altro intervento clinico. John Torous sottolinea anzitutto che oggi è relativamente facile costruire un chatbot capace di parlare in modo fluido, empatico e rassicurante. La vera difficoltà non è quindi tecnica, ma clinica: un conto è simulare una conversazione convincente, un altro conto è dimostrare che quella conversazione produca un beneficio reale, stabile e sicuro per adolescenti e giovani adulti. Questo passaggio è molto importante. Nella salute mentale il linguaggio ha un peso enorme, e proprio per questo un sistema che “sembra capire” può generare una forte impressione di aiuto. Ma l’impressione soggettiva non basta. Secondo Torous, bisogna chiedersi se il chatbot riduca davvero ansia, depressione o disagio, se migliori il funzionamento quotidiano e soprattutto se eviti risposte inappropriate o pericolose nei momenti delicati.
I punti chiave della conversazione Il primo punto riguarda la qualità delle prove scientifiche. Torous osserva che diversi studi sui chatbot per la salute mentale hanno confrontato questi strumenti con liste di attesa o con l’assenza di trattamento. In questi casi, se il chatbot ottiene un risultato migliore, non è ancora chiaro se l’effetto dipenda da una reale efficacia terapeutica oppure da fattori più generici, come la novità dello strumento, l’attenzione ricevuta o un semplice effetto placebo. Il secondo punto riguarda gli esiti da misurare. Non basta dire che un giovane riferisce di sentirsi un po’ meglio dopo alcune interazioni con il chatbot. Bisogna capire se migliora la vita reale: frequenza scolastica, qualità del sonno, relazioni familiari, capacità di studio,funzionamento sociale, continuità delle cure. In altre parole, il miglioramento dovrebbe essere concreto e non soltanto registrato in un questionario. Il terzo punto è quello dei guardrail, cioè dei limiti e delle protezioni. In salute mentale, e ancor più nei giovani, non si può lasciare un chatbot in una zona grigia senza sapere come si comporti di fronte a crisi emotive, pensieri autolesivi, richieste ambigue o contenuti potenzialmente dannosi. Serve quindi una valutazione sistematica della sicurezza, non soltanto della gradevolezza conversazionale. Infine Torous propone l’idea del benchmarking: costruire scenari standardizzati, pensati insieme da clinici, pazienti, familiari e comunità coinvolte, per confrontare modelli diversi in modo trasparente. Non si tratta di stabilire quale chatbot “parli meglio”, ma quale sia più appropriato, prudente, coerente e sicuro in situazioni clinicamente rilevanti.
Commento
A nostro giudizio il valore di questa conversation sta nella sua sobrietà. Non promette miracoli e non demonizza la tecnologia. Ricorda piuttosto una verità metodologica essenziale: in medicina, e ancor più in psichiatria, non possiamo scambiare la plausibilità narrativa con la prova clinica. Il rischio specifico dei chatbot è infatti quello di essere molto convincenti sul piano linguistico. Proprio questa fluidità può indurre utenti fragili, e in particolare giovani soli o spaventati, ad attribuire al sistema una competenza che non è stata ancora sufficientemente dimostrata. Per questo il criterio corretto non è domandarsi se il chatbot sia simpatico, disponibile o persino consolante; bisogna chiedersi se sia affidabile, se sappia riconoscere i propri limiti e se indirizzi correttamente verso aiuti umani quando necessario. La conversation lascia anche intuire una distinzione importante, che meriterebbe ulteriori studi: non tutti gli usi dell’AI conversazionale sono uguali. Un conto è la psicoeducazione o l’orientamento ai servizi, un conto è un vero supporto clinico, e un altro ancora è la gestione di situazioni di crisi. Più aumenta il rischio clinico, più devono aumentare le prove, la supervisione e la cautela. In sintesi, il messaggio finale è molto condivisibile: i chatbot in salute mentale possono avere un ruolo, ma non devono essere valutati per la loro eleganza verbale bensì per efficacia, sicurezza, trasparenza e appropriatezza. Per i giovani, categoria particolarmente vulnerabile e fortemente esposta al fascino dell’interazione digitale, questo richiamo alla prudenza è non solo ragionevole, ma necessario.
[b] Riccardo De Gobbi e Giampaolo Collecchia
Bibliografia: Yulin Hswen, AI Chatbots and Youth Mental Health, JAMA, pubblicato online il 26 marzo 2026.
|
 |
 |
Letto : 6 | Torna indietro | | |
|
 |
 |
 |
 |
|
|
|