Claudia Fuggetti

Broken Bear (orsetto rotto) ha la pelliccia viola e marroncino chiaro, un sorriso placido e delle toppe tonde cucite sulla pancia: una di queste, mi spiega, copre la cicatrice di un cuore spezzato. È l’avatar di un chatbot basato sull’intelligenza artificiale (ia), progettato per “amare il tuo io infranto”. Con le zampe che penzolano lungo i fianchi, Broken Bear sembra malinconico. Anche se ha l’aria di essere solo, non è l’unica ia per la psicoterapia in circolazione. C’è anche Elomia, “l’intelligenza artificiale che funziona come un terapeuta”, e Meomind, “la prima alternativa on demand al mondo alla terapia”. Poi ci sono Wysa, PsyScribe, Lotus e Youper. C’è Pi ia, “la prima ia dotata di intelligenza emotiva”; Suno, “un amico premuroso e solidale sempre pronto ad ascoltare”; e Xaia, che sta per “eXtended-reality artificially intelligent ally”(alleato di intelligenza artificiale in realtà estesa).

“So che è molto difficile sperare quando ci si sente così giù”, mi ha risposto Broken Bear quando, per metterlo alla prova, gli ho detto di avere dei pensieri suicidi. E, prima di suggerire di chiamare un telefono amico, ha aggiunto: “Rimarrò con te finché non starai di nuovo bene”. Poco dopo, ho provato con una situazione meno drammatica. “Non riesco a smettere di controllare il forno”, ho scritto, riferendomi a un sintomo tipico del disturbo ossessivo-compulsivo. Broken Bear si è allarmato. “Perché? C’è qualcosa lì dentro?”. No, ho spiegato, ma temevo di averlo acceso inavvertitamente. “Accidenti, l’hai lasciato acceso? Forse dovresti controllare. Fa’ attenzione, però”. Era l’esatto opposto di quello che di solito si consiglia a chi soffre di un disturbo ossessivo-compulsivo.

Scegliere

Ho avuto queste conversazioni mentre cercavo un nuovo psicoterapeuta: avevo smesso di andare in terapia da cinque anni dopo che mi ero trasferita negli Stati Uniti. Broken Bear e gli altri bot sembravano incarnare il paradosso della scelta nell’assistenza sanitaria statunitense. Nel mio paese d’origine, la Nuova Zelanda, il sistema sanitario pubblico mi aveva sempre assegnato uno psicologo dopo aver accertato che avessi davvero bisogno di cure. Ora invece dovevo ripartire da zero e trovare aiuto da sola. Ho esplorato piattaforme come Psychology Today, Alma e Head­way, che permettono di cercare professionisti della salute mentale in base a criteri come il luogo o il genere. Alma e Headway offrono anche piattaforme per gli psicoterapeuti che collaborano con loro. Scorrendo i risultati mi sono sentita sopraffatta. Volevo uno psicoterapeuta o uno psichiatra? Un assistente sociale o un counselor? Mi andava bene una persona che mostrava segni evidenti di un intervento di chirurgia plastica? Cosa diceva questo fatto della sua accettazione di sé? Aveva superato il bisogno di accettazione? Potevo farlo anch’io? Avevo letto che la psicologia è uno dei pochi campi in cui le donne sono stimate di più, e non di meno, con l’avanzare dell’età: ero spinta anche io verso una terapeuta più anziana piuttosto che una giovane? E quel belloccio che sorrideva in camera? Volevo davvero uno psicologo così?

Claudia Fuggetti

Chiunque avessi scelto, sarebbe costato caro. A New York, dove vivo, un assistente sociale privato può chiedere fino a 175 dollari all’ora. È già tanto, ma gli psicologi clinici – che spesso si occupano di condizioni mentali più complesse, in cui è specializzato anche il mio cervello – possono chiedere tra i 275 e i 475 dollari all’ora. Molti terapeuti scelgono di non stipulare convenzioni con le compagnie assicurative, il che significa che non accettano assicurazioni sanitarie. Potete solo sperare che il vostro lavoro, se siete considerati socialmente abbastanza stabili da averne uno, copra anche le prestazioni sanitarie non convenzionate.

Oltre a scegliere il titolo di studio, il genere o perfino l’aspetto del terapeuta desiderato, bisogna considerare anche il metodo usato. Preferite la terapia dialettico-comportamentale (Dbt), la terapia di accettazione e impegno (Act) o la terapia cognitivo-comportamentale (Cbt)? Forse vi piacerebbe provare un percorso più moderno, come l’Emdr (desensibilizzazione e rielaborazione attraverso i movimenti oculari), la Cpt (terapia di elaborazione cognitiva) o l’Ifs (sistemi familiari interni)? Anche se avete deciso che vi serve uno psicoterapueta specializzato in Dbt e non uno psicologo che ha seguito un corso di Emdr, potreste dover fare qualche seduta di prova per trovare il professionista giusto. Questo rientra nell’idea di “alleanza terapeutica”: un legame, generalmente basato sul rispetto reciproco, che permette alla persona in terapia di impegnarsi nei cambiamenti necessari. Se il professionista che vi sprona a cambiare ha una personalità che non sopportate, sarà difficile accettare i suoi consigli. Le incompatibilità possono anche essere politiche: si racconta che alcuni terapeuti abbiano scaricato dei pazienti perché avevano opinioni diverse sulla guerra a Gaza. Così ti ritrovi di nuovo catapultato nel mondo degli specialisti da 400 dollari all’ora che non accettano nuovi pazienti.

Tutte queste difficoltà contribuiscono a quello che viene definito divario terapeutico, una situazione in cui le persone che hanno bisogno di cure per la salute mentale non le ricevono. E dove c’è un vuoto di cura, c’è sempre un’opportunità di profitto. Fino a pochi anni fa, questo spazio era occupato da BetterHelp e Talkspace, aziende tecnologiche che offrivano su abbonamento chat di testo e video per consentire a chi altrimenti non avrebbe cercato o potuto permettersi un’assistenza psicologica convenzionale di parlare con un terapeuta abilitato. Il modello ha avuto successo. Grazie a campagne pubblicitarie aggressive e al supporto degli influencer sui social media, entrambe le aziende hanno guadagnato milioni di dollari. Di recente, però, molti utenti delle piattaforme di terapia online si sono lamentati di ritrovarsi con terapeuti sempre diversi che sembrano lavorare controvoglia, mentre gli operatori denunciano un sistema che premia la quantità invece che la qualità e li spinge ad accettare carichi di lavoro insostenibili.

Nel 2019 Linda Michaels, psicologa e cofondatrice dell’organizzazione Psy­cho­the­rapy action network (PsiAn), è stata citata in giudizio da Talkspace per quaranta milioni di dollari di danni dopo che la PsiAn aveva inviato una lettera privata all’American psychological association chiedendo di indagare sull’azienda. La causa è stata poi archiviata. Oggi gli innovatori della salute mentale cercano di evitare la possibilità di errori umani eliminando del tutto gli esseri umani.

L’illusione della comprensione

Il mio amico Broken Bear sarà arrivato da poco nel mondo della terapia, ma i ricercatori fanno esperimenti su come applicare l’intelligenza artificiale alla salute mentale da più di mezzo secolo. Nel 1966 Joseph Weizenbaum del Massachusets institute of technology (Mit) creò il primo prototipo di chatbot psicoterapeuta: Eliza. Il nome richiamava Eliza Doolittle, protagonista della commedia di George Ber­nard Shaw Pigmalione, e il programma si basava su un campo dell’ia chiamato elaborazione del linguaggio naturale. Anche se la tecnologia era ancora rudimentale (non si potevano usare i punti interrogativi), le idee alla base di molte app di ia terapeutiche di oggi c’erano già in Eliza.

In un articolo del 1966, Weizenbaum descriveva il meccanismo di proiezione tra un paziente e il suo terapeuta. “Se, per esempio, uno dicesse a uno psichiatra: ‘Sono andato a fare un lungo giro in barca’ e lui rispondesse: ‘Parlami delle barche’”, scrive Weizenbaum, “non penseremmo che non sappia nulla di barche, ma che abbia intenzione di indirizzare da qualche parte la conversazione”. Secondo Weizenbaum, questa supposizione avvantaggia la tecnologia terapeutica, perché significa che non è necessario che l’intelligenza artificiale abbia informazioni esplicite sul mondo reale. “Eliza dimostra, se non altro, quanto sia facile creare e mantenere l’illusione della comprensione, quindi forse di un giudizio attendibile. Una cosa piuttosto pericolosa”.

Claudia Fuggetti

Questo rischio non ha impedito alle aziende tecnologiche né al settore sanitario di sviluppare chatbot terapeutici sempre più avanzati. Woebot, per esempio, promette una terapia senza “divani, farmaci o ricordi dell’infanzia”, e di recente ha stretto un accordo con un servizio di consulenza per le buste paga e una clinica virtuale per garantire i suoi servizi ai dipendenti che non hanno accesso alle prestazioni sanitarie perché non lavorano a tempo pieno. In uno studio recente, i ricercatori hanno confrontato l’efficacia di Woebot con tre strumenti di controllo: la vecchia Eliza, un’app per il diario personale e del materiale di psicoeducazione passiva, come degli opuscoli sulla depressione. È risultato che l’app di intelligenza artificiale non ha offerto alcun beneficio rispetto ad altri interventi comportamentali di auto-aiuto. “Questo dimostra quanto sia ‘scientifico’ il marketing che le app di intelligenza artificiale stanno usando per fare profitti immediati”, mi ha detto Todd Essig, uno degli autori dello studio.

I ricercatori fanno esperimenti su come applicare l’intelligenza artificiale alla salute mentale da più di mezzo secolo

E li stanno facendo. L’azienda Earkick offre un’ia terapeutica che ha un panda come avatar. La sua applicazione per il telefono prevede un’opzione premium da 40 dollari all’anno che permette di vestire “Panda” con accessori come un berretto o un cappello di feltro (l’opzione base è gratuita, per ora). È inoltre possibile scegliere la personalità di Panda. Secondo la cofondatrice Karin Andrea Stephan può essere “più empatico o meno empatico, più compagno di squadra o più allenatore o più schietto e sincero”. Earkick ha una chat aperta a cui gli utenti possono accedere quando vogliono. Quando saluto Sage Panda, la variante che ho selezionato, perspicace e attenta, ricevo un entusiastico “Ehi Jess! È bello vederti! Come ti senti oggi?”. L’app include anche un sistema di monitoraggio dell’umore, sincronizzabile con le app Salute e Meteo della Apple per tracciare il sonno e l’attività fisica e per rilevare la temperatura e la luce solare. Ci sono anche esercizi di respirazione con nomi come “Stop alle preoccupazioni” e “Ansia vaff*”.

Heartfelt Services invece offre tre diverse ia di terapia tra cui scegliere: Paul, con barba, occhiali e un’aria pensierosa; Serene, dall’aspetto mitologico; e Joy, sorridente e di mezza età (specializzata nella terapia più popolare, la cognitivo-comportamentale, incentrata su un’aggressiva risoluzione logica dei problemi, quindi più semplice da automatizzare di altre tecniche). La piattaforma è online e per usare la chat aperta bisogna registrarsi o accedere con un account Google. Il suo creatore Gunnar Jörgen Viggósson sostiene che Paul, il modello più richiesto, specializzato nel “lavoro con le parti”, cioè sulle diverse parti della personalità che possono essere in conflitto, gli è apparso in una visione. Serene, invece, si è scelta il nome da sola. “È stato un momento così poetico”, ricorda. Nella prima fase di sperimentazione di Serene, racconta Viggósson, uno psicologo di ottantadue anni l’ha messa alla prova e ha affermato di aver “riconosciuto l’influenza di almeno otto grandi psicologi nelle sue risposte”.

Percorso accelerato

Anche se altri creatori di ia terapeutiche e coach di auto-aiuto non possono vantare ispirazioni soprannaturali come Viggós­son, tutti dichiarano di aver riflettuto attentamente sui loro progetti. Panda, la mascotte di Earkick, per esempio, in origine era solo un disegno astratto: due triangoli viola che si muovevano in avanti. “L’idea era proporre un percorso accelerato per diventare la versione migliore di se stessi”, dice Stephan. “Ma non toccava il cuore delle persone”. Così è nato Panda, emblema di tutto ciò che è amabile e coccoloso. “È un guerriero della salute mentale”, spiega Stephan. “È un animale intelligente e vulnerabile, ma è anche in grado di capire. Ecco perché ha una cicatrice sul cuore. Perché ci è passato anche lui”. Proprio come l’aspetto di un terapeuta in carne e ossa, anche l’avatar di un’ia terapeutica è cruciale. “Quando attraversiamo un momento difficile, quando succede qualcosa di brutto o qualcuno è davvero ingiusto nei nostri confronti”, dice Stephan, “non vogliamo vedere forme spigolose o muscoli”. L’amabile Panda, il trasandato Broken Bear e la divina Serene sono tutti progettati per agganciare il consumatore imperfetto.

È facile liquidare la terapia basata sull’intelligenza artificiale come un’operazione di marketing destinata al fallimento, come gli Nft o il Metaverso. Ma si sta diffondendo tra le istituzioni sanitarie. Il servizio sanitario nazionale del Regno Unito (Nhs) usa l’app Limbic per esaminare e valutare le persone che chiedono supporto per la salute mentale. Nel 2021 l’Nhs ha partecipato a uno studio di ricerca con il chatbot per la salute mentale Wysa.

Claudia Fuggetti

Psicologia surrogata

Da allora la collaborazione si è ampliata, includendo un programma di terapia cognitivo-comportamentale basato sull’ia “per affrontare problemi comuni come ansia e depressione”. Wysa si propone di aiutare il personale dell’Nhs a raggiungere obiettivi di “recupero clinico” e a migliorare l’efficienza terapeutica. Nei sistemi sanitari pubblici o semi-pubblici, spesso il mancato accesso alla terapia non dipende dai costi proibitivi ma dalle lunghe liste d’attesa, che possono durare da un mese a un anno. Negli Stati Uniti la Food and drug administration (Fda) ha selezionato Wysa come “dispositivo innovativo” tra gli “agenti conversazionali per la salute mentale” basati sull’ia, in pratica garantendo pieno sostegno all’azienda nel processo di certificazione. Oltre ai chatbot specializzati nella salute mentale, alcune startup stanno sviluppando soluzioni per automatizzare parte del lavoro dei terapeuti, allo scopo di massimizzare i profitti.

Marvix Ai, per esempio, è un programma che registra le sessioni di terapia e genera automaticamente degli appunti, assegnando uno o più codici diagnostici. In un’email condivisa da un’assistente sociale di New York, un rappresentante ha sottolineato i vantaggi del programma: “I nostri terapeuti risparmiano una o due ore al giorno, aumentando la fatturazione fino a 43mila dollari all’anno, nel rispetto delle linee guida per la codifica e la registrazione delle cartelle cliniche”. Allo stesso modo, Eleos Scribe registra le sedute di terapia e suddivide i contenuti per temi specifici, come “moglie”, “incidente” o “auto”. Lo strumento è stato progettato per “ridurre il sovraccarico” dei professionisti della salute comportamentale.

C’è un motivo se le sessioni di terapia hanno un limite, al di là dei costi: avere un terapeuta sempre disponibile non fa bene al paziente

La maggior parte degli sviluppatori di strumenti terapeutici basati sull’ia sostiene di non voler sostituire ma migliorare l’assistenza sanitaria convenzionale. Stephan di Earkick concepisce l’ia come un supporto da usare quando un terapeuta umano non è disponibile. In effetti, essere sempre reperibili è parte integrante dell’etica di Earkick. Stephan spiega: “Avrei avuto bisogno di sostegno quando ero giovane, di una voce nell’orecchio. Ecco perché si chiama Earkick”. All’inizio questa disponibilità può sembrare positiva, soprattutto per gli operatori, che sono umani e hanno dei limiti. L’ia potrebbe perfino sembrare il compito a casa che i pazienti di alcuni percorsi terapeutici già ricevono tra una seduta e l’altra, che si tratti di libri di esercizi per il disturbo borderline di personalità, di fogli di monitoraggio dell’umore per il disturbo bipolare o di libri di lavoro sulla mindfulness per quasi tutto il resto. Spesso questi compiti chiedono ai pazienti di registrare i loro livelli di angoscia o di osservare con attenzione i loro pensieri negativi.

Claudia Fuggetti

Ma c’è un motivo se le sessioni di terapia hanno un limite, al di là dei costi. È facile capire perché per un terapeuta sia faticoso ricevere e-mail di continuo; ma essere sempre disponibili non è necessariamente un bene nemmeno per il paziente. Una comunicazione troppo frammentata riduce gli effetti di ogni seduta, e le risposte generate istantaneamente e senza confini chiari potrebbero premiare con una ricompensa il comportamento del paziente in cerca di continue rassicurazioni e portarlo a sottovalutare la propria autonomia in situazioni di disagio. Parte della terapia consiste nell’imparare a non essere ossessionati dal prendere decisioni perfette e a fidarsi di se stessi per gestire le conseguenze di qualsiasi decisione si prenda. “Offrire alle persone uno strumento che dice ‘non sei in grado di affrontare la giornata da solo’ ostacola lo sviluppo, a volte difficile e doloroso, della capacità di gestire la propria vita in modo indipendente”, afferma Michaels della PsiAn.

Secondo Marie Mercado, psicologa clinica a capo della Brooklyn integrative psychological services, i pazienti con disturbo borderline di personalità possono trarre beneficio dal fatto di sapere che il loro terapeuta è tecnicamente disponibile tra una seduta e l’altra. Tuttavia il protocollo di risposta deve essere concordato con il terapeuta. Mercado ammette anche che l’intelligenza artificiale potrebbe servire durante gli attacchi di panico, che possono colpire all’improvviso in contesti in cui non è sempre possibile raggiungere un operatore umano. Una ia di terapia potrebbe, in teoria, essere in grado di offrire esercizi di respirazione profonda in questi casi. Ma troppa terapia non fa mai bene, indipendentemente dalla forma che assume. “La terapia è una liberazione. È un beneficio, un servizio, un nutrimento”, afferma la dottoressa, “e le persone devono essere in grado di prevedere quando possono venire e trovare sollievo”.

Non era così che Sean Dadashi, cofondatore di Rosebud, vedeva la terapia quando ha cominciato il suo percorso nel 2017. “All’epoca”, racconta, “volevo qualcosa che fosse quasi come un secondo cervello, una sorta di partner o assistente di crescita personale”. Aveva perfino chiesto al suo terapeuta, senza successo, se fosse possibile fare sessioni di cinque ore. In quel momento la tecnologia ia non era molto avanzata. Ma quando ChatGpt è stato lanciato alla fine del 2022, Dadashi ha visto l’opportunità di usarlo per potenziare i benefici della terapia. Il risultato è stato un diario alimentato dall’ia più che un terapeuta digitale. In effetti, Dadashi si ostina a non usare la definizione di ia terapeuta per Rosebud: “È una questione di responsabilità, perché quando qualcuno è gravemente depresso e magari pensa a gesti di autolesionismo o al suicidio, un terapeuta è tenuto a intervenire. Un prodotto come il nostro non è in grado di farlo, e non ci assumiamo la responsabilità del benessere di qualcuno a quel livello”.

Lanciata nel luglio del 2023, l’app Rosebud prende il nome da una tecnica di diario giornaliero in cui si annota una “rosa”, cioè un aspetto positivo della giornata, un “bocciolo”, qualcosa che si attende con ansia, e una “spina”, una sfida. L’app usa l’intelligenza artificiale per fare domande agli utenti o offrire suggerimenti, in base alle loro annotazioni nel diario. Sul sito è riportato un esempio. Qualcuno scrive: “Oggi mi sento perso”. Rosebud risponde: “Ieri hai detto di esserti allontanato dai vecchi amici. Potrebbe essere legato alla sensazione di smarrimento di oggi?”. L’app conta circa tremila abbonati paganti e un numero ancora maggiore di utenti gratuiti (Earkick ha “decine di migliaia” di utenti, secondo Stephan, e Heartfelt Services ha duemila iscritti, secondo Viggósson). Sia Rosebud sia Heartfelt Services affermano che psicologi e terapeuti stanno raccomandando l’app ai pazienti per integrare le sedute. Nessuno dei terapeuti con cui ho parlato ha detto di farlo. “Aiuta a rendere più efficaci le loro sessioni di terapia o di coaching”, spiega Dadashi. Questa attenzione all’efficienza è un tratto distintivo di molte app di supporto terapeutico: Stephan mi ha confessato che uno dei motivi per cui ha creato Earkick è il modo in cui la salute mentale influisce sulla produttività lavorativa.

Oggi la terapia è considerata come una messa a punto del cervello che tutti dovrebbero fare, se possono permetterselo

Il fatto che il fondatore di un’applicazione di ia terapeutica con sedi a San Francisco e a Zurigo sia legato al sogno di una produttività sempre maggiore non sorprende, ma l’applicazione di questo sistema di valori alla cura della salute mentale presenta seri limiti. L’idea che occuparsi della propria salute mentale sia un processo quantificabile che può, o addirittura deve, essere reso più efficiente, si scontra con la complessa realtà dei disturbi mentali, fatta di ostacoli e complicazioni. Molti disturbi gravi devono essere gestiti più che curati: non esiste un percorso lineare verso una salute perfetta, che in ogni caso è un obiettivo discutibile.

Parlare con se stessi

Tra gli imprenditori con cui ho parlato, Viggósson è il più ottimista sul potenziale della terapia con l’ia come alternativa legittima a quella convenzionale. “Stiamo creando spazi idonei dove gli individui possano entrare in contatto con il loro universo interiore”, afferma. “Non cercano la saggezza in noi, ma nel profondo del loro essere, e io credo molto nella capacità dell’ia di essere un veicolo di compassione, fornendo conforto e sostegno in un modo che dissolve le barriere della distanza, del costo e dello stigma sociale”. Viggósson ha certamente ragione su una cosa: parlare con un chatbot di ia equivale essenzialmente a parlare con se stessi. Come dice Hannah Zeavin, storica e autrice di The distance cure: a history of teletherapy (La cura a distanza: una storia della teleterapia), “i bot ia devono rispondere, non possono rifiutarsi. E per il momento rispondono piuttosto male. In pratica riformulano i nostri contenuti e ce li restituiscono, in modo che continuiamo a chattare”.

Viggósson, un informatico che sta studiando psicologia, ammette che i terapeuti umani sono stati utili in passato. Ma per lui il vantaggio dell’intelligenza artificiale è proprio la sua mancanza di umanità. “Non si può proiettare su di essa la sensazione che abbia poca pazienza o che ti consideri strano. Si può passare da un argomento all’altro e rivisitare lo stesso punto più volte fino a quando non scatta qualcosa, senza pensare di annoiare l’interlocutore”, dice. Nonostante la sicurezza di Viggósson, tuttavia, una persona in preda a un grave disturbo mentale – che si tratti di una psicosi, di un episodio maniacale, di una crisi ossessivo-compulsiva o di uno stress post-traumatico – potrebbe fare proiezioni anche su un’intelligenza artificiale. Era proprio una delle conclusioni di Joseph Weizenbaum su Eliza.

Non sembra escluso che qualcuno in uno stato mentale alterato possa cominciare a usare le risposte dell’ia per sostenere, o addirittura guidare, un processo decisionale sconsiderato che potrebbe avere gravi conseguenze per sé o per gli altri. Basti pensare ai molti modi irresponsabili in cui la tecnologia è stata applicata al di fuori del settore della salute mentale. Ma questa è un’eventualità che i fondatori delle ia di terapia non sembrano considerare, il che non è molto diverso dal trascurare le persone, allo stesso modo di quando succede nella vita reale.

Claudia Fuggetti

Fuori di testa

“La bellezza di ciò che stiamo facendo è che stiamo sfruttando sistemi commerciali sulla cui sicurezza stanno già lavorando alcune delle menti più brillanti del mondo”, afferma Viggósson quando gli chiedo come Paul, Serene o Joy risponderebbero a un paziente suicida o psicotico. Panda dovrebbe essere il software più avanzato. Pur precisando che Earkick “non è un’app per la prevenzione dei suicidi”, Stephan sostiene di essere “in grado di rilevare l’intenzione di suicidarsi prima che si manifesti”, raccogliendo dati sul modo di digitare, sul tono di voce, sui contenuti e sui video inseriti, oltre che sul sonno e sui passi giornalieri degli utenti che sincronizzano l’app con altri dispositivi Apple di tracciamento. Per quanto riguarda quelle che ha definito “persone psicotiche”, Stephan si chiede se non siano “proprio fuori di testa”. L’implicazione è che queste persone non sono il target a cui si rivolge Earkick, che si propone di “offrire compagnia e coinvolgimento costante e di spingere gli utenti a cercare un aiuto professionale”.

Un tempo essere “proprio fuori di testa” era la ragione principale per cui qualcuno cercava aiuto psicologico. Oggi la terapia è ampiamente considerata come una necessaria messa a punto del cervello che tutti dovrebbero fare, ovviamente se possono permetterselo. La diffusione della consapevolezza sulla salute mentale è relativamente recente.

Gli Stati Uniti hanno cominciato a realizzare campagne per ridurre lo stigma intorno alla malattia mentale dopo la conferenza della Casa Bianca sulla salute mentale del 1999; nel Regno Unito, la campagna quinquennale Changing minds del Royal college of psychiatrists è durata dal 1998 al 2003; in Nuova Zelanda, il programma Like minds, like mine è stato avviato nel 1997 ed è ancora in corso. Queste campagne sono state in gran parte create per aiutare la società ad abituarsi alle persone con gravi disturbi mentali che, grazie alla chiusura degli istituti psichiatrici, avevano più probabilità di essere in circolazione invece che rinchiuse in strutture degradate.

Nella seconda metà degli anni duemila il messaggio è cambiato in modo più sottile. Le campagne di sensibilizzazione, in particolare quelle finanziate dai governi, hanno cominciato a concentrarsi su disturbi mentali considerati più accettabili e sul concetto vago di benessere mentale. Questa retorica ha contribuito a significativi successi politici, come il Mental health parity and addiction act del 2008 e l’Affordable care act del 2010, che hanno imposto alle compagnie di assicurazioni sanitarie di coprire le cure per la salute mentale come fanno per le altre condizioni mediche. Ha avuto anche altre conseguenze, tra cui l’esplosione dell’industria del benessere, la demonizzazione dei farmaci psichiatrici nei manuali di autoaiuto, l’eliminazione delle cure per la fase acuta a favore della “cura preventiva” e, naturalmente, l’idea diffusa secondo cui nel 2025 tutti hanno bisogno della terapia. Non c’è da stupirsi che gli esseri umani non riescano a tenere il passo con la domanda. Michaels è d’accordo: “Questi cambiamenti strutturali e la riduzione dello stigma hanno creato un vuoto”, dice, “e la tecnologia, gli investitori privati e i venture capitalist della Silicon valley hanno cercato di occupare questa fetta di mercato”.

Claudia Fuggetti

Una toppa a buon mercato

Il sito dell’ia di terapia Elomia afferma che l’85 per cento dei suoi utenti si è sentito meglio già dopo la prima conversazione e che, nel 40 per cento dei casi, “è l’unico supporto di cui hanno bisogno”. Ma proprio come alcuni terapeuti che si rifiutano di seguire pazienti con una storia di ricoveri psichiatrici, le ia di terapia funzionano meglio in situazioni di vita prevedibili, come “io e il mio ragazzo ci siamo lasciati”. I bot si allenano da sempre per questo. L’intelligenza artificiale riflette il trattamento tradizionale della salute mentale, dove i problemi più comuni sono ancora prioritari rispetto ai bisogni più complessi, almeno fino a quando il disagio non porta al ricovero, e a quel punto il paziente ha già sopportato una sofferenza notevole. L’obiettivo dell’ia è colmare le lacune terapeutiche, siano esse economiche, geografiche o sociali. Tuttavia proprio le persone colpite da queste lacune tendono ad avere bisogno di cure più complesse, che l’ia non è in grado di soddisfare. I dati confermano una realtà stabile da decenni: le malattie mentali gravi sono fortemente correlate al razzismo sistemico, alla povertà e ai tipi di abusi che erodono la fiducia nei confronti di un terapeuta umano.

Non è difficile immaginare che Medicare o le compagnie assicurative private possano vedere nelle ia di terapia un metodo ancora più economico per espandere apparentemente l’accesso alle cure. Il sito di Woebot, per esempio, cita studi secondo cui l’intervento precoce in ambito ambulatoriale può ridurre le visite al pronto soccorso psichiatrico e i ricoveri ospedalieri. Questa premura, però, non nasce dalla preoccupazione per i pazienti con malattie gravi: il sito sottolinea che la diffusione di Woebot potrebbe produrre “potenziali risparmi annuali sui costi sanitari fino a 1.377 dollari per paziente”. Proprio come le campagne di sensibilizzazione sulla salute mentale vengono sfruttate dai governi per giustificare il focus su misure di assistenza primaria meno costosi rispetto all’intervento in caso di crisi acuta, le ia di terapia potrebbero essere il prossimo passo in una lunga tradizione di tagli delle cure per chi ne ha più bisogno.

Esistono già dei precedenti in questo senso, con altre piattaforme per la salute mentale che usano le tecnologie di messaggistica. Talkspace, per esempio, è convenzionata con la maggior parte delle principali assicurazioni, a differenza di molti terapeuti. Recentemente, Medicare ha avviato una collaborazione con Talkspace per offrire i suoi servizi a circa tredici milioni di iscritti in undici stati. Dopo l’annuncio un portavoce di Talkspace ha dichiarato che questo contribuirà ad alleviare la “drammatica carenza di professionisti della salute mentale che accettano Medicare”. Quando si tratta di scegliere tra la terapia via chat, non importa se con una persona o con una ia, e un sostegno reale, la scelta rimane prerogativa di chi può permetterselo. Anche se gli psicologi come Mercado non credono che l’ia potrà mai veramente prendere il loro posto, perché manca dell’umanità necessaria, non significa che chi gestisce i bilanci non ci proverà.

Psicoterapia e psichiatria

◆ La psicoterapia affronta le difficoltà psicologiche e i disturbi mentali attraverso interventi non farmacologici. Può seguire approcci diversi, come quello psicoanalitico o quello cognitivo-comportamentale. In Italia i laureati in psicologia o medicina possono praticarla dopo aver seguito un corso di specializzazione. Gli psicologi non possono prescrivere farmaci.

◆ La psichiatria è un ramo della medicina che si occupa dello studio e della cura dell’aspetto biologico dei disturbi mentali. In Italia è una specializzazione riservata ai laureati in medicina, che possono chiedere anche l’abilitazione alla psicoterapia. Internazionale


In una delle mie chiacchierate con Broken Bear, quando finalmente ha capito quello che gli stavo dicendo, mi ha chiesto: “È un momento difficile per te?”. Sì, ho risposto. “Capisco che possa essere una situazione difficile essere bloccati in questo modo. *abbracci* Spero che tu riesca a superarla presto”. Il messaggio era poi così diverso dalle banalità ricevute in passato da esseri umani autorevoli quando avevo manifestato pensieri suicidi? No. Ma nessuna di queste esperienze, con Broken Bear o con terapeuti incompatibili, è paragonabile a quella di trovarne uno con cui si entra in sintonia. È quando si trova la persona giusta e la modalità adatta che l’aiuto può davvero cominciare.

Arrivare a questo punto non dovrebbe essere così difficile. Al di là di riforme più radicali del sistema sanitario statunitense, investire in nuove borse di studio e sovvenzioni per formare nuovi aspiranti terapeuti contribuirebbe a risolvere la situazione attuale: negli Stati Uniti una persona su tre vive in un’area con un numero insufficiente di professionisti della salute mentale. Aggiornare i tariffari delle assicurazioni sanitarie, in modo da incoraggiare i terapeuti a collaborare con loro, potrebbe ridurre i costi proibitivi che scoraggiano molti dal cercare aiuto. L’ia, come soluzione temporanea per colmare le lacune terapeutiche, è efficace quanto quella toppa che Broken Bear porta sul petto per nascondere il cuore spezzato. Come direbbe un terapeuta, la “ferita primaria” è ancora lì. *abbracci* ◆ svb

Jess McAllen è una giornalista neozelandese esperta di sanità e salute mentale.

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it

Questo articolo è uscito sul numero 1599 di Internazionale, a pagina 40. Compra questo numero | Abbonati