Se le terapie assistite da MDMA e psilocibina continueranno sul loro attuale percorso normativo, è probabile che entrino nella medicina tradizionale nei prossimi anni. Ma c’è un enorme collo di bottiglia: non ci sono abbastanza clinici formati per guidare in sicurezza le persone attraverso questi stati non ordinari.
La formazione tradizionale ha un problema:
- Non puoi imparare a supportare qualcuno in uno stato psichedelico…
- …senza lavorare con qualcuno in uno stato psichedelico.
- Ma nessuno vuole che il proprio primo viaggio profondo sia facilitato da un principiante assoluto.
La simulazione risolve questo problema nell’aviazione e nella chirurgia. Ora, un’organizzazione no-profit pensa di poterlo risolvere anche nel campo degli psichedelici.
Ecco Lucy: la prima "paziente psichedelica" AI

Lucy è stata creata da Fireside Project, l’organizzazione no-profit dietro la Psychedelic Peer Support Line.
Ecco cosa la rende diversa da un chatbot generico:
- Emotivamente intelligente, voce-a-voce
È progettata per sembrare e sentirsi come una persona reale in un viaggio, cambiando tono, ritmo e vulnerabilità in base a come interagisci con lei. - Addestrata su storie psichedeliche reali
Lucy è costruita su un dataset di oltre 7.000 chiamate di supporto anonimizzate da persone durante e dopo esperienze psichedeliche, dandole un’ampia gamma di scenari credibili, dai principianti ansiosi ai viaggiatori esperti che elaborano traumi. - Focalizzata sulla formazione degli esseri umani, non sulla loro sostituzione
A differenza degli strumenti AI presentati come terapeuti digitali, l’unico compito di Lucy è interpretare il paziente in modo che gli esseri umani possano praticare la difficile arte di tenere lo spazio.
Pensala come un simulatore di volo per il supporto psichedelico: un luogo dove i nuovi professionisti possono commettere errori, affinare il loro ascolto e costruire fiducia, senza mettere a rischio persone reali.
Come funziona effettivamente Lucy
In superficie, Lucy sembra semplice: accedi, parli con lei attraverso il tuo microfono e lei risponde in tempo reale.
Sotto il cofano, stanno accadendo diverse cose:
- Selezione dello scenario
I tirocinanti possono scegliere diversi tipi di incontri: preparazione, supporto durante il viaggio o integrazione post-viaggio, ognuno con il proprio tono emotivo e complessità. - Reattività emotiva dinamica
Lucy non si limita a sputare frasi preconfezionate. Le sue risposte cambiano a seconda della tua voce, del tuo stato emotivo e della scelta delle domande. Se sei sprezzante, potrebbe chiudersi. Se sei sintonizzato, si apre a materiale più profondo. - Feedback integrato
Nel tempo, il sistema è progettato per offrire feedback: dove hai convalidato la sua esperienza, dove hai perso segnali, dove sei passato alla risoluzione dei problemi invece di rimanere presente.
Lucy fa parte di un’ondata più ampia di simulatori di pazienti AI nella salute mentale:
- Progetti di ricerca come PATIENT-Ψ utilizzano modelli linguistici di grandi dimensioni per interpretare pazienti CBT, aiutando i tirocinanti a praticare la formulazione dei casi.
- TherapyTrainer di Stanford simula pazienti con PTSD in modo che i clinici possano provare tecniche basate sull’esposizione prima di provarle con esseri umani.
- Altri team stanno costruendo pazienti virtuali abilitati alla voce per interviste strutturate sulla depressione.
Lucy è la prima a specializzarsi nel mondo non lineare ed emotivamente intenso degli stati psichedelici.
Perché questo è importante per il futuro della cura psichedelica
Se gli psichedelici continueranno a entrare nelle cliniche, avremo bisogno di migliaia di professionisti che possano:
- Rimanere calmi quando un cliente pensa che il tempo si sia fermato
- Navigare crisi spirituali, flashback traumatici e dissoluzione dell’ego
- Riconoscere quando un viaggio è impegnativo ma produttivo rispetto a quando non è sicuro
I libri di testo e i corsi di formazione del fine settimana non possono preparare completamente qualcuno a questo.
I pazienti AI come Lucy offrono tre grandi vantaggi:
- Scalabilità
Una “Lucy” può formare in sicurezza migliaia di persone in tutto il mondo, indipendentemente dall’accesso locale agli psichedelici legali. - Ripetizione e varietà
I tirocinanti possono eseguire molti scenari diversi: panico, beatitudine, vergogna, dolore, rabbia, finché le competenze non diventano incorporate. - Sicurezza per gli esseri umani reali
I primi errori avvengono all’interno di una simulazione, non nel momento più vulnerabile di qualcuno.
Nel migliore dei casi, Lucy non sostituisce la saggezza umana; la amplifica, rendendo più probabile che, quando le persone reali si presentano nelle cliniche, le loro guide siano radicate, preparate e praticate.
Le domande etiche che dobbiamo porci
Naturalmente, portare l’AI così vicino agli stati alterati solleva domande serie.
1. E le persone che usano l’AI invece degli esseri umani?
Un recente articolo di WIRED ha documentato persone che si rivolgono a chatbot AI generici come trip sitter fai-da-te, a volte con risultati positivi, ma anche con rischi seri, poiché i modelli linguistici di grandi dimensioni possono dare consigli confidentemente sbagliati o emotivamente insensibili.
Lucy è intenzionalmente diversa: forma gli esseri umani; non guida viaggi reali. Ma man mano che appaiono più strumenti AI, avremo bisogno di confini chiari e formazione in modo che le persone capiscano cosa l’AI può e non può fare in sicurezza.
2. Di chi riflette le esperienze Lucy?
Lucy impara dalle chiamate reali alla linea di supporto di Fireside. Questo è potente, ma significa anche che eredita i dati demografici, le assunzioni culturali e i punti ciechi di quella base di chiamanti. Se la maggior parte di quei chiamanti è occidentale, bianca e relativamente benestante, allora Lucy potrebbe essere meno accurata nel simulare altre esperienze culturali con gli psichedelici.
Progettare dati di formazione diversificati ed essere trasparenti sui loro limiti sarà cruciale.
3. Possiamo davvero insegnare l’empatia con una macchina?
C’è una letteratura crescente sull'”AI empatica”, ma la maggior parte degli esperti concorda: la vera sicurezza terapeutica dipende ancora dalla presenza umana, dalla responsabilità e dall’etica.
Nel migliore dei casi, Lucy non finge di essere una persona per sempre. È uno specchio che aiuta i professionisti umani a sentire i propri schemi e affinare la loro capacità di prendersi cura.




