Als MDMA- en psilocybine-ondersteunde therapieën hun huidige reguleringstraject voortzetten, zullen ze de komende jaren waarschijnlijk toetreden tot de reguliere geneeskunde. Maar er is een groot knelpunt: er zijn niet genoeg getrainde clinici om mensen veilig door deze buitengewone staten te begeleiden.
Traditionele training heeft een addertje onder het gras:
- U kunt niet leren om iemand in een psychedelische staat te ondersteunen…
- …zonder te werken met iemand in een psychedelische staat.
- Maar niemand wil dat hun eerste diepe reis wordt begeleid door een volslagen beginner.
Simulatie lost dat probleem op in de luchtvaart en de chirurgie. Nu denkt een non-profitorganisatie dat het ook kan helpen dit op te lossen in de wereld van psychedelica.
Maak kennis met Lucy: De eerste AI “psychedelische patiënt”

Lucy is gecreëerd door Fireside Project, de non-profitorganisatie achter de Psychedelic Peer Support Line.
Dit is wat haar anders maakt dan een generieke chatbot:
- Emotioneel intelligent, van stem tot stem
Ze is ontworpen om te klinken en aan te voelen als een echt persoon op een reis, waarbij ze haar toon, tempo en kwetsbaarheid aanpast op basis van hoe u met haar communiceert. - Getraind op echte psychedelische verhalen
Lucy is gebouwd op een dataset van meer dan 7.000 geanonimiseerde ondersteuningsgesprekken van mensen tijdens en na psychedelische ervaringen. Dit geeft haar een breed scala aan geloofwaardige scenario’s, van angstige beginners tot ervaren reizigers die trauma’s verwerken. - Gericht op het trainen van mensen, niet op het vervangen ervan
In tegenstelling tot AI-tools die worden gepresenteerd als digitale therapeuten, is het de enige taak van Lucy om de patiënt te spelen, zodat mensen de moeilijke kunst van het ‘holding space’ kunnen oefenen.
Zie haar als een vluchtsimulator voor psychedelische ondersteuning: een plek waar nieuwe beoefenaars fouten kunnen maken, hun luistervaardigheid kunnen verfijnen en zelfvertrouwen kunnen opbouwen, zonder echte mensen in gevaar te brengen.
Hoe Lucy daadwerkelijk werkt
Aan de oppervlakte voelt Lucy eenvoudig aan: u logt in, spreekt tegen haar via uw microfoon en zij reageert in realtime.
Onder de motorkap gebeuren er verschillende dingen:
- Scenarioselectie
Cursisten kunnen verschillende soorten ontmoetingen kiezen: voorbereiding, ondersteuning tijdens de reis of integratie na de reis, elk met een eigen emotionele toon en complexiteit. - Dynamische emotionele responsiviteit
Lucy spuugt niet zomaar standaardzinnen uit. Haar reacties verschuiven afhankelijk van uw stem, affect en de keuze van uw vragen. Als u afwijzend bent, kan ze dichtklappen. Als u afgestemd bent, stelt ze zich open voor dieper materiaal. - Ingebouwde feedback
In de loop van de tijd wordt het systeem ontworpen om feedback te geven: waar u haar ervaring valideerde, waar u signalen miste en waar u overging op probleemoplossing in plaats van aanwezig te blijven.
Lucy maakt deel uit van een bredere golf van AI-patiëntsimulatoren in de geestelijke gezondheidszorg:
- Onderzoeksprojecten zoals PATIENT-Ψ gebruiken grote taalmodellen om CGT-patiënten te spelen, waardoor cursisten kunnen oefenen met casusformulering.
- Stanford’s TherapyTrainer simuleert PTSS-patiënten, zodat clinici op exposure gebaseerde technieken kunnen oefenen voordat ze deze bij mensen uitproberen.
- Andere teams bouwen spraakgestuurde virtuele patiënten voor gestructureerde depressie-interviews.
Lucy is de eerste die gespecialiseerd is in de niet-lineaire, emotioneel intense wereld van psychedelische staten.
Waarom dit belangrijk is voor de toekomst van psychedelische zorg
Als psychedelica zich blijven verplaatsen naar klinieken, hebben we duizenden beoefenaars nodig die:
- Kalm blijven wanneer een cliënt denkt dat de tijd is gestopt
- Spirituele crises, trauma-flashbacks en ego-oplossing kunnen navigeren
- Herkennen wanneer een reis uitdagend-maar-productief is versus onveilig
Tekstboeken en weekendtrainingen kunnen iemand daar niet volledig op voorbereiden.
AI-patiënten zoals Lucy bieden drie grote voordelen:
- Schaalbaarheid
Eén “Lucy” kan veilig duizenden mensen wereldwijd trainen, ongeacht de lokale toegang tot legale psychedelica. - Herhaling en variëteit
Cursisten kunnen veel verschillende scenario’s doorlopen — paniek, gelukzaligheid, schaamte, verdriet, woede — totdat de vaardigheden eigen worden gemaakt. - Veiligheid voor echte mensen
Vroege fouten vinden plaats binnen een simulatie, niet op iemands meest kwetsbare moment.
In het beste geval vervangt Lucy de menselijke wijsheid niet; ze versterkt deze, waardoor de kans groter wordt dat, wanneer echte mensen in klinieken verschijnen, hun gidsen gegrond, voorbereid en geoefend zijn.
De ethische vragen die we moeten stellen
Natuurlijk roept het brengen van AI zo dicht bij veranderde staten serieuze vragen op.
1. Hoe zit het met mensen die AI gebruiken in plaats van mensen?
Een recent artikel in WIRED documenteerde mensen die zich tot algemene AI-chatbots wenden als doe-het-zelf ‘trip sitters’, soms met positieve resultaten, maar ook met ernstige risico’s, aangezien grote taalmodellen vol overtuiging verkeerd of emotioneel ongepast advies kunnen geven.
Lucy is bewust anders: ze traint mensen; ze begeleidt geen echte reizen. Maar naarmate er meer AI-tools verschijnen, hebben we duidelijke grenzen en educatie nodig, zodat mensen begrijpen wat AI wel en niet veilig kan doen.
2. Wiens ervaringen weerspiegelt Lucy?
Lucy leert van echte gesprekken met de hulplijn van Fireside. Dat is krachtig, maar het betekent ook dat ze de demografie, culturele aannames en blinde vlekken van dat bellersbestand overneemt. Als de meeste van die bellers westers, wit en relatief welvarend zijn, dan is Lucy mogelijk minder nauwkeurig in het simuleren van andere culturele ervaringen met psychedelica.
Het ontwerpen van diverse trainingsdata en transparant zijn over de beperkingen ervan zal cruciaal zijn.
3. Kunnen we echt empathie aanleren met een machine?
Er is een groeiende hoeveelheid literatuur over “empathische AI”, maar de meeste experts zijn het erover eens: echte therapeutische veiligheid hangt nog steeds af van menselijke aanwezigheid, verantwoordelijkheid en ethiek.
Op haar best doet Lucy zich niet voor als een eeuwig persoon. Ze is een spiegel die menselijke beoefenaars helpt hun eigen patronen te horen en hun vermogen om te zorgen te verfijnen.




