Wenn MDMA- und Psilocybin-gestützte Therapien ihren aktuellen regulatorischen Weg fortsetzen, werden sie wahrscheinlich in den nächsten Jahren in die Schulmedizin übergehen. Aber es gibt einen riesigen Engpass: nicht genug ausgebildete Therapeuten, um Menschen sicher durch diese außergewöhnlichen Bewusstseinszustände zu begleiten.
Die traditionelle Ausbildung hat einen Haken:
- Du kannst nicht lernen, jemanden in einem psychedelischen Zustand zu unterstützen …
- … ohne mit jemandem in einem psychedelischen Zustand zu arbeiten.
- Aber niemand möchte seine erste tiefe Reise von einem absoluten Anfänger begleiten lassen.
Simulation löst dieses Problem in der Luftfahrt und Chirurgie. Jetzt denkt eine gemeinnützige Organisation, dass sie es auch bei Psychedelika lösen kann.
Lerne Lucy kennen: die erste KI-„psychedelische Patientin“

Lucy wurde vom Fireside Project entwickelt, der gemeinnützigen Organisation hinter der Psychedelic Peer Support Line.
Das unterscheidet sie von einem gewöhnlichen Chatbot:
- Emotional intelligent, Sprache-zu-Sprache
Sie ist so konzipiert, dass sie wie eine echte Person auf einer Reise klingt und sich so anfühlt, wobei sie Tonfall, Tempo und Verletzlichkeit je nach deiner Interaktion mit ihr verändert. - Trainiert mit echten psychedelischen Geschichten
Lucy basiert auf einem Datensatz von mehr als 7.000 anonymisierten Hilfeanrufen von Menschen während und nach psychedelischen Erfahrungen, was ihr eine breite Palette glaubwürdiger Szenarien bietet, von ängstlichen Erstkonsumenten bis zu erfahrenen Reisenden, die Traumata verarbeiten. - Fokussiert auf die Ausbildung von Menschen, nicht auf deren Ersetzung
Im Gegensatz zu KI-Tools, die als digitale Therapeuten angepriesen werden, besteht Lucys einzige Aufgabe darin, die Patientin zu spielen, damit Menschen die schwierige Kunst des Raum-Haltens üben können.
Stell sie dir wie einen Flugsimulator für psychedelische Unterstützung vor: ein Ort, an dem neue Praktizierende Fehler machen, ihr Zuhören verfeinern und Selbstvertrauen aufbauen können, ohne echte Menschen zu gefährden.
Wie Lucy tatsächlich funktioniert
An der Oberfläche fühlt sich Lucy einfach an: Du loggst dich ein, sprichst über dein Mikrofon mit ihr, und sie antwortet in Echtzeit.
Unter der Haube passieren mehrere Dinge:
- Szenarioauswahl
Auszubildende können verschiedene Arten von Begegnungen wählen: Vorbereitung, Unterstützung während der Reise oder Integration nach der Reise, jede mit ihrem eigenen emotionalen Ton und ihrer eigenen Komplexität. - Dynamische emotionale Reaktionsfähigkeit
Lucy spuckt nicht einfach vorgefertigte Sätze aus. Ihre Antworten ändern sich je nach deiner Stimme, deinem Affekt und deiner Fragenwahl. Wenn du abweisend bist, kann sie sich verschließen. Wenn du aufmerksam bist, öffnet sie sich für tieferes Material. - Integriertes Feedback
Mit der Zeit wird das System so gestaltet, dass es Feedback bietet: wo du ihre Erfahrung bestätigt hast, wo du Hinweise übersehen hast, wo du zur Problemlösung gesprungen bist, anstatt präsent zu bleiben.
Lucy ist Teil einer breiteren Welle von KI-Patientensimulatoren im Bereich der psychischen Gesundheit:
- Forschungsprojekte wie PATIENT-Ψ nutzen große Sprachmodelle, um CBT-Patienten zu spielen und Auszubildenden zu helfen, Fallformulierungen zu üben.
- Stanfords TherapyTrainer simuliert PTBS-Patienten, damit Therapeuten expositionsbasierte Techniken proben können, bevor sie sie mit Menschen ausprobieren.
- Andere Teams entwickeln sprachgesteuerte virtuelle Patienten für strukturierte Depressionsinterviews.
Lucy ist die erste, die sich auf die nicht-lineare, emotional intensive Welt psychedelischer Zustände spezialisiert.
Warum das für die Zukunft der psychedelischen Versorgung wichtig ist
Wenn Psychedelika weiterhin in Kliniken Einzug halten, brauchen wir Tausende von Praktizierenden, die:
- Ruhig bleiben können, wenn ein Klient denkt, die Zeit sei stehen geblieben
- Spirituelle Krisen, Trauma-Flashbacks und Ego-Auflösung navigieren können
- Erkennen können, wann eine Reise herausfordernd-aber-produktiv ist im Vergleich zu unsicher
Lehrbücher und Wochenendschulungen können jemanden nicht vollständig darauf vorbereiten.
KI-Patienten wie Lucy bieten drei große Vorteile:
- Skalierbarkeit
Eine „Lucy“ kann weltweit Tausende Menschen sicher schulen – unabhängig vom lokalen Zugang zu legalen Psychedelika. - Wiederholung und Vielfalt
Auszubildende können viele verschiedene Szenarien durchlaufen – Panik, Glückseligkeit, Scham, Trauer, Wut –, bis die Fähigkeiten verinnerlicht sind. - Sicherheit für echte Menschen
Frühe Fehler passieren innerhalb einer Simulation, nicht im verletzlichsten Moment einer Person.
Im besten Fall ersetzt Lucy nicht die menschliche Weisheit; sie verstärkt sie und macht es wahrscheinlicher, dass die Begleiter geerdet, vorbereitet und geübt sind, wenn echte Menschen in Kliniken erscheinen.
Die ethischen Fragen, die wir stellen müssen
Natürlich wirft es ernsthafte Fragen auf, KI so nah an veränderte Bewusstseinszustände heranzubringen.
1. Was ist mit Menschen, die KI anstelle von Menschen nutzen?
Ein aktueller WIRED-Artikel dokumentierte, wie Menschen sich an allgemeine KI-Chatbots als DIY-Trip-Sitter wenden, manchmal mit positiven Ergebnissen, aber auch mit ernsthaften Risiken, da große Sprachmodelle selbstsicher falsche oder emotional taktlose Ratschläge geben können.
Lucy ist bewusst anders: Sie bildet Menschen aus; sie begleitet keine echten Reisen. Aber da immer mehr KI-Tools auftauchen, brauchen wir klare Grenzen und Aufklärung, damit Menschen verstehen, was KI sicher kann und was nicht.
2. Wessen Erfahrungen spiegelt Lucy wider?
Lucy lernt aus echten Anrufen bei Firesides Hilfeleitung. Das ist kraftvoll, aber es bedeutet auch, dass sie die Demografie, kulturellen Annahmen und blinden Flecken dieser Anruferbasis übernimmt. Wenn die meisten dieser Anrufer westlich, weiß und relativ privilegiert sind, dann ist Lucy möglicherweise weniger genau bei der Simulation anderer kultureller Erfahrungen mit Psychedelika.
Die Gestaltung vielfältiger Trainingsdaten und Transparenz über deren Grenzen wird entscheidend sein.
3. Können wir Empathie wirklich mit einer Maschine lehren?
Es gibt zunehmend Literatur zu „empathischer KI“, aber die meisten Expert:innen sind sich einig: Echte therapeutische Sicherheit hängt weiterhin von menschlicher Präsenz, Verantwortlichkeit und Ethik ab.
Im besten Fall gibt Lucy nicht vor, für immer eine Person zu sein. Sie ist ein Spiegel, der menschlichen Praktizierenden hilft, ihre eigenen Muster zu hören und ihre Fähigkeit zu sorgen zu verfeinern.




