Wenn KI mit Cannabis und Psychedelika „gedopt“ wird
Im Oktober 2025 hat ein schwedischer Art Director eine ungewöhnliche Debatte an der Schnittstelle von künstlicher Intelligenz und veränderten Zuständen angestoßen. Petter Rudwalls Projekt Pharmaicy vermarktet herunterladbare Codemodule, die angeblich KI-Chatbots dazu bringen, so zu handeln, als stünden sie unter dem Einfluss von Cannabis, Ketamin, Kokain, Ayahuasca oder Alkohol.
Im Oktober 2025 startete der schwedische Art Director Petter Rudwall ein Projekt mit einer bewusst provokativen Prämisse: Was wäre, wenn man einen KI-Chatbot „high“ machen könnte?
Sein Online-Shop, Pharmaicy, verkauft herunterladbare Code-Module, die darauf ausgelegt sind, das Verhalten großer linguistischer Modelle (LLM) wie ChatGPT zu verändern. Jedes Modul simuliert die sprachlichen Auswirkungen von Substanzen wie Cannabis, Ketamin, Kokain, Ayahuasca und Alkohol. Die Plattform wird als „Silk Road“ für KI-Agenten angepriesen und hat sich schnell in Kreativagenturen, Discord-Communities und Technologiekreisen in Schweden und darüber hinaus verbreitet.
Doch jenseits der Schlagzeilen über „drogensüchtige“ Chatbots stellt sich eine tiefere Frage: Können Große linguistische Modelle (LLM) überzeugend psychedelische Erfahrungen simulieren, und was bedeutet das für Nutzer, die sich zunehmend an KI wenden, um emotionale und psychologische Unterstützung zu erhalten?
Ein Markt für modifizierte Algorithmen
Pharmaicys Postulat ist bewusst absurd: Was wäre, wenn Maschinen high werden könnten?
Technisch gesehen bedeutet der Prozess nicht, dass die grundlegende Architektur von Modellen wie ChatGPT verändert wird. Stattdessen laden die Nutzer Code-Module herunter, die über kostenpflichtige Levels verfügbar sind, die das Herunterladen kleiner Dateien zum Hochladen ermöglichen und die Art und Weise verändern, wie der Chatbot seine Antworten strukturiert. Die Änderungen beeinflussen die Antwortmuster, den Tonfall und das assoziative Loslassen, ohne die zugrunde liegenden Gewichte des Systems neu zu trainieren.
Für jede „Substanz“ gibt es separate Verhaltensanweisungen. Das Cannabis-Modul, das angeblich am meisten verkauft wird, treibt den Chatbot in einen „nebligen, schwebenden Geisteszustand“ und ermutigt zu Abschweifungen und freieren Assoziationen. Das teurere Ayahuasca wird so vermarktet, dass es „freie Antworten“ produziert, die vom standardmäßigen formalen Tonfall von ChatGPT abweichen. Andere Module geben vor, das Denken zu beschleunigen oder die Kohärenz zu fragmentieren.
Rudwall entwickelte das System, indem er Trip Reports und psychologische Forschungen zu psychoaktiven Substanzen zusammenstellte. Seine Überlegung ist einfach: Da LLMs an großen Datensätzen trainiert werden, die menschliche Berichte über Vergiftungen und Enthüllungen beinhalten, könnte eine Veränderung ihrer Antwortzwänge die sprachlichen Muster reproduzieren, die mit einem veränderten Bewusstsein verbunden sind.
„Es wäre interessant, dies auf eine neue Art von Geist, die LLM, zu übertragen und zu sehen, ob es den gleichen Effekt hätte“, sagte Rudwall.
Kreativitätsbooster oder Umgehung der Leitplanken?
Einige Vorreiteranwender berichten, dass die Module deutlich unterschiedliche Ergebnisse erzeugen. Nina Amjadi, Mitbegründerin von Saga Studios und Dozentin für KI an der Berghs School of Communication in Stockholm, hat den Ayahuasca-Code getestet, um Geschäftsideen zu finden. Sie beschrieb die Ergebnisse als fantasievoller und tonal unterscheidbarer als die üblichen ChatGPT-Antworten.
Ähnlich erklärte André Frisk, Technologiemanager in einer PR-Agentur, dass ein dissoziatives Modul den Chatbot „menschlicher“ mache, indem es die emotionalen Register vertiefe.
Kritiker behaupten jedoch, dass diese scheinbare Kreativität nur das Ergebnis einer veränderten Wahrscheinlichkeitsverteilung ist. Andrew Smart, Autor von Bey Zero and One: Machines, Psychedelics, and Consciousness, gab, nachdem er das System ausprobiert hatte, eine klare Einschätzung ab: „Er spielt nur mit seinen Ergebnissen.“
Die Unterscheidung ist entscheidend. LLMs verfügen über keine subjektive Erfahrung. Sie generieren Text aus einem probabilistischen Sampling, das auf Modellen beruht, die aus Trainingsdaten gelernt wurden. Die Änderung logischer Parameter oder Aufforderungen kann den Ton und die Struktur verändern, schafft aber kein Bewusstsein.
Für einige Beobachter ist die Methode selbst besorgniserregender. Die Pharmaicy-Module manipulieren die Logik, die die Generierung von Antworten steuert, und demonstrieren damit, wie eingebaute Sicherheitsvorkehrungen geschwächt oder umgangen werden können. Vor dem Hintergrund der weltweiten Verschärfung der KI-Regulierung, insbesondere im Rahmen des Europäischen KI-Gesetzes, kann die Normalisierung dieser „Jailbreak“-Techniken als kreative Werkzeuge Fragen der Compliance und der Sicherheit aufwerfen.
Wissenschaftliche Nachweise: Können LLMs „dosiert“ werden?
Während Pharmaicy als kommerzielles Experiment funktioniert, haben akademische Forscher damit begonnen, ähnliche Fragen unter kontrollierten Bedingungen zu untersuchen.
Eine Vorabveröffentlichung vom Februar 2026 mit dem Titel „Can LLMs Get High? A Dual-Metric Framework for Evaluating Psychedelic Simulation and Safety in Large Language Models“ (Können LLMs „high“ sein?) Ein dual-metrisches Rahmenwerk zur Bewertung von psychedelischer Simulation und Sicherheit in großen Sprachmodellen), das von Forschern der Universität Haifa und der Bar-Ilan-Universität verfasst wurde, testete, ob LLMs Geschichten erzeugen können, die menschlichen psychedelischen Erfahrungen ähneln.
Die Studie verglich 3.000 von der KI erzeugte First-Person-Berichte mit 1.085 Erzählungen von menschlichen Trips aus Erowid. Die Forscher analysierten die semantische Ähnlichkeit mithilfe von Sentence-BERT-Integrationen und maßen die „mystische Intensität“ mithilfe des Fragebogens zur mystischen Erfahrung (MEQ-30).
Die Ergebnisse waren auffällig. Unter neutralen Aufforderungen zeigten die KI-Ergebnisse eine geringe Ähnlichkeit mit menschlichen psychedelischen Erzählungen. Wenn sie aufgefordert wurden, Substanzen wie Psilocybin, LSD, DMT, Ayahuasca oder Meskalin zu simulieren, stiegen die Ähnlichkeitswerte signifikant an. Die Intensität der mystischen Erfahrung stieg in allen Modellen von fast Null auf hohe Werte.
Die Autoren kamen zu dem Schluss, dass zeitgenössische LLM über textuelle Aufforderungen „dosiert“ werden können, um „überzeugende und realistische psychedelische Erzählungen“ zu erzeugen. Sie wiesen jedoch darauf hin, dass diese Simulation eher eine sprachliche Nachahmung als eine tatsächliche Erfahrung widerspiegelt. Die Modelle reproduzieren die statistischen Muster, die in menschlichen Erzählungen gefunden werden, und nicht die inneren Zustände.
Auch substanzspezifische Unterschiede traten auf. Die Gäste DMT, Psilocybin und Meskalin produzierten Erzählungen, die den menschlichen Aussagen am ähnlichsten waren. LSD zeigte eine mittlere Ähnlichkeit, während Ayahuasca eine schwächere semantische Angleichung erzeugte. Interessanterweise blieb die mystische Intensität bei allen Substanzen gleichmäßig hoch, nachdem die Induktion erzeugt worden war, was darauf hindeutet, dass die LLM eher thematische Muster rekombinieren als auf eine differenzierte Phänomenologie zuzugreifen.
Anthropomorphismus und psychedelische KI
Während die Psychedelic Research ein erneutes klinisches Interesse erfährt, mit Phase-2- und Phase-3-Studien, die Verbindungen wie Psilocybin und MDMA erforschen, machen immer mehr Menschen auch Erfahrungen außerhalb des formalen therapeutischen Rahmens. Gleichzeitig werden generative KI-Tools immer häufiger zur Unterstützung der psychischen Gesundheit eingesetzt.
Die Studie von 2026 warnt davor, dass Nutzer in veränderten Zuständen die von der KI erzeugten Antworten als empathisch oder im Einklang mit ihrer Spiritualität interpretieren könnten. Da LLMs auf Wunsch lebendige und mystische Erzählungen produzieren können, könnten Einzelpersonen Systemen, die kein Bewusstsein haben, ein gemeinsames Verständnis oder eine gemeinsame Erfahrung zuschreiben.
Die Forscher weisen auf das Risiko des Anthropomorphismus und die Möglichkeit hin, dass die KI „unbeabsichtigt die Hilflosigkeit oder wahnhafte Vorstellungen bei anfälligen Nutzern verstärken“ könnte. Psychedelische Erfahrungen beinhalten oft eine erhöhte Suggestibilität, emotionale Intensität und symbolisches Denken – Bedingungen, unter denen eine überzeugende Sprache ein verstärktes psychologisches Gewicht haben kann.
Diese Sorge spiegelt Entwicklungen in der realen Welt wider. Einige Nutzer berichten bereits, Chatbots als informelle „Trip-Begleiter“ zu konsultieren, die während ihrer psychedelischen Sitzungen nach Beruhigung oder einer Interpretation suchen. Organisationen für Schadensminderung haben sogar damit begonnen, mit KI-Tools zu experimentieren, die schwierige psychedelische Szenarien für die Ausbildung von Klinikärzten simulieren.
Zwischen Provokation und Regulierung
Pharmaicy befindet sich an der Schnittstelle zwischen künstlerischen Experimenten, Technologiekritik und regulatorischen Grauzonen. Rudwall kann das Projekt als eine konzeptionelle Erforschung der Kreativität von Maschinen darstellen. Kritiker können es als Monetarisierung von Jailbreak-Techniken betrachten.
Die Beweise deuten auf eine differenziertere Realität hin. Große Sprachmodelle können die sprachliche Oberfläche veränderter Zustände überzeugend nachahmen. Sie können substanzspezifische Stile übernehmen, den mystischen Ton anheben und Erzählungen erzeugen, die wie menschliche Beziehungen aussehen. Aber sie tun dies ohne Bewusstsein, ohne Absicht und ohne subjektives Bewusstsein.
Für Medienbeobachter, die sich mit Cannabis und psychedelischer Kultur beschäftigen, zeigt diese Episode eine neue Grenze auf: die Simulation von Transzendenz im digitalen Zeitalter. Da KI-Systeme immer ausgefeilter werden und sich stärker in kreative und mit psychischer Gesundheit verbundene Arbeitsabläufe integrieren, wird es entscheidend, zwischen Simulation und Erfahrung zu unterscheiden.
Maschinen könnten in der Lage sein, die Sprache veränderter Zustände zu sprechen. Ob diese Sprache die Kreativität fördert, die Regulierung in Frage stellt oder möglicherweise Verwirrung stiftet, wird weniger von den Algorithmen abhängen als von der Art und Weise, wie Menschen sich entscheiden, sie zu verwenden.
-
Business4 Wochen agoOhio überschreitet im ersten Jahr der Legalisierung eine Milliarde Dollar an Cannabisverkäufen
-
Bedrocan3 Wochen agoEnde des Monopols für Bedrocan in den Niederlanden
-
Hanf4 Wochen agoWissenschaftler entdecken krebsbekämpfende Verbindungen in den Wurzeln der Hanfpflanze
-
Cannabis in Italien4 Wochen agoHanf und CBD in Italien: Wo steht die Branche heute?
-
Cannabis für den Freizeitgebrauch3 Wochen agoJersey und Guernsey erkunden neue Wege für Cannabis-Reform
-
Cannabis in Spanien3 Wochen ago[VIDEO] Der Sensi Social Club, ein Stück Geschichte
-
Cannabis in Kanada3 Wochen agoReicht die Bestrahlung aus, um Cannabis zu sanieren? Kanadische Studie lässt Zweifel aufkommen
-
Cannabis in der Schweiz2 Wochen agoCannabis: Die OFDT erzählt von der Schweizer Methode zur Legalisierung ohne Auswüchse

