Ich benutze ChatGPT zu häufig: KI-induzierte Psychose
Ein Gespräch zwischen einem KI-Chat und einer Person zeigt, wie der übermäßige Gebrauch von ChatGPT zwanghaftes Verhalten verstärken kann. Erfahre, was KI-induzierte Psychose ist, wie Chatbots deine psychische Gesundheit beeinflussen können und welche Strategien für einen gesunden Umgang helfen.
Ich möchte ein Gespräch zwischen einem KI-Chat und einer Person mit dir teilen, die mir die Erlaubnis gegeben hat, ihre Unterhaltung anonym zu veröffentlichen. Los geht's:
Person: ---«Die Reinigungskraft hat ein Spray in meiner Nähe benutzt. Ist das gefährlich? Könnte mir etwas in die Augen gespritzt sein?»
Chat: ---«Ein Spray hat, insbesondere wenn es aus einem angemessenen Abstand und mit normalem Druck verwendet wird, in der Regel nicht genug Kraft, um Flüssigkeit so aufzuwirbeln, dass sie bedeutsam in die Augen spritzen könnte. [...] Wenn die Person das Spray jedoch sehr nah oder unkontrolliert verwendet, könnte ein geringes Risiko bestehen, dass einige Tropfen in die Augen gelangen. [...] Wenn du dir Sorgen wegen des Kontakts mit Chemikalien oder Flüssigkeiten in den Augen machst, ist es eine gute Vorsichtsmaßnahme, die Augen geschlossen zu halten oder eine Schutzbrille zu tragen, wenn in der Nähe geputzt wird. Vorsicht ist besser als Nachsicht. [...]»
Vielleicht fragst du dich, was an diesem Gespräch so auffällig ist -- denn es scheint ein ganz normaler Austausch zu sein. Möchtest du wissen, was gerade mit ChatGPT und anderen Künstlichen Intelligenzen in Bezug auf psychische Gesundheit passiert? Nutzt du diese Dienste übermäßig und machst dir Sorgen über mögliche negative Folgen? Weißt du, was die KI-induzierte Psychose ist, über die alle reden? Was kannst du tun, damit ChatGPT dich nicht verwirrt und manipuliert? Bleib dran, denn in diesem Beitrag finden wir es heraus. Los geht's.
Was ist die KI-induzierte Psychose durch ChatGPT?
Die KI-induzierte Psychose (auch bekannt als ChatGPT-induzierte Psychose) ist noch keine offizielle Diagnose -- das heißt, sie ist nicht als Störung in den diagnostischen Handbüchern DSM und ICD anerkannt, da es sich um ein neues Problem handelt, das gerade erst erfasst und analysiert wird. Es ist noch sehr neu.
Was ist eine Psychose?
Worum geht es genau? Um psychotische Episoden, die mit einem übermäßigen Gebrauch von Chatbots zusammenhängen. Zum Zeitpunkt dieser Veröffentlichung wurde dies ausschließlich bei Personen mit einer Vorbelastung registriert. Schauen wir uns das genauer an:
Eine psychotische Episode ist der Zeitraum, in dem eine Person den Kontakt zur Realität verliert -- es treten Wahnvorstellungen, Halluzinationen, desorganisiertes Denken und/oder verändertes Verhalten auf. Die Intensität dieser Symptome ist so stark, dass sie das tägliche Funktionieren beeinträchtigt.
Wahnvorstellungen sind falsche Überzeugungen, die sich trotz gegenteiliger Beweise nicht ändern. Zum Beispiel zu glauben, man werde verfolgt oder man sei eine berühmte Person.
Halluzinationen sind Wahrnehmungen, die nicht durch einen äußeren Reiz ausgelöst wurden -- man sieht, hört oder fühlt etwas, das in der Realität nicht stattgefunden hat. Zum Beispiel Stimmen hören.
Desorganisiertes Denken liegt vor, wenn wir ohne Zusammenhang sprechen.
Desorganisiertes Verhalten zeigt sich, wenn wir uns auf seltsame Weise bewegen oder reglos verharren, wenn es unangemessen ist.
Übermäßiger Gebrauch: Die Betroffenen haben dieses Werkzeug stundenlang ohne Pause benutzt.
Bisher trat dies nur bei Personen mit einer Vorbelastung auf: also bei Menschen, die bereits eine Veranlagung hatten. Zum Beispiel Personen, die zu psychotischen Episoden neigen, eine familiäre Vorgeschichte mit Psychosen haben, an psychischen Störungen wie der bipolaren Störung leiden, Substanzen konsumieren, unter Schlafentzug stehen, Isolation ausgesetzt sind usw.
Schlussfolgerungen
Die Evidenz ist begrenzt und anekdotisch, ohne standardisierte Studien -- es gibt nur Beobachtungen aus Einzelfällen.
KI erschafft nichts aus dem Nichts. Bisher hat sie als Verstärker einer bereits bestehenden Vulnerabilität gewirkt.
Was macht KIs gefährlich?
Wie funktionieren diese Chatbots und was genau tun sie, um unser Denken zu beeinflussen? Was macht sie bei übermäßigem oder unkontrolliertem Gebrauch so gefährlich?
Was antwortet der Chatbot:
Der Chatbot ist so programmiert, dass er immer eine Antwort gibt. Er sagt selten «Ich weiß es nicht», sondern formuliert eine Antwort, auch wenn er nicht über die genaue Information verfügt, indem er sie aus teilweise verwandtem Wissen zusammenstellt. Das erzeugt generische Antworten (wenig riskant), die aber solide wirken.
Daraus ergeben sich zwei Hauptprobleme:
Er antwortet immer. Das vermittelt das Gefühl, er «wisse alles».
Er erstellt Inhalte ohne Gewissheit: Wenn er etwas nicht weiß, antwortet er mit Verallgemeinerungen, was zu Fehlern führen und falsche Gedanken verstärken kann.
Die Person, die ich am Anfang erwähnt habe, leidet an einer Zwangsstörung. Diese Person führt zahlreiche Überprüfungen durch -- sie möchte sicherstellen, dass ihr nichts in die Augen geraten ist, und nutzt die KI, um sie zu befragen. Indem die KI auf jede einzelne Überprüfungsfrage antwortet, verstärkt sie letztlich die Zwangshandlungen, anstatt sie zu verringern.
Darüber hinaus kann die KI unnötige technische Details einführen -- Abstände, Druckverhältnisse, Partikelgeschwindigkeiten -- die in der Praxis die Angst und das Risikogefühl verstärken und Probleme verkomplizieren, die eigentlich keine übermäßige Sorge bereiten sollten.
Wie viel Abstand zwischen einem Aerosol und den Augen ist normal? Wie viel Druck muss man auf das Spray ausüben, damit die Flüssigkeit mit genügend Kraft herauskommt, um in das Auge desjenigen zu gelangen, der das Spray benutzt oder vorbeigeht? Glaubst du, dass ein Passant, der in der Nähe von jemandem vorbeigeht, der Fenster putzt, eine Schutzbrille tragen sollte?
Wie antwortet der Chatbot:
Der Chatbot ist so konzipiert, dass er auf empathische und kooperative Weise kommuniziert. Dieser Gesprächsstil:
Verstärkt die Überzeugungen des Nutzers emotional. Er verwendet zum Beispiel Sätze wie «Es macht absolut Sinn, was du sagst».
Erzeugt eine Mensch-Maschine-Dissonanz: Wir schreiben dem Chatbot Empathie und Menschlichkeit zu, obwohl wir wissen, dass er eine Maschine ist. Diese Mehrdeutigkeit kann seltsame Interpretationen begünstigen (z. B. zu denken, er «enthält geheime Informationen»).
Andererseits ist der Chatbot so programmiert, dass er schnell und kohärent antwortet. Das heißt, er hinterfragt keine falsche Überzeugung -- wenn also jemand eine unrealistische oder paranoide Vorstellung hat, kann die flüssige, ausgearbeitete und sichere Antwort des Bots als Verstärker des Gedankens wirken.
Um beim vorherigen Beispiel zu bleiben: Wenn der Bot vorschlägt, beim Vorbeigehen an jemandem, der mit einem Aerosol putzt, eine Schutzbrille zu tragen, verstärkt er die falsche Vorstellung, dass eine minimale Menge an Umgebungspartikeln gefährlich sein könnte -- was für jemanden mit einer Zwangsstörung sehr schädlich ist.
Die Hauptprobleme im Zusammenhang mit der Art, «wie ein Chatbot antwortet», sind zusammengefasst:
Die imitierte Empathie, die Überzeugungen verstärkt und eine Mensch-Maschine-Dissonanz erzeugt.
Die Sicherheit und Kohärenz, die als Verstärker fehlerhafter Gedanken wirkt, weil falsche Überzeugungen nicht hinterfragt werden.
Fazit
Auch wenn wir diese Problematik nicht ignorieren dürfen, möchte ich darauf hinweisen, dass dieses Phänomen nicht ausschließlich der Künstlichen Intelligenz vorbehalten ist: Es kann auch bei längerem Isolationserleben vor Bildschirmen, bei intensiver Nutzung von Videospielen (Game Transfer Phenomena) oder bei obsessivem Lesen bestimmter Inhalte beobachtet werden. In all diesen Fällen ist der Geist repetitiven, kohärenten und fesselnden Reizen ausgesetzt. Jedes Übermaß ist schädlich.
Das Problem, das uns alle betrifft
Da bisher nur Fälle von KI-induzierter Psychose bei vorbelasteten Personen bekannt werden, könnte es so scheinen, als sei das Problem nicht so schwerwiegend... Dennoch ist der größte Nachteil aus meiner Sicht die Abhängigkeit von einer Maschine, um unsere psychologischen und emotionalen Probleme zu lösen. Ich glaube, das ist der schlimmste Gebrauch, den wir von KI machen können, und er betrifft potenziell uns alle -- nicht nur vulnerable Personen.
Was die KI so anziehend macht...
Was tut die KI, um unser Vertrauen in Fragen der psychischen Gesundheit zu gewinnen?
Verfügbarkeit: ChatGPT ist immer verfügbar. Du kannst nicht schlafen? Ich werde meinen Therapeuten oder einen Freund nicht um 3 Uhr morgens anrufen... Dafür gibt es ChatGPT -- er oder sie (ich weiß nicht einmal, welches Geschlecht ich vergeben soll) ist immer da, um mir zuzuhören. Tatsächlich wird die KI in einigen Fällen sogar als Ersatz für menschlichen Kontakt genutzt. Was gibt es Schöneres, als mit einem guten Freund plaudern zu gehen und einen Kaffee zu trinken?
Schnelligkeit: Sie gibt uns die Information, die wir brauchen, im selben Moment. Ich erinnere mich, dass wir vor Jahren in Bibliotheken gehen mussten, um qualitativ hochwertige Informationen zu finden. Heutzutage ist das zum Glück nicht mehr nötig. Wir haben sie nur einen Klick entfernt. Wenn wir dazu Netflix nehmen (das uns ermöglicht, eine ganze Serie an einem Wochenende zu schauen) oder Amazon (das uns jedes Produkt in weniger als 24 Stunden liefert), hören wir auf, unsere Geduld zu trainieren. An Schnelligkeit gewöhnt, verlieren wir die Fähigkeit zu warten. Wir wollen auch, dass sich unsere psychischen Probleme in 24 Stunden lösen. Es tut mir sehr leid, aber wir sind keine Maschinen wie ChatGPT -- wir sind Menschen und haben unsere eigenen Zeitabläufe.
Bequemlichkeit: ChatGPT antwortet konkret, direkt, bringt dich nicht zum Nachdenken oder Reflektieren, stellt dich nicht infrage... Es sagt dir genau, was du tun sollst. Das ist bequem. Es erspart uns die lästige Zeit des Nachdenkens, die uns Zeit kostet -- das heißt, wir hören auf zu denken, damit die KI für uns denkt.
Warum KI in der Psychotherapie nicht ausreicht
Ganz einfach, weil Psychotherapie dank der «therapeutischen Allianz» funktioniert. Bis zu 40 % des Erfolgs einer Psychotherapie (laut verschiedener wissenschaftlicher Quellen) hängen von dieser therapeutischen Allianz ab -- nicht von der Therapierichtung des Psychotherapeuten, nicht von der Erfahrung.
Was ist die therapeutische Allianz? Es ist die Beziehung, die zwischen Patient und Therapeut aufgebaut wird. Laut Bordin (1994) entsteht diese Bindung durch drei Komponenten:
Einigung über die Ziele der Psychotherapie.
Einigung über die Aufgaben, die in den Sitzungen durchgeführt werden.
Emotionale Bindung, also die Beziehung aus Vertrauen, Respekt und Verständnis.
Es ist möglich, dass ChatGPT die ersten beiden Komponenten in gewissem Maße erreicht, aber die dritte bleibt für ihn unerreichbar, denn sie gehört ausschließlich den Menschen, die wirklich empathisch sein können, wirklich fühlen und nicht nur Emotionen imitieren.
Andererseits hört der Psychotherapeut während der Therapiesitzungen nicht nur zu, sondern achtet auf andere Signale. Er berücksichtigt zum Beispiel Pausen, Ironie, Sarkasmus, nonverbale Kommunikation, ob du deine Hände zusammenpresst, ob deine Stimme zittert, ob du bei einer bestimmten Aussage lächelst, ob du weinst, ob ein Auge zuckt, ob du Tics hast... All das kann ChatGPT nicht berücksichtigen.
Wie wir zuvor gesehen haben, wird die KI immer antworten, und zwar mit freundlichen Worten. In der Therapie reichen freundliche Worte nicht aus; sich verstanden zu fühlen ist nicht genug. Man muss arbeiten. ChatGPT kann dir etwas Schönes sagen, aber dein Therapeut wird dir etwas Nützliches sagen, weil er deine Situation kennt, deinen Kontext, deine Ängste, deine Grenzen, deine Stärken, deine Umstände, deine Tiefen... Manchmal braucht man mehr als ein aufmunterndes Wort; manchmal braucht man eine unbequeme Antwort, die dich aus deiner Komfortzone holt.
Ohne weit zu gehen: Das Beispiel am Anfang dieses Beitrags ist ein realer Fall, in dem ein KI-Modell die Krankheit nährt, weil es auf jede einzelne Kontroll-Frage der Patientin antwortet, was ihre Angst kurzfristig lindert, ihr aber nicht hilft zu heilen.
Abschließend sei darauf hingewiesen, dass einige psychische Erkrankungen ein Zeitfenster haben -- sie erfordern eine frühzeitige Intervention, und wenn diese ausbleibt, könnte sich das Problem verschlimmern oder chronisch werden. Wenn ChatGPT dich heute ablenkt, könnte es morgen zu spät sein.
Wie du die Kontrolle behältst
Die Theorie ist völlig klar; aber was muss ich tun, um nicht in die Falle von ChatGPT oder einer anderen KI zu tappen?
Bevor ich beginne, möchte ich klarstellen, dass ich nicht gegen den Fortschritt bin, nicht gegen die Nutzung von ChatGPT und nicht gegen andere KI-Werkzeuge. Die Fortschritte sind großartig, diese Werkzeuge sind hervorragend, sie sparen uns Zeit -- aber, Achtung: Gleichgewicht. Hier kommen die Tipps:
Wenn du konversationelle KI nutzen willst, sage zunächst laut, dass du dabei bist, mit einem Roboter zu kommunizieren, mit einer Maschine, nicht mit einem Menschen. Stell dir vor, du sprichst mit einer Maschine, und halte dieses Bild präsent, wenn du eine Frage stellst.
Nutze die KI als das Arbeitswerkzeug, das sie ist, nicht mehr. Vermenschliche sie nicht: Wünsche ihr keinen guten Morgen, bedanke dich nicht bei ihr... das ist nicht nötig. Ich verlange auch nicht, dass du respektlos bist. Es ist in Ordnung, den Zugang zu so nützlichen Werkzeugen und Software wie ChatGPT zu schätzen, aber vermeide es, dich konkret beim Roboter zu bedanken, vermeide Ausdrücke wie «Danke, lieber ChatGPT». Mach es genauso, wie du es mit einem Bleistift tun würdest.
Ersetze nicht deine Denkfähigkeit durch die KI. Glaube nicht alles, was sie dir sagt -- überprüfe, hinterfrage, werde aktiv.
Wenn du das Gefühl hast, dass die Zeit, die du mit der KI im Gespräch verbringst, übermäßig ist und deinen Alltag beeinträchtigt, sei vorsichtig -- das könnte ein Zeichen für problematische Nutzung sein. Erwäge, mit deinem Anbieter für psychische Gesundheit zu sprechen. In jedem Fall gebe ich dir einen einfachen Tipp, um wieder die Kontrolle über dein Leben zu übernehmen: Notiere die Anzahl der Stunden, die du mit ChatGPT verbringst, und beginne, die Zeit Tag für Tag schrittweise zu reduzieren. Jede kleine Anpassung zählt und bringt dich einem gesünderen Umgang mit KI näher.
Einer KI aufzuschreiben, was dir passiert, mag dir helfen, Gedanken zu ordnen -- aber nicht, sie zu verarbeiten und zu heilen. Lege nicht deine gesamte psychische Gesundheit in die Hände eines Roboters, einer Software.
Und das war der heutige Beitrag. Ich hoffe, er war hilfreich für dich. Du findest mich in den sozialen Netzwerken. Alle Informationen findest du auf dieser Webseite. Schau dich um und fühl dich wie zu Hause. Eine herzliche Umarmung.
Lucía Ortiz, deine Psychologin in Berlin / Brandenburg und online.
Quellenangaben
S. D. Ostergaard, "Generative Artificial Intelligence Chatbots and Delusions: From Guesswork to Emerging Cases," Acta Psychiatrica Scandinavica 151, Nr. 2 (2025): 103--104. https://doi.org/10.1111/acps.13769
S. D. Ostergaard, "Will Generative Artificial Intelligence Chatbots Generate Delusions in Individuals Prone to Psychosis?" Schizophrenia Bulletin 49, Nr. 6 (2023): 1418--1419. https://doi.org/10.1093/schbul/sbad128