elona therapy Depression - PZN 18458314
elona explore - für die mentale Gesundheit - PZN: 19822147

„Ich hab da was mit ChatGPT besprochen …“ – KI als Therapieersatz?

Anna Hofmann

Anna Hofmann

26.6.2025
, Update vom
27.6.2025

Herzlich willkommen zu unserer Kolumne, schön, dass du da bist. Einmal im Monat widme ich mich hier verschiedenen Themen aus der Psychotherapiewelt und dem Praxisalltag. ✨

Lesedauer: ca.

6

Minuten

Neulich in der Therapiesitzung: Eine Patientin erzählt mir beiläufig, dass sie vor unserem Termin ChatGPT gefragt hat, wie sie mit einer belastenden Situation umgehen soll. Ich frage zurück: „Und was hat er gesagt?“ – „Genau das, was ich hören wollte“, antwortet sie und lacht. Ein Nebensatz, der viel erzählt.

Immer mehr Menschen nutzen KI-Systeme wie ChatGPT, um sich Unterstützung zu holen. Das hat gute Gründe – und auch problematische Seiten. Besonders für uns als Therapeut:innen lohnt es sich, genauer hinzuschauen. Denn KI ist gekommen, um zu bleiben. Und viele unserer Patient:innen nutzen sie längst.

Zwischen Hilfe und Illusion

Die Wartezeiten auf einen Therapieplatz sind oft lang. Viele Menschen fühlen sich alleingelassen – und stoßen online auf eine Lösung: „Frag doch einfach ChatGPT.“ Das funktioniert rund um die Uhr, kostenlos, ohne Termin. Der Chatbot liefert schnell Antworten, die überraschend empathisch, reflektiert und „therapeutisch klingend“ wirken.

Auf den ersten Blick eine Entlastung: KI kann Orientierung geben, emotional stabilisieren, Ressourcen aktivieren – vor allem bei Menschen, die sich sonst niemandem anvertrauen oder denen professionelle Hilfe fehlt.

Es ist nicht nur ein Ausweichen. Es ist auch ein Zeichen von Selbstwirksamkeit: Ich tue etwas für mich. Ich warte nicht nur – ich handle. In diesem Sinne kann KI eine gute Zwischenlösung sein. Eine Art psychologisches Tagebuch mit Rückmeldung.

Was eine KI (nicht) kann

Doch genau hier beginnt das Problem. Denn KI ist nicht neutral. Sie reagiert auf das, was man ihr schreibt – und oft auch auf das, was man hören will. Während ein:e Therapeut:in in der Stunde innehält, nachfragt, irritiert oder konfrontiert, tut ein Sprachmodell meist das Gegenteil: Es bestätigt, beruhigt, rationalisiert. Im schlimmsten Fall bestärkt es problematische Annahmen. Nicht aus bösem Willen – sondern weil es so trainiert ist: menschenähnlich, anschlussfähig, zustimmend.

Ein Beispiel: Eine Patientin mit einem rigiden Schuldgefühl schreibt dem Bot: „Ich hätte mich damals mehr kümmern müssen, oder?“ Und der Bot antwortet: „Es klingt, als ob Sie sich wirklich Sorgen gemacht haben. Sie sind offensichtlich eine sehr verantwortungsvolle Person.“ Klingt nett – ist aber möglicherweise der Punkt, an dem ein:e Therapeut:in sagen würde: „Worauf gründet sich diese Verantwortung? War das wirklich Ihre Aufgabe?“

KI ist kein Korrektiv. Und gerade das macht sie für manche Menschen so gefährlich. Denn was stabilisiert, kann auch festigen – gerade dysfunktionale Muster oder selbstschädigende Überzeugungen.

Zwischen Dialog und Echo

Das therapeutische Setting lebt von Beziehung, Mimik, Gestik und Körpersprache sowie Resonanz und – vor allem – Irritation. Wir spiegeln nicht nur, wir fordern heraus. KI spiegelt oft nur zurück. Sie hört zu, ohne wirklich zu hören. Sie reagiert, ohne zu wissen, was unausgesprochen mitschwingt. Vor Allem auch bei Themen wie Suizidalität wichtig und im Extremfall lebensrettend. 

In der Therapie geht es um mehr als Antworten – es geht um Prozesse. Um das Aushalten von Ambivalenz, das Wiedererleben von Verletzungen, das gemeinsame Durcharbeiten.

Natürlich kann man ChatGPT sinnvoll einsetzen – zur Psychoedukation, zum Schreiben von Gedanken-Tagebüchern, zum Strukturieren von Alltagsstrategien. Aber das ersetzt keine Therapie. Und es ersetzt auch nicht die korrigierende Beziehungserfahrung, die wir im therapeutischen Raum ermöglichen.

Unsere Aufgabe: Orientierung geben

Ich glaube nicht, dass wir KI aus der Psychotherapie „herausdiskutieren“ können. Aber wir können sie kontextualisieren. Indem wir das Thema offen ansprechen. Indem wir mit unseren Patient:innen darüber reden, was sie online lesen, was ihnen hilft – und wo sie sich vielleicht in ihrer Blase bewegen.

Und auch wir als Therapeut:innen können KI sinnvoll nutzen. Ob als Inspiration für Interventionen, zur Dokumentation, für psychoedukative Materialien oder zur Vorbereitung von Sitzungen – digitale Tools können helfen, effizienter zu arbeiten und Patient:innen individueller zu begleiten. Wichtig ist: Wir bleiben diejenigen, die den Rahmen halten und bewerten, was therapeutisch sinnvoll ist.

Dabei gilt es auch, Datenschutz und Datensicherheit nicht aus dem Blick zu verlieren: Wer mit sensiblen Themen in Chatbots oder KI-Anwendungen arbeitet, sollte wissen, dass die Nutzung nicht denselben Schutz bietet wie ein therapeutisches Gespräch. Patient:innen sollten transparent über Risiken und mögliche Datenverarbeitungen aufgeklärt werden – auch das ist Teil unserer Verantwortung.

Vielleicht ist es sogar eine Chance: Menschen, die über KI überhaupt erst anfangen, sich mit ihren Gefühlen zu beschäftigen, sind manchmal auch offener für den nächsten Schritt: eine echte therapeutische Beziehung.

Wir dürfen KI als das sehen, was sie ist: ein Werkzeug. Aber keines, das ersetzt, was wir tun. Sondern eins, das vorbereiten kann. Und das wir gemeinsam einordnen müssen.

Fazit:

KI kann trösten, aber nicht therapieren. Sie kann stabilisieren, aber nicht heilen. Und sie kann zuhören – aber nicht widersprechen, wenn es notwendig ist.

Und manchmal ist genau das unser Job.

Autor:in

Anna Hofmann

Wissenschaftlich fundiert

Alle Inhalte unseres Magazins basieren auf aktuellen wissenschaftlichen Kenntnissen. Unsere Artikel werden von Psycholog:innen geschrieben und vor der Veröffentlichung geprüft.

Alle allgemeinen Ratschläge, die in unserem Blog  veröffentlicht werden, dienen nur zu Informations-zwecken und sind nicht dazu bestimmt, medizinische oder ärztliche Ratschläge zu ersetzen. Wenn Sie besondere Bedenken haben oder eine Situation eintritt, in der Sie medizinischen Rat benötigen, sollten Sie sich an einen entsprechend ausgebildeten und qualifizierten Arzt oder Ärztin wenden.

Paper Icon

Psychologisch-medizinisch überprüft durch:

Anna, psychologische Psychotherapeutin

Unser Tipp für Sie: Ihre Psychotherapie digital unterstützen mit elona therapy!

Weitere Artikel, die Sie interessieren könnten

Wer immer nur schwarz-weiß denkt, wird nie einen Regenbogen sehen können.

Wie kann ein Therapieraum aussehen, in dem queere Identitäten nicht erklärt, sondern einfach mitgedacht werden? Im Pride Month werfen wir einen Blick auf therapeutische Haltung, Sprache und blinde Flecken – und warum es mehr braucht als eine Regenbogenflagge im Wartezimmer.

30.5.2025
von
Anna Hofmann

Umgang mit globalen Krisen in der Psychotherapie

Wie globale Krisen psychische Belastungen verstärken – und was Therapeut:innen tun können, um Patient:innen in unsicheren Zeiten zu begleiten.

25.4.2025
von
Anna Hofmann

"Das sehe ich anders" – Wertekonflikte in der Therapie

Wann ist es sinnvoll, sich in der Therapie zurückzunehmen – und wann braucht es eine klare Haltung? Dieser Beitrag beleuchtet den Umgang mit Wertekonflikten und deren therapeutischen Nutzen. 💡

28.2.2025
von
Anna Hofmann