# taz.de -- KI als Psychotherapeut: Auf der Couch mit ChatGPT
       
       > Immer mehr Menschen versuchen, ChatGPT zu ihrer Psychotherapeutin zu
       > machen. Kann KI fehlende Therapieplätze ersetzen?
       
 (IMG) Bild: Spricht Sigmund Freud hier auch mit einer künstlichen Version seiner selbst?
       
       „Ich mache seit gestern Therapie mit ChatGPT – und es hat mein Leben
       verändert“, beginnt die Frau auf dem Sofa in ihrem Tiktok-Video ihren
       Erfahrungsbericht. Einmal „komplett Trauma dumpen“, schwärmt eine andere,
       die sich gerade die Haare bindet und seit zehn Tagen mit ChatGPT chattet.
       Der KI ungefiltert alle Sorgen und Probleme schildern, dann eine Anweisung,
       also den „Prompt“, abschicken und schon scheint sich die Welt ein Stück zu
       sortieren.
       
       Momentan vertrauen immer mehr Menschen, vor allem junge, ihre Psyche der KI
       an. Besonders oft betonen die Nutzer*innen, wie erstaunlich leicht es
       fällt, sich der KI zu öffnen: kein Schamgefühl, keine Angst vor Bewertung.
       Was sich in den Erfahrungsberichten ebenfalls zeigt: Während Freunde,
       Familie und Bekannte mit den Problemen junger Menschen oft überfordert
       wirken oder mit Floskeln wie „Wird schon wieder“ reagieren, liefert ChatGPT
       laut den Usern strukturierte Rückmeldungen und Lösungsansätze.
       
       Die Möglichkeiten, mit Hilfe von KI-„Therapie“ die eigene Psyche zu
       erkunden, scheinen auf den ersten Blick vielfältig zu sein. Content Creator
       nutzen für ihre „Sitzungen“ mit ChatGPT einen vorgeschriebenen Prompt und
       empfehlen ihn anschließend ihren Followern via Screenshot weiter.
       
       Besonders beliebt auf Tiktok ist derzeit der Prompt, den auch die Sofa-Frau
       beschreibt: „Du kombinierst Psychoanalyse mit Verhaltenstherapie. Du
       stellst gezielte, klare Fragen, die mir helfen zu erkennen, was mich
       beschäftigt. Du gibst mir Erklärungen und spürst, wann es wichtig ist,
       Zusammenhänge für mich sichtbar zu machen. Du bist provokant, wenn es hilft
       – nicht verletzend, sondern konfrontierend, damit ich mich selbst
       hinterfrage. Gleichzeitig kannst du sehr einfühlsam sein und mich
       auffangen.“
       
       ## Chatverläufe für ChatGPT
       
       Andere Nutzer*innen geben der KI komplette Chatverläufe, etwa mit
       Freund*innen, Verflossenen, Eltern oder Vorgesetzten zur Analyse. Sie
       wollen an sich arbeiten oder wissen, ob ChatGPT toxische Strukturen
       erkennt, das Gegenüber manipuliert, Erwartungen projiziert oder spiegelt.
       Das Ergebnis für einen User: „Das stimmt einfach so krass. Seit ich
       Therapie mit ChatGPT mache, geht es mir so viel besser.“
       
       Kann die KI-„Therapie“ also dort helfen oder zumindest ergänzen, wo das
       Gesundheitssystem versagt? Denn wer keinen privaten Versicherungsschutz
       genießt und einen Therapieplatz sucht, hat es schwer. [1][Psychotherapie
       auf Kassenbasis ist knapp – Wartezeiten von mehreren Monaten sind die
       Regel].
       
       Derweil zeigen diverse Umfragen der vergangenen Jahre: Immer mehr junge
       Menschen haben ein großes Bedürfnis nach emotionaler Unterstützung,
       besonders seit der Coronapandemie. Das Problem ist in der Politik längst
       bekannt, doch große strukturelle Veränderungen blieben bislang aus.
       ChatGPT, unermüdlich, anonym und rund um die Uhr erreichbar, bietet
       Hilfesuchenden dagegen eine niedrigschwellige Lösung.
       
       ## Kombination aus KI und Therapie
       
       Christina Jochim, Psychologische Psychotherapeutin in Berlin und
       stellvertretende Bundesvorsitzende der Deutschen Psychotherapeuten
       Vereinigung (DPtV), kennt das Phänomen, dass Menschen psychologische Hilfe
       bei ChatGPT suchen. „Die ersten Fragen dazu, wie KI die Psychotherapie
       verändern wird, kamen schon vor zwei Jahren auf, vor allem in den USA.
       
       Mittlerweile ist das Thema, nicht zuletzt durch Social Media, deutlich
       präsenter geworden“, sagt sie. In der Fachwelt sei der Einsatz von KI in
       der Psychotherapie bereits üblich – allerdings mit speziell dafür
       programmierten Chatbots, zum Beispiel im Rahmen von Blended-Care-Ansätzen,
       Behandlungskonzepten, die die klassische Vor-Ort-Psychotherapie mit
       Internet- und mobilbasierten Anwendungen kombinieren.
       
       Diese KI-Chatbots kommen beispielsweise zur Emotionserkennung oder zur
       Analyse von Mustern in der Stimmfarbe und Sprechweise der Patient*innen
       zum Einsatz. Durch diese Algorithmen sei es bereits möglich, diagnostische
       Vorschläge zu machen oder Muster zu erkennen, erklärt Jochim, allerdings
       bisher ausschließlich im Kontext der Forschung, nicht in der
       therapeutischen Praxis.
       
       „Doch im Gegensatz zu diesen KI-Anwendungen, die für medizinische Zwecke
       und mit medizinischen Daten trainiert werden, analysiert ChatGPT als
       sprachbasiertes System Texte, also die Beziehungen zwischen Wörtern und
       Sätzen. Eine Antwort von ChatGPT ist eine auf Wahrscheinlichkeit basierende
       Abfolge von Wörtern, keine Wissenschaft oder gar Diagnose.“
       
       ## „Interessant, aber keine Psychotherapie“
       
       Prompts, von denen sich viele eine konstruktive Analyse ihrer Gedanken und
       Gefühle versprechen, seien dennoch spannend: „Für Laien bieten sie eine
       Anleitung zur Selbstreflexion, regen durch Frage-Antwort-Formate zum
       Nachdenken an. Aber wir neigen stark dazu, Beratung, Coaching und
       Psychotherapie zu verwechseln. Was ChatGPT da leistet, ist interessant –
       aber es ist keine Psychotherapie.“
       
       Zwischen den vielen Erfahrungsberichten auf Tiktok, in denen junge Menschen
       von ChatGPT als Therapeut und Helfer schwärmen, beginnen auch die Ersten zu
       zweifeln und raten davon ab. So kommentiert eine Userin unter einem
       Beitrag: „Ich habe ChatGPT monatelang genutzt, um über ein bestimmtes Thema
       zu sprechen.“
       
       Anfangs habe das geholfen, Gedanken einzuordnen, berichtet sie. „Ich hätte
       ChatGPT damals bis aufs Blut verteidigt.“ Doch heute denke sie anders. „Ich
       drehe mich nur noch im Kreis. Und wenn ich bei jedem Gedanken denke: Das
       muss ich sofort ChatGPT erzählen, ist für mich eine Grenze erreicht.“ Ihr
       Fazit: Es kann punktuell helfen, sobald man es aber mit einer Therapie
       verwechsle, werde es gefährlich.
       
       Laut Jochim stößt ChatGPT schnell an eine Grenze, da es auf einem
       sogenannten Bestätigungsalgorithmus basiere – also so programmiert sei,
       dass er User zunächst bestätigt und bestärkt. Eine „Therapie“ mit ChatGPT
       unterscheidet sich laut Jochim daher kaum von Scrolling auf Instagram, denn
       auch dort gehe es darum, Verhalten zu bestätigen und passende Inhalte
       auszuspielen.
       
       Mit echter Psychotherapie habe das wenig zu tun, so Jochim. „In der
       Therapie geht es nicht nur um bestärkende Erfahrungen, die man auch durch
       Empowerment oder Selbstoptimierung erfahren kann, sondern auch um
       schmerzhafte, unbequeme Konfrontationen mit sich selbst. Es ist also
       entscheidend, ob jemand gerade reflektieren möchte oder sich in einer Krise
       befindet.“ Was ChatGPT macht, ist laut der Expertin vergleichbar mit einem
       Coaching.
       
       Dennoch nutzen viele Menschen ChatGPT gerade in emotionalen Notsituationen.
       Die KI wird dann zu einem virtuellen Gegenüber – jemandem, dem man sich
       anvertrauen kann. „Deshalb ist Digitalkompetenz so wichtig“, betont sie.
       „ChatGPT ist eine Software, die so tut, als würde sie uns verstehen. Sie
       kann uns sehr gut imitieren – und genau das berührt uns. Je besser sie
       imitiert, desto mehr sind wir bereit, eine pseudomenschliche Beziehung
       einzugehen. Und diese kann durchaus einnehmend sein. Ich sehe dabei die
       Gefahr einer Realitätsverzerrung.“
       
       Zudem warnt sie: „KI macht Fehler, das wissen wir. Und wer haftet, wenn
       etwas schiefläuft?“ Fälle, in denen Chatbots Suizidgedanken bestätigten
       oder Essstörungen bestärkten, gibt es bereits, doch Antworten auf diese
       Frage fehlen bisher. Die ersten Prozesse zu diesen Fällen laufen gerade
       erst an, [2][wie der um den Suizid eines 14-Jährigen, der davor intensiv
       mit einer KI gechattet hat]. Mit schnellen Urteilen ist aber nicht zu
       rechnen.
       
       ## Eine Aufgabe für die ganze Gesellschaft
       
       Christina Jochim geht davon aus, dass der Einsatz von künstlicher
       Intelligenz als vermeintliche alternative Therapieform in Zukunft weiter
       zunehmen wird. Eine einfache Lösung für die komplexen Herausforderungen in
       diesem Bereich gebe es jedoch nicht. „Die Faszination, etwas Menschliches
       künstlich nachzubilden, war schon immer da. Doch ich glaube, das Ausmaß, in
       dem KI unsere Gesellschaft, speziell im medizinischen Kontext, verändern
       wird, ist uns noch gar nicht bewusst.“ Der Umgang damit sei eine
       „gesamtgesellschaftliche Aufgabe“.
       
       Jochim fordert deswegen, dass die Politik sich darauf konzentriert, die
       gesundheitliche Versorgung langfristig zu sichern. Dazu zählt neben der
       Ausweitung von Kassensitzen auch der gezielte Ausbau digitaler Angebote,
       die stärkere Einbindung von Hausärztinnen und Hausärzten bei psychischen
       Erkrankungen.
       
       „Menschen verdienen echte Empathie und echtes Verständnis – kein Imitat“,
       fordert Jochim. Potenzial für die KI im psychotherapeutischen Alltag sieht
       sie eher in der Bürokratie: „Administrative Prozesse vereinfachen wäre ein
       sinnvoller Einsatz.“
       
       12 Jun 2025
       
       ## LINKS
       
 (DIR) [1] /Bessere-psychische-Versorgung/!6089796
 (DIR) [2] https://www.heise.de/news/KI-Text-keine-geschuetzte-Rede-US-Verfahren-zu-Suizid-wegen-Chatbot-zugelassen-10392907.html
       
       ## AUTOREN
       
 (DIR) Giorgia Grimaldi
       
       ## TAGS
       
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Sigmund Freud
 (DIR) Psychotherapie
 (DIR) Therapie
 (DIR) ChatGPT
 (DIR) Social Media
 (DIR) GNS
 (DIR) Lesestück Recherche und Reportage
 (DIR) Schwerpunkt Meta
 (DIR) Google
 (DIR) Psychoanalyse
 (DIR) Suizid
 (DIR) Big Tech
 (DIR) TikTok
 (DIR) Zukunft
 (DIR) Schwerpunkt Künstliche Intelligenz
 (DIR) Feminismus
 (DIR) Social Media
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Therapie bei TikTok: Heile dich selbst
       
       Auf Social Media boomt Psycho-Content. Warum ist das so – und welches Bild
       von psychischem Wohlbefinden entsteht dabei? Eine Spurensuche.
       
 (DIR) Wegen KI-Zusammenfassungen: „Rolling Stone“-Verleger verklagt Google
       
       Der Medienkonzern Penske Media verklagt Google. Der Konzern nutzte die
       journalistischen Inhalte ohne Zustimmung in seinen KI-Zusammenfassungen.
       
 (DIR) Film „Outsider. Freud“: Verdrängte Ausgrenzung
       
       Filmemacher Yair Qedar setzt sich mit Sigmund Freuds Verhältnis zum
       Antisemitismus auseinander. Und zeigt ungesehene Aufnahmen des
       Psychoanalytikers.
       
 (DIR) Psychologe über Suizid als Tabuthema: „Prävention kann im entscheidenden Moment Leben retten“
       
       Viele Medien scheuen sich, über Suizid zu berichten. Dabei kann gute
       journalistische Arbeit mit Vorurteilen brechen, sagt der Psychologe Frank
       Schwab.
       
 (DIR) Altersgrenze für Social Media: Das falsche Verbot
       
       Wer unter 16 ist, soll Apps wie Tiktok nicht mehr nutzen dürfen – das
       fordert nun auch die Bildungsministerin. Besser wäre etwas anderes.
       
 (DIR) Feindbild für Trump-Anhänger: Tiktok-Superstar Khaby Lame muss die USA verlassen
       
       Für rechte US-Influencer ist er ein „linksextremer Tiktoker“: 162 Millionen
       Menschen folgen dem Italiener Khaby Lame. Die USA musste er nun verlassen.
       
 (DIR) Neue Kontaktlinsen: Warum Menschen bald wie Schlangen sehen könnten
       
       Hightech-Linsen lassen Menschen Licht sehen, das sonst Schlangen und Bienen
       vorbehalten ist. Mögliche Anwendungen reichen von Rettung bis Spionage.
       
 (DIR) KI in der Verwaltung: Ein Chatbot für den Notfall
       
       In der Verwaltung hält Künstliche Intelligenz zunehmend Einzug.
       Expert:innen fordern dabei mehr Transparenz – und verweisen auf ein
       Vorbild.
       
 (DIR) Künstliche Intelligenz und Arbeit: Der Feind ist nicht die KI
       
       KI bedroht vor allem die Arbeitsplätze von Frauen. Allein auf
       Weiterbildungen zu setzen, ist nicht die Lösung. Wir müssen auch ans Thema
       Care-Arbeit.
       
 (DIR) „We listen and we don't judge“: Viraler Beichtstuhl
       
       Beim Social Media Trend „We listen and we don't judge“ hört man sich
       Schuldbekenntnisse an, ohne zu urteilen. Aber geht es danach jemandem
       besser?