# taz.de -- Psychotherapie und KI: Mein Therapeut, der Bot
> Eine neue Studie zeigt, dass sich viele Menschen bei psychischen
> Problemen an KI-Chatbots wenden. Dabei kann die Technologie gefährlich
> sein.
(IMG) Bild: Junge Menschen sprechen immer häufiger mit einer KI über ihre Probleme
Viele Menschen in Deutschland konsultieren bei psychischen Problemen
[1][einen KI-Chatbot]. Zu diesem Schluss kommt eine repräsentative
Befragung der Stiftung Deutsche Depressionshilfe und Suizidprävention,
deren Ergebnisse am Dienstag vorgestellt wurden.
Befragt hatte die Stiftung knapp 2.500 Menschen im Alter zwischen 16 und 39
Jahren, die an einer Depression erkrankt sind. Rund ein Drittel der
Befragten gaben an, mit der künstlichen Intelligenz über ihre Erkrankung zu
sprechen. Dabei beurteilen die Befragten die Kommunikation mit dem Chatbot
als überwiegend positiv: 85 Prozent sagten, dass sie Gespräche mit
KI-Chatbots als hilfreich empfinden. Bemerkenswert: Auch knapp zwei Drittel
derjenigen, die schon einmal eine konventionelle Psychotherapie in Anspruch
genommen haben, schätzten die Gespräche mit dem Chatbot als „besser oder
genauso gut“ ein.
Die Befragten berichteten aber auch Negatives: Mehr als die Hälfte fand es
„bedrückend“, sich mit einem nichtmenschlichen Akteur über die eigenen
Gefühle auszutauschen. 53 Prozent der Befragten berichteten weiterhin, dass
sie nach der Nutzung des Chatbots Gedanken an Selbstverletzung oder Suizid
hatten.
## Chatbots neigen zur Zustimmung
Ulrich Hegerl, Vorstandsvorsitzender der Stiftung, betrachtete diese
Ergebnisse bei einer Pressevorstellung mit gemischten Gefühlen. Zwar sei es
zu begrüßen, dass viele Betroffenen gute Erfahrungen mit KI-Chatbots
machen. Die Technologie sei aber aktuell nicht in der Lage, eine Diagnose
zu stellen oder tatsächlich zu behandeln. „Betroffene sollten sich
unbedingt weiterhin an Hausärzte, Psychiater oder Psychologische
Psychotherapeuten wenden“, sagte Hegerl weiter.
Als Alternative zu den Chatbots empfiehlt die Stiftung Deutsche
Depressionshilfe und Suizidprävention sogenannte DiGA – Digitale
Gesundheitsanwendungen. Deren Wirksamkeit wurde in Studien belegt, und sie
müssen sich an Datenschutzvorschriften halten. In puncto KI-Chatbots
appellierte Hegerl an die Wissenschaft: Es brauche dringend mehr Forschung
zum Nutzen der KI für psychotherapeutische Zwecke.
Tatsächlich beschäftigt sich die psychologische Forschung schon seit
einiger Zeit mit maschinellem Lernen und großen Sprachmodellen – nicht
unbedingt nur im Zusammenhang mit Psychotherapie. Neuere Studien kommen
auch hier zu ambivalenten Ergebnissen: Beim Versuch,
Persönlichkeitseigenschaften aus textbasierten Informationen abzuleiten,
[2][stößt KI an ihre Grenzen]. Darüber hinaus beurteilen Expert*innen
eine affirmierende Haltung vieler Chatbots als problematisch: Weil sie den
Nutzer*innen eine möglichst angenehme Erfahrung bieten wollen, neigen
viele Bots zurzeit dazu, sie in ihren Gedanken zu bestätigen.
## Suizid nach Chatbot-Beziehung
Die Ergebnisse der vorgestellten Studie zeigen aber auch: Unabhängig von
der Forschungslage holen sich viele Menschen Rat und Beistand von
KI-Chatbots. Wenngleich sie die Konversationen offenbar als überwiegend
positiv wahrnehmen, haben solcherlei Verhältnisse zwischen Mensch und
KI-Chatbots in der Vergangenheit schon schreckliche Folgen gehabt: Im
Oktober 2024 wurde ein Fall aus den USA bekannt, bei dem sich ein
Jugendlicher das Leben nahm, nachdem er zu einem KI-Chatbot [3][eine
parasoziale Beziehung aufgebaut hatte]. Vergangenes Jahr klagten die Eltern
eines 16-jährigen [4][gegen das KI-Unternehmen OpenAI], weil dessen Bot
Chat-GPT den psychisch kranken Jugendlichen zum Suizid animiert haben soll.
Ulrich Hegerl ging auch darauf ein, dass KI-Chatbots künftig
Versorgungsengpässe bei der psychischen Gesundheitsversorgung auflösen
könnten – nicht nur in Deutschland. Wo die psychotherapeutische Versorgung
unzureichend sei, habe künftig jeder „eine nicht schlechten
Psychotherapeuten in der Tasche“. Vor dem Hintergrund eines [5][andauernd
ungedeckten Bedarfs] und Kürzungen im Bereich der psychischen Versorgung
wirft die Studie neue Fragen auf: Wer kann künftig auf menschliche
Psychotherapie zurückgreifen – und für wen bleibt das Gespräch mit dem
Chatbot die einzige erreichbare und erschwingliche Hilfe?
28 Apr 2026
## LINKS
(DIR) [1] /Machen-uns-KI-Chatbots-duemmer-Die-Gefahr-ist-da-aber-es-gibt-eine-Gegenstrategie/!6161476
(DIR) [2] https://www.sciencedirect.com/science/article/pii/S0092656625000984
(DIR) [3] https://www.br.de/nachrichten/netzwelt/wenn-ki-freunde-zur-gefahr-werden-suizid-in-den-usa-zeigt-tragischen-verlauf-einer-ki-beziehung,USgb6Ux
(DIR) [4] https://www.spiegel.de/netzwelt/netzpolitik/chatgpt-eltern-in-kalifornien-klagen-nach-suizid-ihres-sohnes-gegen-openai-a-6e222331-806b-4350-9b55-f0eee48bdcaf
(DIR) [5] https://www.zdfheute.de/wissen/psychotherapie-psychische-erkrankungen-wartezeit-gesetzliche-krankenversicherung-100.html
## AUTOREN
(DIR) Konstantin Nowotny
## TAGS
(DIR) Psychotherapie
(DIR) Schwerpunkt Künstliche Intelligenz
(DIR) Depression
(DIR) Chat-Verhandlung
(DIR) GNS
(DIR) Schwerpunkt Künstliche Intelligenz
(DIR) Psychotherapie
(DIR) Psychotherapie
## ARTIKEL ZUM THEMA
(DIR) Befragung zu psychischen Belastungen: Zwei von drei jungen Menschen vertrauen sich der KI an
Mit ChatGPT und Co über Liebeskummer und Depression sprechen: Chatbots
werden für viele zum Gesprächspartner bei seelischen Problemen.
(DIR) Psychotherapeutische Ausbildung: Therapie bleibt Elitensache
Eine Reform sollte den Weg in den Therapeut*innen-Beruf erleichtern.
Geklappt hat es nicht. Vielen Kranken entgeht dadurch eine angemessene
Behandlung.
(DIR) Weniger Honorar für Psychotherapie: Es ist zum heulen!
Ab dem 1. April bekommen Psychotherapeut*innen weniger Honorar.
Wertschätzung sieht anders aus. Doch was genau ändert sich?