# taz.de -- Auf KI ist (noch) kein Verlass
       
       Ein Chatbot ist immer ansprechbar – auch wenn es dir nicht so gut geht.
       Vielleicht hilft also eine Chattherapie? Wenn es um Effizienz und um die
       Frage geht, wie dem Versorgungsmangel entgegengewirkt werden kann,
       versprechen künstliche Intelligenz und andere App-Anwendungen einfache
       Lösungen. Doch sind die Angebote wirklich sinnvoll?
       
       Wer Apps zu psychischer Gesundheit nutzt, kann sich die Kosten schon seit
       2019 von den Krankenkassen erstatten lassen. Solche Apps können als
       sogenannte digitale Gesundheitsanwendungen ohne nachgewiesenen Nutzen
       vorläufig zugelassen werden. Bisher arbeitet keine der zugelassenen
       Anwendungen mit künstlicher Intelligenz. Diese „Apps auf Rezept“ werden vom
       Bundesinstitut für Arzneimittel und Medizinprodukte geprüft und dann in ein
       offizielles Verzeichnis aufgenommen. Auf dieser Liste befinden sich etwa
       auch Apps zu Diabetes oder Reizdarm. Auf psychische Erkrankungen beziehen
       sich aktuell knapp die Hälfte dieser Apps – insbesondere auf Depression und
       Angststörungen. Mit ihnen können zum Beispiel Symptomtagebücher geführt
       werden, sie leiten Nutzer*innen an, angstbesetzte Situationen zu
       erproben, je nach Stimmung passende Übungen durchzuführen, und klären über
       Erkrankungen auf.
       
       Befürworter*innen solcher Apps heben vor allem hervor, dass sie für
       die meisten Menschen leicht zugänglich sind. Besonders, wenn jemand Angst
       vor Stigmatisierung habe oder sehr schambehaftet sei, spiele das eine
       Rolle.
       
       „Dass es überhaupt digitale Gesundheitsanwendungen (DiGA) gibt, [1][ist
       schon ein enormer Fortschritt]. Insbesondere in einem Land, was so
       innovationsskeptisch ist wie Deutschland“, sagt Lasse Sander vom Institut
       für Medizinische Psychologie und Soziologie der Universität Freiburg dem
       Science Media Center.
       
       Expert*innen und Interessenverbände kritisieren aber auch das
       Zulassungsverfahren, teils hohe Kosten und eine unübersichtliche
       Angebotslandschaft. Denn DiGas müssen ihren wissenschaftlichen Nutzen erst
       bis zu einem Jahr nach ihrer Zulassung nachweisen. Kritiker*innen
       fordern jedoch, dass die Anwendungen vergleichbare Standards erfüllen
       müssten wie andere Arzneimittel – dass sie also vor einer Zulassung in
       wissenschaftlich hochwertigen Studien eine signifikante Verbesserung für
       Betroffene zeigen müssten –und erst dann über die Zulassung entschieden
       wird.
       
       Mit dem Boom von sprachbasierten Systemen wie ChatGPT und der Einführung
       von künstlicher Intelligenz wurde außerdem ein weiteres Feld für digitale
       Anwendungen im Gesundheitsbereich eröffnet: die KI-gestützte
       Gesprächstherapie.
       
       Zahlreiche Studien haben gezeigt, dass sowohl Patient*innen als auch
       Psychotherapeut*innen nicht unterscheiden konnten, ob Antworten in
       einem Chat von der KI oder von echten Therapeut*innen stammten.
       Allerdings warnen Expert*innen davor, dadurch auf eine echte Kompetenz
       der Chatbots zu schließen. Markus Langer, Professor am Institut für
       Psychologie in Freiburg, sagt dem SMC: „[2][Aktuell ist keine KI in der
       Lage, Psychotherapie im eigentlichen Sinne zu betreiben.] Wenn die KI
       entsprechend trainiert ist, dann kann psychotherapeutische Interaktion
       simuliert werden.“
       
       Die wissenschaftlichen Studien zur Wirksamkeit von KI basieren häufig auf
       hochstandardisierten Studiendesigns in stark kontrollierten bis simulierten
       Settings. Das entspreche nicht der Versorgungsrealität, es fehlen die
       Zwischentöne. Wenn ein Patient etwa ausrastet, gezielt provoziert oder
       weint, können eine KI und andere rein digitale Anwendungen nicht die
       Vielseitigkeit der menschlichen Emotion wahrnehmen. Zudem kritisieren
       Expert*innen den Datenschutz und sehen eine Gefahr darin, dass Chatbots
       in Krisensituationen nicht adäquat agieren könnten. Andrea Benecke, die
       Präsidentin der Bundespsychotherapeutenkammer, warnt: „Chatbots können
       nicht hinreichend sicher abschätzen, wann sich eine Person in einer
       psychischen Notlage befindet, um darauf angemessen reagieren zu können.“
       Dafür brauche es klinisches Wissen und Erfahrung.
       
       31 May 2025
       
       ## LINKS
       
 (DIR) [1] https://www.sciencemediacenter.de/angebote/chatgpt-mehrwert-in-der-psychotherapie-25028
 (DIR) [2] https://www.sciencemediacenter.de/angebote/chatgpt-mehrwert-in-der-psychotherapie-25028
       
       ## AUTOREN
       
 (DIR) Simon Barmann
       
       ## ARTIKEL ZUM THEMA