Ab heute (01.04.2026) sinken die Honorare für Psychotherapeuten um rund 4,5 Prozent. Gleichzeitig warten Menschen in Deutschland drei bis sechs Monate auf einen Therapieplatz. Kein Wunder, dass immer mehr Leute ihre Sorgen einem Chatbot erzählen.
Die DAK-Studie des UKE Hamburg zeigt: Schon jeder zehnte Jugendliche nutzt Chatbots, um über vertrauliche Dinge zu sprechen. Bei Jugendlichen mit depressiven Symptomen sogar jeder Dritte.
Funktioniert das?
Eine Dartmouth-Studie (veröffentlicht im NEJM AI) hat das erstmals klinisch getestet – mit einem speziell für Therapie trainierten Chatbot namens „Therabot". Ergebnis: 51 Prozent weniger Depressionssymptome nach acht Wochen. Vergleichbar mit klassischer Verhaltenstherapie.
Aber Vorsicht:
ChatGPT, Claude oder Gemini sind keine Therapeuten. Die sind als Allzweckwerkzeuge gebaut. Die American Psychological Association warnt klar: Allgemeine Chatbots erkennen Krisen oft nicht, verstärken im schlimmsten Fall negative Denkmuster – und unterliegen keiner Schweigepflicht. Was du da reintippst, ist nicht geschützt wie beim Therapeuten.
Meine 5 Regeln, wenn ihr Chatbots für seelische Unterstützung nutzt:
- Ein Chatbot ist kein Therapeut. Bei ernsthaften Problemen: professionelle Hilfe holen.
- Für leichtere Belastungen durchaus nützlich – Gedanken sortieren, Atemtechniken, Tagebuchersatz.
- Nicht alles glauben. Chatbots geben euch gerne recht. Das fühlt sich gut an, hilft aber nicht immer.
- Datenschutz beachten. Keine Klarnamen, keine Befunde reinkippen. Bei ChatGPT in den Einstellungen das Modelltraining deaktivieren.
- Wer es gezielter will: Apps wie Wysa oder Woebot wurden mit Psychologen entwickelt und haben Krisenprotokolle.
Am Ende gilt: Lieber mit einer KI reden als mit niemandem. Aber eine KI sollte die Brücke sein – nicht das Ziel.
Telefonseelsorge: 0800 111 0 111 – kostenlos, anonym, rund um die Uhr.
Was sind eure Erfahrungen – hat euch ein Chatbot schon mal in einer schwierigen Situation geholfen? Oder seht ihr das kritisch? Schreibt's in die Kommentare.