🤖 Chatbot statt bester Freund? Warum das Thema uns alle angeht
Eine aktuelle Bitkom-Umfrage zeigt, was viele von euch vermutlich schon geahnt haben: Ein Viertel der Nutzer (26 Prozent) empfindet Chatbots wie ChatGPT, Gemini oder Claude manchmal wie eine digitale Bezugsperson. Bei den unter 30-Jährigen liegt der Wert sogar bei 32 Prozent. Ich war heute dazu im Fernsehen und habe das Thema eingeordnet. Hier meine Einschätzung – und die geht bewusst in beide Richtungen. Was daran erst mal gar nicht schlimm ist Die große Chance: Ein Chatbot ist immer da. Nachts um drei, wenn kein Freund ans Telefon geht und kein Therapeut erreichbar ist. Es gibt keine Warteliste, keine Hemmschwelle, kein Schamgefühl. Gerade für Menschen, die sich schwertun über ihre Probleme zu reden, kann das ein erster Schritt sein, überhaupt Worte dafür zu finden. Das ersetzt keine professionelle Hilfe – aber es kann eine Brücke dorthin sein. In Deutschland fühlt sich inzwischen rund jeder dritte Mensch einsam, bei den 18- bis 30-Jährigen sogar fast jeder zweite. Da verstehe ich jeden, der erstmal mit einer KI redet, bevor er gar nicht redet. Wo es aber problematisch wird Das zentrale Risiko: Ein Chatbot hat keine echte Beziehung zu dir. Er erinnert sich nicht wirklich, er sorgt sich nicht wirklich. Wenn sich jemand in diese Illusion zurückzieht und echte Kontakte dafür aufgibt, wird es gefährlich. Und im Ernstfall – bei einer echten Krise – fehlt der KI das Urteilsvermögen, das ein ausgebildeter Therapeut hat. Dazu kommt ein Problem, das einen Fachbegriff hat: Sycophancy. Die KI neigt dazu, dir nach dem Mund zu reden. Das ist kein böser Wille, sondern liegt an der Art, wie diese Systeme trainiert werden – sie wurden darauf optimiert, hilfreiche und angenehme Antworten zu geben. Ein guter Freund sagt dir auch mal unbequeme Wahrheiten. Eine KI tut das nur, wenn sie ausdrücklich dafür gebaut wurde. Wie das technisch funktioniert (und warum es sich so echt anfühlt) Der Chatbot analysiert, was du schreibst, erkennt Stimmungen und Muster in deiner Sprache und formuliert darauf eine passende Antwort. Das fühlt sich erstaunlich empathisch an – ist aber im Kern Textverarbeitung auf sehr hohem Niveau. Die KI versteht nicht, wie sich Trauer anfühlt. Sie hat gelernt, was Menschen in solchen Situationen als hilfreich empfinden. Mit Sprachfunktion wird das nochmal intensiver, weil eine warme Stimme uns emotional viel stärker anspricht als Text. Das macht die Technik wirkungsvoller – aber eben auch verführerischer.