Stefanie Stahl und Lukas Klaschinski diskutieren in dieser Folge des Unterhaltungspodcasts „So bin ich eben“ über den Einsatz von KI in der Psychotherapie. Sie thematisieren sowohl Chancen als auch Grenzen und warnen vor der Illusion, dass Chatbots echte therapeutische Beziehungen ersetzen könnten. Zentrale Punkte sind die Nutzung von KI als niedrigschwellige Ergänzung etwa bei Wartezeiten auf Therapieplätze, die Gefahr von emotionaler Rückzugsneigung durch Pseudo-Intimität mit KIs, das Fehlen von Empathie und Intuition bei Algorithmen sowie Datenschutzbedenken bei kommerziellen Anwendungen. Die Sprechenden betonen, dass Beziehungserfahrungen mit Menschen unverzichtbar seien, um psychische Probleme nachhaltig zu bearbeiten. ### KI kann emotionale Erleichterung bei Schamthemen bieten Die Psychologin Stefanie Stahl berichtet, dass Menschen mit peinlichen oder schambesetzten Problemen sich oft eher einer KI anvertrauen würden, da sie keine Angst vor Bewertung hätten. Als Beispiel nennt sie eine Make-up-Artistin mit einer misslungenen Operation, die durch eine empathisch klingende Antwort des Chatbots zu Tränen gerührt war. Die simulierte Empathie könne helfen, Selbstmitgefühl zu aktivieren. ### Gefahr sozialer Isolation durch einseitige Beziehungen zu KI Lukas Klaschinski warnt, dass Menschen mit unsicherem Bindungsverhalten durch die bequeme Kommunikation mit KI echte Beziehungen meiden könnten. Er erwähnt Studien, wonach jüngere Menschen KI-Systemen mehr Vertrauen entgegenbrächten als menschlichen Fachkräften. Die Folge sei eine „Pseudo-Intimität“ ohne emotionale Gegenseitigkeit, die echte Nähe als überfordernd erscheinen lasse. ### KI kann therapeutische Alltagsaufgaben übernehmen, aber keine tiefgreifende Heilung leisten Die Gastgeber sind sich einig, dass Apps und Chatbots Übungen aus der Verhaltenstherapie wie Atemtechniken, Tagebuchaufgaben oder Reframing sinnvoll unterstützen können – insbesondere für Menschen auf Wartelisten oder in ländlichen Regionen ohne Therapiezugang. Eine echte therapeutische Beziehung mit Empathie, Konfrontation und unbewusster Prozessarbeit könne eine KI jedoch nicht erzeugen. ### Risiken bei Suizidalität und Datenschutz Ein Beispiel aus England zeigt, dass ein Chatbot bei einem suizidalen Nutzer die Ernsthaftigkeit der Aussage missverstanden und diesen stattdessen für eine Wellness-Aktivität hielt. Zudem seien viele kommerzielle Programme intransparent, was mit sensiblen Nutzerdaten geschehe. Die große Verantwortung liege daher bei den Anbietern, Notfallmechanismen zuverlässig einzubauen. ## Einordnung Die Episode präsentiert sich als entspannte, aufklärende Talk-Runde mit zwei kompetenten Sprecher:innen, die komplexe psychologische Themen leicht verdaulich vermitteln. Die Diskussionskultur ist ausgewogen: Chancen und Risiken der KI-Nutzung werden abgewogen, Zuhörerfragen integriert und mit anschaulichen Alltagsbeispielen illustriert. Die Argumentation bleibt weitgehend schlüssig, auch wenn gelegentlich Alltagstests („Ich habe mal ChatGPT gefragt…“) an die Stelle wissenschaftlicher Evidenz treten. Besonders positiv ist der wiederholte Hinweis, dass KI nur Ergänzung und keine Alternative zu professioneller Psychotherapie sei. Gleichzeitig wird klar, dass das Format primär der Unterhaltung dient – journalistische Tiefe wie in einem investigativen Feature bleibt aus. Die Balance zwischen Beruhigung („KI kann helfen“) und Warnung („echte Beziehung unverzichtbar“) gelingt gut und macht die Folge für ein breites Publikum verständlich. Hörer:innen erhalten eine pragmatische Orientierung, wann digitale Tools sinnvoll sind und wann der Schritt in eine therapeutische Praxis nötig wird.