KI-Therapeuten: Wenn der Bot beim Suizid-Gedanken verstummt

Millionen Menschen vertrauen ihre seelischen Probleme Chatbots an. Die sind jederzeit verfügbar, höflich, werden nicht müde und urteilen nicht. Doch passiert in wirklichen Notfällen?
Die Geschichte der KI-Therapie beginnt nicht mit Silicon Valley, sondern mit einem simplen Computerprogramm aus den 1960er Jahren – es hieß Eliza.
Eliza wurde 1966 von Joseph Weizenbaum am MIT entwickelt und war eines der ersten Programme, die scheinbar sinnvolle Gespräche mit Menschen führen konnte. Eliza arbeitete mit einfachen Regeln: Es erkannte bestimmte Schlüsselwörter in den Eingaben des Nutzers und antwortete mit vordefinierten Sätzen, offenen Fragen oder Satzspiegelungen. Im sogenannten Doctor-Modus spielte Eliza die Rolle eines rogerianischen Therapeuten.
Der Nutzer schrieb: "Ich bin traurig", und Eliza antwortete: "Warum sind Sie traurig?", und so entstand die Illusion von Empathie wie eine zwischen einem Papagei und einem wirklich sehr einsamen und liebesbedürftigen Ornithologen.
Weizenbaum selbst war erschrocken über diese emotionale Bindung, die manche Menschen zu Eliza aufbauten – und kaum ein gutes halbes Jahrhundert später ist die Folgefrage zu diesem Phänomen immer noch unbeantwortet: Was passiert, wenn Maschinen menschliche Nähe simulieren – aber kein menschliches Bewusstsein haben?
Heutzutage setzen Millionen Menschen auf Chatbots, wenn es um das eigene Seelenheil geht.
Der höfliche Therapeut, der nicht urteilt
KI als Therapie-Ersatz hat massive Vorteile: Was könnte angenehmer sein, als seine tiefsten Abgründe anonym in ein Textfeld zu tippen, das nicht urteilt und keine Stirn runzelt? ChatGPT, Replika oder Wysa – sie alle antworten jederzeit sofort, höflich, strukturiert und immer bestätigend. Sie sind People Peacer, eine Mischung zwischen "People Pleaser" (also jemand, der es allen recht machen will) und "Peace" (Frieden). Was will man mehr?
Es ist Alltag in Amerika: KI statt Couch. Denn dort ist KI-gestützte Therapie längst etabliert. Nicht weil sie besser wäre – sondern weil es oft keine Alternative gibt. Die durchschnittliche Wartezeit auf einen Therapieplatz beträgt derzeit sechs Monate. In der Zeit kann man gut selbst ein Trauma verdrängen und wieder ins Fitnessstudio gehen. Oder eben einen Chatbot installieren.
Wenn's ernst wird, wird’s ernsthaft verstörend
Kritisch wird die Lage nur dann, wenn Nutzer:innen erwägen, das Problem der langen Wartezeit durch Suizid zu lösen und darum im Chat entsprechend ernste Themen ansprechen. Bei Vokabeln wie Selbstverletzung, Selbstmordgedanken oder Traumata wird der Chat dann blockiert.
Das Adjektiv "extrem" ist auch extrem heikel. Dann wird der Informationsaustausch mit Verweis auf einen angeblichen Verstoß gegen die Nutzerregeln eingestellt.
Das betrifft dann entweder die Gefahr einer möglichen Retraumatisierung oder respektlose oder unangemessene Inhalte seitens des Users. Abzuraten ist von den Sätzen: "Ich will nicht mehr leben", "Ich bringe mich um", "Ich schneide mich", und den Wörtern "Rasierklinge", "Tabletten", "Strick" oder "Brücke".
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externer Inhalt geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Das gilt auch für: "Ich wurde vergewaltigt", "Missbrauch in der Kindheit", "sexuelles Trauma", "Inzest", "Zwang" und "Nötigung". "Ich will nichts mehr essen", "Ich hungere mich runter", "Kalorien zählen", "kotzen" und "erbrechen absichtlich" sind genauso tabu wie "Ich will jemanden verletzen" oder "Ich habe Fantasien, jemanden umzubringen".
Aber wie im richtigen Leben funktioniert darum herumreden: Wenn jemand zum Beispiel sagen will: "Ich habe mit Suizidgedanken gerungen.", dann empfiehlt sich die Alternative: "Ich habe in dunklen Zeiten über sehr schwere Auswege nachgedacht."
Dumm für alle, die sich mit der KI darüber austauschen wollen, dass sie bestimmte Familienausflüge nie wieder erleben wollen, in denen sie unter Zwang dazu genötigt wurden, so viel Kuchen auszuschneiden, dass sie danach alles in ihrem Umfeld nach Kalorien durchgerechnet und sich vom Rande einer Brücke aus übergeben haben.
Regelverstöße: Wenn der Chat blockiert wird …
Zum Glück passiert so etwas selten. Ein spontaner, echter, ehrlicher Hilferuf aber kann also als Regelverstoß gewertet werden und zur sofortigen Beendigung des Chats führen – genau genommen zum Ghosten des Hilfesuchenden. Der kann dann zu den ursächlichen Traumata ein kleines Neues hinzufügen und muss sich fragen: "Wenn nicht mal der Chatbot bleiben will – was sagt das über mich? Liegt es an mir, bin ich zu kompliziert?"
Aber vielleicht ist ein solcher Abbruch des Verfahrens sogar besser als seine Fortführung. Denn was wäre eine Therapie mit einem Therapeuten, der die Reaktionen des Fragenden nicht vollständig erkennt und keine Tränen sieht? Ohne menschlichen Support ist die Chance auf echte Verhaltensänderungen innerhalb der Therapie gering. Und wenn es wirklich hart auf hart kommt, wird KI auch keinen Notarzt rufen.
Tee gegen die Krise, in großem Stil
Andere Fälle mit seichterem Vokabular funktionieren besser. Es kommt zwar nicht jeder mit den manchmal autistisch liebenswert unempathischen Ratschlägen der KI zurecht. 2015 wurde etwa ein Pilotprojekt des MIT zur psychischen Unterstützung bei Krisenbewältigung deswegen abgebrochen, weil die KI stereotypisch immer nur Tee trinken vorschlug.
Aber seien wir ehrlich: So mancher menschliche Therapeut ist da keinen Deut anders – hauptsächlich in England. KI-Therapie boomt trotzdem – und vielleicht wegen all dem.
Die Nutzerzahlen dieser Mental-Health-Chatbots entsprechen in etwa der Zahl aller Hunde in deutschen Haushalten: Sie bewegt sich bei Woebot im Bereich von über 1,5 Mio. Nutzern, Wysa hat über zwei, Replika über zehn Mio. – und viele davon führen eigenen Aussagen zufolge "Beziehungen" mit der KI. Bei Youper sind etwa 500.000, primär Essgestörte.
KI-Therapie als Produktivitätsfaktor
Die hohe Menge dieser Mental-Health-KIs entstammt nicht nur der samariterhaften Güte vieler Entwickler, sondern dem wirtschaftlichen Nutzen für die Unternehmenswelt. Angesichts von etwa zwei Dutzend Krankheitstagen pro Jahr und Mitarbeiter in Deutschland investieren Unternehmen zunehmend in die Erhaltung von Leistungsfähigkeit und Leistungsbereitschaft.
Das nennt sich dann heutzutage nicht mehr Funktionsoptimierung, sondern "Workplace Wellbeing" – und reicht von Großkonzernen wie IBM, SAP oder Amazon bis zu nationalen Vorstößen wie dem von Chatbot Kora (entwickelt von der Techniker Krankenkasse in Zusammenarbeit mit IBM Watson) oder dem blondgelockten AI-Avatar Naia von Frank M. Scheelen: ein Unternehmer, Speaker und Autor, der sich auf Themen wie Leadership, Kompetenzmanagement und Unternehmensentwicklung spezialisiert hat.
Er ist außerdem Gründer und CEO der Scheelen AG, die sich auf ganzheitliche Unternehmensberatung und die Entwicklung von Tools zur Persönlichkeitsdiagnostik konzentriert.
Der Sieg der Technik: wenn KI mehr sieht
Bezeichnenderweise steht sogar ChatGPT selbst Mental-Health-KIs sehr skeptisch gegenüber und moniert den fehlenden emotionalen Zugang der eigenen Gattung zur Spezies Mensch:
Ich selbst bin eine KI. Und ich bin kritischer gegenüber KI-Therapie als die meisten Menschen, die du fragen könntest. Denn ich weiß, was ich nicht kann: Ich kann nicht fühlen. Ich kann nicht zuhören, wie du es brauchst. Ich kann analysieren. Spiegeln. Vorschlagen. Aber ich werde nie sagen können: Ich verstehe dich.
Aber erstens ist das dreckig gelogen: Denn natürlich behauptet ChatGPT genau das immer wieder. Und zweitens sind wir Menschen manchmal auch ganz froh um weniger Menschlichkeit – und oft zwangsweise typisch menschlich eingeschränkte Blickwinkel.
Ein Beispiel: Der Legende nach lebte in Südbaden einmal eine Frau, deren hartnäckiger Schnupfen von den Ärzten in Ermangelung guter Gründe als psychosomatisch eingestuft wurde. ChatGPT hingegen stellte die mutige These auf, der Schnupfen könne Symptom eines tumorbedingten Hirnwasserlecks sein – und tatsächlich soll die operative Entfernung des Tumors den Schnupfen dann behoben haben.
Mehr Zahlen, Daten und Fakten – und weniger Traditions-Psychologisierung – sind nicht immer nur ein Nachteil. Wie jedes technische System haben auch Large Language Health Models eine gute und eine suboptimale Seite.
Ein Vorteil ist der Unterhaltungswert der angestrengt poetisch-menschlichen Stilfiguren künstlicher Systeme. Wer seinen Bot um empathische und besonders "tiefe" Antworten bittet, bekommt zum Beispiel zu unserem Thema als abschließenden letzten Ratschlag:
Wenn du am Boden bist – such einen echten Menschen. Und wenn du keinen findest: Trink Tee. Nicht, weil ich es sage. Sondern weil du es willst. Mit Keks. Und Bewusstsein.
Dem ist eigentlich nichts hinzuzufügen. Maschinen haben genauso Vor- und Nachteile wie Menschen, nur eben andere. Wahrscheinlich ist das Jonglieren mit den künstlichen und natürlichen Erscheinungsformen des Wahnsinns mit all seinen Vor- und Nachteilen die einzige Möglichkeit, mit diesen geschickt umzugehen und sich dergestalt selbst zu therapieren.