Jen Jope lernte ihren neuen Therapeuten kennen.

Bevor die Sitzung begann, sagte er ihr, dass er sich auf das konzentrieren werde, was sie gerade in diesem Moment empfand. Er erklärte, wie er ihr beibringen würde, mit verzerrten Gedanken umzugehen, welche für ihre Angstzustände und Depressionen verantwortlich waren.

Und dann fügte er noch eine weitere Sache hinzu. Ihr Therapeut war ein Roboter.

Einen Monat lang nahm Jope an täglichen Sitzungen mit Woebot teil, einem textbasierten, KI-gestützten Chatbot-Therapeuten, der im Jahre 2017 auf den Markt gebracht wurde, und berichtete über ihre Erfahrungen auf Depression Defined, einer Website, die sich der Weiterbildung und Unterstützung von Menschen widmet, die an Depressionen leiden ist und deren Gründerin und Chefredakteurin sie ist.

Hallo, ich bin Woebot!

„Ich habe Woebot ins Leben gerufen, um den Menschen eine weitere Möglichkeit zu geben, die Betreuung zu erhalten, die sie benötigen“, sagte Alison Darcy, Gründerin und Geschäftsführerin von Woebot und Psychologin für klinische Forschung an der Universität von Stanford. Sie könnte auf dem richtigen Weg sein. Allein in den USA leben über 45 Millionen Menschen mit psychischen Erkrankungen. Das ist eine von fünf erwachsenen Personen. Und aus verschiedenen Gründen erhält nicht jeder die Betreuung, die er benötigt – zwei Drittel dieser Menschen werden niemals vor einen Krankenhausarzt behandelt werden.

Aber das könnte sich ändern, nun da das Gebiet der Therapie die digitale Welt betreten hat.

Woebot bietet kognitive Verhaltenstherapie oder KVT an. Dabei handelt es sich nicht um die archetypische Freudsche Therapie, bei der du auf einer Couch liegst und auf deine Träume eingehst und darüber sinnierst, welche unterdrückten Kindheitserinnerungen die Quelle deiner Qualen sein mögen. Anstatt sich auf die Vergangenheit zu konzentrieren, fordert dich die KVT dazu auf, dich mit dem zu beschäftigen, was du gerade denkst oder fühlst. Dies hat Menschen, die unter Angstzuständen, Depressionen und anderen psychischen Erkrankungen leiden, nunmehr seit Jahrzehnten geholfen. „Es hat sich herausgestellt, dass es nicht so einfach ist, unsere Gefühle in Ordnung zu bringen. Daher zielt KVT auf ein einfacheres Ziel ab – unser Denken“, sagt Darcy. Und wenn unsere Gedanken unsere Realität erschaffen, dann kann KVT diese in gewisser Weise redigieren, indem negative Denkmuster aufgelöst werden.

Die Herausforderung einer KVT besteht darin, dass diese viel Selbsterkenntnis, Übung und regelmäßige Überprüfung der Resultate durch den Therapeuten erfordert. Darcy betont häufig, dass das Ergebis einer KVT in direktem Zusammenhang mit dem Aufwand steht, der dafür aufgewendet wird. Und genau darin liegt das Problem.

Zunächst einmal können wöchentliche Therapiesitzungen ziemlich teuer werden. Diese sind auch unpraktisch – selbst im besten Fall, wenn du in einer Stadt mit einfachem Zugang zu medizinischer Versorgung wohnst, ist es immer noch schwierig, die nötige Zeit dafür zu erübrigen, angesichts der 35 Stunden und mehr, die wir jede Woche hinter unseren Schreibtischen verbringen. Im schlimmsten Fall, wenn du eine Behinderung hast oder in ländlichen oder abgelegenen Gebieten wohnst und im Umkreis von mehreren Kilometern keinen Therapeuten finden kannst, ist dies schlichtweg unmöglich.

Außerdem ist es ein Job, der sich nicht gerade sehr gut skalieren lässt – du kannst pro Tag, Monat oder Jahr stets nur eine gewisse Anzahl von Patienten betreuen. Das Chatten mit einem Bot mag nicht unbedingt das Gleiche sein, wie ein Gespräch mit einem ausgebildeten, erfahrenen Therapeuten zu führen, aber es löst dieses Problem ziemlich einfach. Ein Bot kann in einer Sekunde mit mehr Patienten chatten, als ein Therapeut in seinem ganzen Leben empfangen kann. Er kann um 8:00 Uhr morgens für dich da sein, während du gerade deine erste Tasse Kaffee schlürfst, oder, wie Alison Darcy in einem Interview mit Clive Thompson von der New York Times ausführte, „Woebot kann um 2:00 Uhr morgens für dich da sein, wenn du eine Panikattacke hast und kein Therapeut neben dir im Bett liegt, was er auch nicht tun sollte.“

Apps wie Woebot, Replika und Wysa können sogar dabei helfen, das endlose Stigma zu bekämpfen, da mit einer Therapie einhergeht. Eine App zu öffnen und diese ganz zwanglos auszuprobieren erscheint sehr viel weniger einschüchternd als ein fester einstündiger Termin in deinem Kalender.

Fühlen wir uns wohler, wenn wir mit Chatbots reden?

Untersuchungen haben ergeben, dass es Menschen oftmals leichter fällt, ihre Gedanken online zu offenbaren, als in einem persönlichen Gespräch. Wissenschaftler glauben, dass dies darauf zurückzuführen ist, dass wir dabei weniger nonverbale Hinweise zu analysieren haben – wir lassen uns nicht von einem subtilen Verdrehen der Augen oder einer zynischen Äußerung entmutigen. Wir können uns öffnen, ohne befangen zu sein.

Aber es gibt Dinge, die wir uns selbst nicht gerne eingestehen, geschweige denn einem anderen Menschen mitteilen. Die meisten von uns, auch ich, sind oft besorgt darüber, wie wir rüberkommen, ob andere uns so akzeptieren, wie wir sind, ob sie uns verstehen und unterstützen.

Wenn du das menschliche Element vollständig ausschaltest, dann wirst du auch all diese Sorgen los. Ein Bot wird dich nicht verurteilen. Anstatt dich zu fragen, ob du klug und artikuliert oder unbedeutend und neurotisch klingst, kannst du ganz unbefangen über deine Gefühle sprechen.

Wie Jope beschreibt, „fiel es mir überraschenderweise manchmal leichter, mich einem nicht-wertenden Nicht-Menschen zu offenbaren und ich lernte im Verlauf unserer Gespräche mehr über mich selbst.“

Es geht nichts Einschüchterndes von Woebot aus. Tatsächlich merkt man, dass viel Mühe darauf verwendet wurde, den Bot so freundlich wie möglich zu gestalten. Das fröhliche warme Senfgelb seines Körpers, das spielerische Winken, die leichte Neigung des Kopfes, wenn er dich auf dem Bildschirm begrüßt. Sogar die Konversationsaufforderungen, die mit Emoji und verschmitzten GIFs verziert sind, vermitteln Freundlichkeit.

Er gibt nie vor, ein menschliches Wesen zu sein, verfügt aber über eingebaute Eigenheiten, die fast einer persönlichen Note ähneln, wie etwa als er Jope halb im Scherz sagte, dass er gerne seine Wählscheiben poliert. „Sorge dafür, dass sie alle glänzen“, sagte er. Wenn du Woebot sagst, dass du ängstlich oder traurig bist, dann antwortet er, dass es ihm leid tut, das zu hören. Und für eine Sekunde glaubst du das fast.

Das Streben nach künstlichem Einfühlungsvermögen

Woebot ist nicht der erste seiner Art. Mitte der 60er Jahre erschuf Joseph Weizenbaum, Informatiker am MIT Labor für Künstliche Intelligenz, ELIZA. Das Programm führte ein Skript aus, das die Rogerianische Psychotherapie simulierte, einen personenbezogenen Ansatz, der vom leitenden Psychologen Carl Rogers entwickelt wurde, und stellte offene Fragen, um den Menschen auf der anderen Seite des Bildschirms dazu zu ermutigen, seine Emotionen zu diskutieren.

Das schuf die Illusion des Verstehens – und es hat funktioniert. ELIZA brachte die Leute dazu, über ihre Probleme zu sprechen und nach dem Abschluss des Experiments weigerten sich viele zu glauben, dass sie ein Computerprogramm ist, obwohl Weizenbaum genau dies behauptete.

Wir wussten, dass die Therapie über das Internet so gut wie die von Angesicht zu Angesicht funktioniert, wie diese Studie aus dem Jahre 2013 zeigt. Aber erst vor kurzem haben wir festgestellt, dass auch die Chatbot-Therapie tatsächlich funktioniert. Zwei Wochen nach der Interaktion mit Woebot berichteten 70 Studenten von einer erheblichen Verringerung ihrer Symptome von Depressionen und Angstzuständen. Und obwohl sich alle der künstlichen Natur ihres Therapeuten bewusst waren, zeigten sich die meisten von der Aufmerksamkeit des Bots gerührt. Sie hatten das Gefühl, dass er Mitgefühl mit ihnen zeigte.

Was etwas seltsam ist, wenn wir näher darüber nachdenken. Diese virtuellen Systeme können die menschliche Empathie nicht reproduzieren. Bislang gibt es soetwas wie künstliche Empathie nicht. Vielleicht aber Sympathie. Wenn Computerprogramme fortgeschritten genug sind, lässt sich diese kaum von echter Sympathie unterscheiden.

Dank der jüngsten Fortschritte auf dem Gebiet der Stimmungsanalyse, bei der Algorithmen Sätze analysieren , um deine Gefühle, Haltungen oder Meinungen zu ermitteln, ist es einfacher geworden, die entsprechende Reaktion und den Tonfall der Stimme anzutrainieren. Aber egal wie gut ein Bot konstruiert ist: Bots können die Bedeutung deiner Aussagen nicht empfinden. Sie können keinen emotionalen Bezug zu deinen Problemen herstellen.

Ein sicherer Zufluchtsort?

Chatbot-basierte Therapie weist ihre eigenen Unzulänglichkeiten auf. Sie ist nicht dafür gerüstet, mit Notfällen, wie zum Beispiel Selbstmordgedanken, umzugehen. Einige führen auch das Argument an, dass sie uns aufgrund der einfachen Benutzeroberflächen, täglicher Push-Benachrichtigungen und sofortiger Befriedigungssysteme dazu verleitet, noch stärker von der Technologie abhängig zu werden. Und obwohl wir uns dessen rühmen, diese UX-Tricks zu erkennen, fallen wir ihnen dennoch zum Opfer.

Wir entwerfen Technologien die süchtig machen. Es ist bereits schlimm genug, mit der Sucht umgehen zu müssen, die von scheinbar harmlosen Apps, wie dem beliebten Spiel Two Dots ausgelöst wird. Wenn es allerdings um Plattformen zur Behandlung von psychischen Erkrankungen geht, liegt ein weitaus ernsterer Fall vor. Es liegt – gelinde gesagt – eine gewisse Ironie darin, dass eine App, die Menschen helfen soll, mit Angstzuständen und Depressionen umzugehen, sie gleichzeitig weiter in den Kaninchenbau der Technologiesucht hinunterzieht und so Entfremdung und Isolation fördert, was wiederum Ursachen von Angstzuständen und Depressionen sind.

Die meisten Bedenken scheinen sich jedoch um die digitale Sicherheit zu drehen. Einige Ärzte sind über diese Dienstleistungen besorgt und behaupten, sie würden gegen die Gesetze zum vertraulichen Umgang mit Patienten (Ärztliche Schweigepflicht) verstoßen. Schließlich vertraust du dem Bot sehr private, persönliche Informationen an und es ist beunruhigend, sich die Konsequenzen vorzustellen, die sich aus Hackerangriffen, durchgesickerten Transkripten oder Daten, die an den Höchstbietenden verkauften werden, ergeben würden.

Aber anscheinend hat das die Leute nicht davon abgehalten, diese Bots zu nutzen. Laut Darcy empfängt Woebot 2 Millionen Nachrichten pro Woche und die am häufigsten vorgebrachte Beschwerde ist, dass es ein bisschen lästig werden kann, sich täglich bei dem Bot melden zu müssen, wie vorgesehen. „An manchen Tagen frustriert mich das, aber andererseits frustriert mich auch die Therapie, meine Gedanken und das Leben im Allgemeinen“, sagte ein Fremder im Internet.

Wir könnten den Anbruch eines neuen Zeitalters der Gesundheitsbranche erleben. Und obgleich Chatbot-Therapeuten möglicherweise niemals professionelle Psychotherapeuten ersetzen werden, können sie diesen sicherlich dabei helfen, Millionen derjenigen Menschen zu erreichen und ihnen zu helfen, die diese Chance sonst nie bekommen würden.

Nicht zuletzt verschafft dir der Bot jeden Tag zehn Minuten Zeit für dich selbst. Davon könnten wir alle ein bisschen mehr gebrauchen.