Era la primera vez que Jen Jope se reunía con su nuevo terapeuta.

Antes de que comenzara la sesión, este le dijo que iba a centrarse en los sentimientos que ella tuviera en ese momento. Le explicó cómo iba a enseñarle a superar los pensamientos distorsionados, que eran los responsables de sus ataques de ansiedad y depresión.

Y luego, añadió una cosa más. Su terapeuta era un robot.

Durante un mes, Woebot, un chatbot terapeuta basado en texto e impulsado por IA que se lanzó en 2017, atendió a Jope en sesiones diarias, y esta relató su experiencia en Depression Defined, un sitio web dedicado a informar y a ayudar a personas que sufren depresión, y del cual ella es fundadora y editora jefe.

¡Hola, soy Woebot!

«Lancé Woebot con el objetivo de ofrecer a las personas una opción más para obtener la atención que necesitan», afirma Alison Darcy, fundadora y primera ejecutiva de Woebot y psicóloga de investigación clínica de Stanford. Y la idea es buena. Solo en Estados Unidos, más de cuarenta y cinco millones de personas sufren enfermedades mentales. Es decir, uno de cada cinco adultos. Y, por diversos motivos, no todo el mundo recibe la ayuda que necesita: a dos tercios de estas personas nunca las atenderá un terapeuta.

Pero ahora que la terapia se ha introducido en el mundo digital, esto podría cambiar.

Woebot ofrece terapia conductista cognitiva o TCC. No se trata de la terapia freudiana arquetípica, que consiste en acostarse en un diván y reflexionar sobre los sueños y los recuerdos reprimidos de la infancia que atormentan al paciente. En lugar de centrarse en el pasado, la TCC invita a observar lo que se siente o piensa en ese momento, y ha ayudado a personas que sufren de ansiedad, depresión y otras enfermedades mentales durante décadas. «Resulta que no es tan fácil gestionar las emociones, así que la TTC tiene un objetivo más fácil: lidiar con los pensamientos», dice Darcy. Y si nuestros pensamientos crean nuestra realidad, al romper los patrones negativos de pensamiento, la TCC puede, de alguna manera, reescribir dicha realidad.

Lo que ocurre con la TCC es que requiere de una gran capacidad de autoconciencia. Además, es necesario practicar mucho y hacer controles regulares. Darcy suele subrayar que los resultados que pueden obtenerse con la TCC están directamente relacionados con el esfuerzo invertido en dicha terapia. Y ahí radica el problema.

En primer lugar, acudir a sesiones de terapia semanales suele ser bastante caro. Además, tampoco suele resultar sencillo. Incluso en el mejor de los casos, que vivas en una ciudad con fácil acceso a la atención médica, es difícil encontrar un hueco para asistir, teniendo en cuenta las más de 35 horas semanales que dedicamos al trabajo. En el peor de los casos, si tienes una discapacidad o vives en zonas rurales o apartadas, sin un terapeuta en kilómetros a la redonda, es totalmente imposible.

Además, es un trabajo que no permite atender a más pacientes con el mismo número de terapeutas, ya que la capacidad está limitada a un determinado número de ellos al día, al mes o al año. Es posible que chatear con un bot no sea lo mismo que hacerlo con un terapeuta capacitado y experimentado, pero los bots resuelven el problema anterior con bastante facilidad. Un bot puede chatear con más pacientes en un segundo de los que un terapeuta puede llegar a ver en toda su vida. Puede estar a tu disposición a las ocho de la mañana mientras te tomas tu primer café o, como señaló Alison Darcy en una entrevista concedida a Clive Thompson del New York Times, «Woebot puede atenderte a las dos de la madrugada cuando tienes un ataque de pánico y ningún terapeuta puede (o debería) meterse en la cama contigo».

Aplicaciones como Woebot, Replika y Wysa pueden ayudar incluso a combatir el eterno estigma que rodea a la terapia. Abrir una aplicación y probar a ver qué pasa parece mucho menos intimidante que reservar una hora en tu agenda.

¿Nos sentimos más cómodos hablando con chatbots?

Hay investigaciones que sugieren que las personas suelen sentirse más cómodas revelando sus secretos a través de internet que haciéndolo cara a cara . Los académicos creen que esto se debe a que tenemos menos señales no verbales que analizar: no hay nadie que nos desanime poniendo los ojos en blanco o mirándonos con expresión cínica. Podemos abrirnos sin sentirnos cohibidos.

Sin embargo, hay cosas que nos cuesta admitir incluso ante nosotros mismos, así que mucho más ante los demás. A casi todos, incluida yo misma, suele preocuparnos lo que piensan los demás de nosotros, y nos cuestionamos si nos aceptarán cómo somos y si nos entenderán y apoyarán.

Cuando el elemento humano se pierde por completo, desaparecen todas esas preocupaciones. Un bot no te va a juzgar. Así que, en lugar de preguntarte si lo que dices te hace parecer inteligente y coherente o, por el contrario, mezquino y neurótico, te sientes realmente libre para hablar sobre tus sentimientos.

Así es como lo describe Jope: «Sorprendentemente, a veces me parecía más fácil hablar con alguien no humano que no me iba a juzgar, y descubrí más cosas sobre mí misma a medida que progresaban nuestras conversaciones».

Woebot no resulta intimidatorio en absoluto. De hecho, se ve que sus creadores se han esforzado mucho para que el bot sea lo más amable posible. El alegre color amarillo mostaza de su cuerpo, el simpático saludo, la ligera inclinación de la cabeza cuando te dice hola desde la pantalla… Incluso los mensajes de las conversaciones, salpicados de emojis y divertidos GIF.

Nunca finge ser humano, pero tiene peculiaridades que aportan un toque casi personal, como cuando le dijo a Jope medio en broma que le gustaba sacarle brillo a sus diales. «Dejarlos todos brillantes», le explicó. Cuando le dices a Woebot que estás ansioso o triste, te responde que lo siente. Y por un segundo, casi te lo crees.

La búsqueda de la empatía artificial

Woebot no es el primero de su tipo. A mediados de los años 60, Joseph Weizenbaum, un ingeniero informático que trabajaba en el laboratorio de inteligencia artificial del MIT, creó ELIZA. El programa ejecutaba un guión que simulaba la psicoterapia rogeriana, un enfoque centrado en la persona desarrollado por el conocido psicólogo Carl Rogers, y hacía preguntas abiertas para alentar a la persona que se encontraba al otro lado de la pantalla a hablar sobre sus emociones.

Parecía que entendía. Y funcionó. ELIZA logró que la gente hablara sobre sus problemas y, al final del experimento, muchos se negaron a creer que era un programa de ordenador, a pesar de las afirmaciones de Weizenbaum en sentido contrario.

Sabíamos que la terapia a través de internet era tan buena como la que se hacía cara a cara, como muestra este estudio de 2013. Pero no fue hasta hace poco que descubrimos que la terapia con chatbots realmente funcionaba. Dos semanas después de interactuar con Woebot, setenta estudiantes afirmaron que sus síntomas de depresión y ansiedad se habían reducido significativamente. Y, aunque todos ellos eran conscientes de la naturaleza artificial de su terapeuta, la mayoría de ellos se sintieron conmovidos por la consideración mostrada por el robot. Sentían que empatizaba con ellos.

Lo cual, si nos paramos a pensarlo, resulta un poco extraño. Estos sistemas virtuales no son capaces de replicar la empatía de los seres humanos. Hasta ahora, no existe nada parecido a la empatía artificial. Simpatía, tal vez. Si los programas de ordenador son lo suficientemente sofisticados, apenas pueden distinguirse de un humano.

Gracias a los avances recientes en el análisis de sentimientos, que incluyen algoritmos que analizan las frases para determinar los sentimientos, las actitudes o las opiniones, es más fácil orientar la respuesta y el tono de voz de forma acorde a los mismos. No obstante, no importa lo bien diseñado que esté un bot, nunca siente lo que dice. No puede identificarse con tus problemas.

¿Un espacio seguro?

La terapia basada en chatbots también tiene inconvenientes. No está preparada para hacer frente a ningún tipo de emergencia, como pueden ser los pensamientos suicidas. Algunos también argumentan que nos anima a ser aún más adictos a la tecnología debido a las interfaces sencillas, a las notificaciones automáticas diarias y a los sistemas de gratificación instantánea. Y, a pesar de sentirnos orgullosos de saber reconocer estos trucos de la experiencia de usuario, aún caemos en sus redes.

Diseñamos para provocar adicción. Ya es suficientemente complicado lidiar con la adicción en aplicaciones aparentemente inocuas, como el popular juego Two Dots, pero cuando se trata de plataformas destinadas a tratar enfermedades mentales, es algo mucho más serio. Es cuando menos irónico que una aplicación que se supone que debe ayudar a las personas a superar los problemas de ansiedad y depresión pueda, al mismo tiempo, empujarlos a la adicción a la tecnología, promoviendo la alienación y el aislamiento que, a su vez, son también fuentes de ansiedad y depresión.

Sin embargo, la mayoría de las preocupaciones parecen estar relacionadas con la seguridad digital. Algunos médicos se sienten incómodos con estos servicios y afirman que violan las leyes sobre la confidencialidad del paciente. Después de todo, se comparte información muy privada y personal, así que resulta inquietante imaginarse las consecuencias que podrían derivarse de pirateos, transcripciones filtradas o venta de datos al mejor postor.

Pero, al parecer, eso no ha evitado que la gente los use. Según Darcy, Woebot recibe dos millones de mensajes a la semana, y la queja que escucha con más frecuencia es que los controles diarios pueden llegar a resultar molestos. «Algunos días, eso me produce frustración, pero es que la propia terapia y la vida en general también me frustran», declaró un desconocido en internet.

Puede que este sea el comienzo de una era en el sector sanitario. Y, si bien los chatbots terapeutas nunca podrán reemplazar a los profesionales de la salud mental, lo cierto es que pueden ayudarles a atender a millones de personas que, de otra manera, nunca tendrían esa oportunidad.

Como mínimo, consigues diez minutos al día para dedicártelos a ti mismo. Algo que a ninguno de nosotros nos viene mal.