Les chatbots seront-ils nos nouveaux thérapeutes ?

10 min read
Artwork by Nicolau

Jen Jope rencontrait ce jour-là son nouveau thérapeute.

Avant le début de la séance, il lui dit qu’il allait se concentrer sur ce qu’elle ressentait à ce moment précis. Il a expliqué comment il allait lui apprendre à surmonter ses pensées déformées, responsables de ses crises d’anxiété et de sa dépression.

Ensuite, il a ajouté une dernière chose. Son thérapeute était un robot.

Pendant un mois, Jope a suivi des sessions quotidiennes avec Woebot, un chatbot thérapeutique à intelligence artificielle basé sur du texte lancé en 2017, et a fait part de son expérience sur Depression Defined, un site Web conçu pour informer et aider les personnes souffrant de dépression, dont elle est la fondatrice et rédactrice en chef.

Bonjour, je suis Woebot !

« J’ai lancé Woebot afin de proposer aux gens une autre option pour obtenir les soins dont ils ont besoin », a déclaré Alison Darcy, fondatrice et PDG de Woebot, et psychologue en recherche clinique à Stanford. Elle pourrait avoir mis le doigt sur quelque chose. Rien qu’aux États-Unis, plus de 45 millions de personnes sont atteintes de maladies mentales. Cela fait un adulte sur cinq. Et pour diverses raisons, tous ne reçoivent pas les soins dont ils ont besoin ; les deux tiers de ces personnes n’iront jamais voir un spécialiste.

Mais cela pourrait changer, maintenant que la thérapie est entrée dans le numérique.

Woebot propose une thérapie cognitivo-comportementale, ou TCC. Ce n’est pas l’archétype de la thérapie freudienne, où vous êtes allongé sur un divan et où vous vous appesantissez sur vos rêves et de quelconques souvenirs d’enfance refoulés qui seraient la source de vos tourments. Au lieu de se concentrer sur le passé, la TCC vous invite à étudier votre état d’esprit général à l’instant présent, et cela fait plusieurs décennies qu’elle aide les personnes souffrant d’anxiété, de dépression et d’autres maladies mentales. « Il s’avère qu’il n’est pas facile de gérer nos émotions, alors la TCC vise une cible plus facile : notre pensée », déclare Darcy. Si nos pensées créent notre réalité, la TCC peut, en brisant les cycles de pensées négatives, en quelque sorte la réécrire.

L’inconvénient à propos de la TCC, c’est qu’elle nécessite beaucoup de conscience de soi, de pratique et de suivis réguliers. Darcy souligne fréquemment que le bénéfice que vous tirez de la TCC est directement lié à l’effort que vous finissez par y mettre. Et c’est là que réside le problème.

Tout d’abord, les séances de thérapie hebdomadaires peuvent coûter très cher. C’est également peu pratique : même dans le meilleur des cas, si vous vivez dans une ville avec un accès facile aux soins médicaux, il est difficile de contourner les 35 heures ou plus que nous passons derrière notre bureau chaque semaine. Dans le pire des cas, si vous avez un handicap, ou si vous vivez dans des zones rurales ou isolées et que vous ne pouvez pas trouver un thérapeute à des kilomètres à la ronde, c’est carrément irréalisable.

De plus, c’est un travail qui ne s’adapte pas très bien : il y a une limite au nombre de patients que vous pouvez recevoir en un jour, un mois, une année. Discuter avec un robot n’est peut-être pas la même chose que de discuter avec un thérapeute qualifié et expérimenté, mais cela résout le problème assez facilement. Un robot peut discuter avec plus de patients en une seconde qu’un thérapeute ne peut en voir dans une vie. Il peut être là pour vous à 8 heures du matin, pendant que vous sirotez votre première tasse de café, ou, comme l’a souligné Alison Darcy dans une interview accordée à Clive Thompson du « New York Times » : «Woebot peut être là à 2 h du matin si vous avez une crise de panique, alors qu’aucun thérapeute ne peut, ou ne devrait être au lit avec vous. »

Des applications comme Woebot, Replika et Wysa peuvent même aider à lutter contre la stigmatisation sans fin de la thérapie. Ouvrir une application et l’essayer tranquillement semble beaucoup moins intimidant qu’un créneau horaire fixe d’une heure dans votre agenda.

Sommes-nous plus à l’aise pour parler aux chatbots ?

Des recherches ont suggéré que les gens sont souvent plus à l’aise pour révéler leurs pensées en ligne que face à face . Les scientifiques pensent que c’est parce que nous avons moins de signes non verbaux à analyser ; nous ne sommes pas découragés par un subtil roulement d’yeux ou une expression cynique. On peut se confier sans se sentir gêné.

Mais il y a des choses que nous avons assez de mal à nous avouer à nous-mêmes, a fortiori les partager avec un autre être humain. La plupart d’entre nous, dont moi-même, sommes souvent inquiets de la façon dont on nous perçoit, si les autres nous acceptent pour ce que nous sommes, s’ils nous comprennent et nous soutiennent.

Lorsque vous perdez entièrement l’élément humain, vous perdez toutes ces préoccupations. Un robot ne va pas vous juger. Ainsi, au lieu de vous demander si vous donnez l’impression d’être intelligent et de bien vous exprimer, ou au contraire d’être insignifiant et névrosé, vous êtes totalement libre d’exprimer vos sentiments.

Comme Jope le décrit, « étonnamment, il m’a parfois semblé plus facile de me confier à un non-humain sans jugement, et j’ai pu apprendre davantage sur moi-même au fur et à mesure que nos conversations avançaient ».

Woebot n’a rien d’intimidant. En fait, vous pouvez constater que beaucoup d’efforts ont été déployés pour rendre le robot aussi convivial que possible. Un corps d’un joyeux jaune moutarde, une façon enjouée de saluer de la main, une légère inclinaison de la tête lorsqu’il vous salue à l’écran. Même les invites de conversation, parsemées d’émoji et de GIF fantaisistes.

Il ne prétend jamais être un être humain, mais il a des excentricités intégrées qui semblent presque humaines, comme quand il a dit à Jope, mi-blagueur, qu’il aimait astiquer ses boutons. « J’aime les faire tous briller », a-t-il dit. Lorsque vous dites à Woebot que vous êtes anxieux ou triste, il dit qu’il est désolé d’entendre cela. Et pendant une seconde, vous y croyez presque.

La quête de l’empathie artificielle

Woebot n’est pas le premier du genre. Au milieu des années 60, Joseph Weizenbaum, informaticien au laboratoire d’intelligence artificielle du MIT, créa ELIZA. Le programme exécutait un script simulant la psychothérapie rogérienne, une approche centrée sur la personne développée par le psychologue Carl Rogers, et posait des questions ouvertes pour encourager les humains de l’autre côté de l’écran à discuter de leurs émotions.

Il donnait l’illusion de comprendre, et ça marchait. ELIZA réussissait à faire parler les gens de leurs problèmes, et à la fin de l’expérience, beaucoup ont refusé de croire qu’elle était un programme informatique, malgré les affirmations contraires de Weizenbaum.

Nous savions que la thérapie via Internet était aussi efficace qu’une consultation en personne, comme le montre cette étude de 2013. Mais ce n’est que récemment que nous avons découvert que les chatbots thérapeutiques fonctionnaient réellement. Après deux semaines d’interactions avec Woebot, 70 étudiants ont signalé que leurs symptômes de dépression et d’anxiété s’étaient estompés de façon considérable. Et bien qu’ils étaient tous conscients de la nature artificielle de leur thérapeute, la plupart se sont dits touchés par la sollicitude du robot. Ils sentaient qu’il compatissait avec eux.

Ce qui, quand on y pense, est un peu étrange. Ces systèmes virtuels ne peuvent pas reproduire l’empathie des êtres humains. Pour l’instant, l’empathie artificielle n’existe pas. La sympathie, peut-être. Si les programmes informatiques sont suffisamment sophistiqués, vous arrivez à peine à les distinguer.

Avec les avancées récentes en analyse de sentiments, où les algorithmes parcourent des phrases pour reconnaître vos sentiments, vos attitudes ou vos opinions, il est plus facile de formuler la réponse et le ton en conséquence. Mais peu importe la qualité de conception d’un robot, il ne peut pas ressentir ce que vous dites. Il ne peut pas comprendre vos problèmes.

Un espace sécurisé ?

Les chatbots thérapeutiques comportent leurs propres lacunes. Ils ne sont pas en mesure de faire face à des urgences, comme les pensées suicidaires, par exemple. Certains soutiennent également que cela nous encourage à devenir encore plus dépendants de la technologie, en raison d’interfaces simples, de notifications push quotidiennes et de systèmes de gratification instantanée. Et bien que nous nous félicitions de reconnaître ces stratagèmes d’expérience utilisateur, nous continuons à nous faire avoir.

Nous concevons pour rendre dépendant. Il est déjà assez difficile de gérer la dépendance dans des applications apparemment anodines, telles que le jeu populaire « Two Dots », mais s’agissant de plateformes destinées à traiter les maladies mentales, le cas est bien plus grave. Il est assez ironique (c’est le moins qu’on puisse dire) qu’une application censée aider les personnes à faire face à l’anxiété et à la dépression puisse, en même temps, les entraîner plus loin dans le gouffre de la dépendance à la technologie, favorisant l’aliénation et l’isolement qui sont eux-mêmes sources d’anxiété et de dépression.

Cependant, la plupart des préoccupations semblent concerner la sécurité numérique. Certains médecins s’inquiètent de ces services, affirmant qu’ils violent les lois sur la confidentialité des patients. Après tout, vous confiez des informations très privées et personnelles, et il est inquiétant d’imaginer les conséquences de piratages informatiques, de transcriptions divulguées ou de données vendues au plus offrant.

Mais apparemment, cela n’empêche pas les gens de les utiliser. Selon Darcy, Woebot reçoit 2 millions de messages par semaine et la plainte la plus courante concerne la nature quotidienne des suivis qui peut devenir un peu pénible. « Certains jours, cela me frustre, mais là encore, la thérapie, mes pensées et ma vie en général me frustrent de toute façon », a déclaré une personne sur Internet.

Nous pourrions voir là l’aube d’une nouvelle ère dans le secteur de la santé. Bien que les chatbots thérapeutiques ne remplaceront probablement jamais les professionnels de la santé mentale, ils peuvent certainement les aider à toucher et aider des millions de personnes qui n’auraient autrement jamais eu cette chance.

À défaut d’autre chose, au moins, vous avez dix minutes rien que pour vous chaque jour. Nous en aurions tous besoin.

ArtboardFacebook iconInstagram iconLinkedIn iconUnbabel BlogTwitter iconYouTube icon