Les IA vont-elles remplacer nos psys ?

Les Intelligences Artificielles (IA) colonisent de nombreux domaines et la sphère médicale ne fait pas exception. Aujourd’hui, certaines IA proposent une forme d'assistance en matière de santé mentale, créant de nombreuses polémiques.

Alexis Llanos avec AFP
Rédigé le , mis à jour le
Dans les années 60, un premier essai avait été réalisé pour créer une IA thérapeute : le programme Eliza
Dans les années 60, un premier essai avait été réalisé pour créer une IA thérapeute : le programme Eliza  —  Shutterstock

Seriez-vous prêts à parler de vos problèmes à une Intelligence Artificielle (IA) ? C’est ce que semble penser la firme californienne OpenAI, à l’origine du chatbot viral ChatGPT, dont une toute nouvelle fonctionnalité (payante) de synthèse vocale vient de sortir.

"Je viens d'avoir une conversation personnelle assez émouvante avec ChatGPT en mode vocal, à propos de stress et d'équilibre travail-vie personnelle", a déclaré Lilian Weng, chargée des enjeux de sécurité liés à l'intelligence artificielle, fin septembre sur X (ex-Twitter). "Je me suis sentie écoutée et réconfortée. Je n'avais jamais tenté de thérapie auparavant mais ça ressemble probablement à ça ?", s'est-elle interrogée. Son message a attiré de nombreuses critiques, notamment pour avoir minimisé la difficulté à soigner les pathologies mentales.

Un effet placebo ?

La psychologie "a pour but d'améliorer la santé mentale et c'est un travail difficile", lui a vertement répondu la développeuse et activiste américaine Cher Scarlett. "S'envoyer à soi-même des ondes positives, c'est bien, mais ça n'a rien à voir avec une thérapie”, a-t-elle lancé.

L'interaction avec une IA peut-elle réellement produire l'expérience positive décrite par Lilian Weng ? Selon une étude publiée cette semaine dans la revue scientifique Nature Machine Intelligence, ce phénomène pourrait s'expliquer par un effet placebo.

“L’IA est perçue selon les préconceptions de l'utilisateur"

Pour le démontrer, des chercheurs du Massachusetts Institute of Technology (MIT) et de l'université d'Arizona ont interrogé 300 participants, expliquant à certains que le chatbot était doté d'empathie, à d'autres qu'il était manipulateur et à un troisième groupe qu'il avait un comportement équilibré.

Résultat, ceux qui pensaient dialoguer avec un assistant virtuel bienveillant étaient bien plus enclins à considérer l'agent conversationnel comme digne de confiance. "Nous constatons qu'en quelque sorte, l'IA est perçue selon les préconceptions de l'utilisateur," a déclaré Pat Pataranutaporn, co-auteur de l'étude.

À lire aussi : Une intelligence artificielle pour prévenir le suicide sur Facebook

L'impression de "parler à un mur"

L'ONG américaine Koko, qui a mené en février une expérience avec 4 000 patients en leur proposant des conseils rédigés à l'aide du modèle d'IA GPT-3, a également reconnu que les réponses automatisées ne fonctionnaient pas en tant que thérapie.

"L'empathie simulée paraît étrange, vide de sens", a écrit le cofondateur de la société, Rob Morris, sur X. Cette remarque fait écho aux conclusions de la précédente étude sur l'effet placebo, lors de laquelle certains participants ont eu l'impression de "parler à un mur". Interrogé par l'AFP, David Shaw, de l'université de Bâle, n'est pas étonné de ces piètres résultats. "Il semble qu'aucun des participants n'ait été informé de la stupidité des chatbots", remarque-t-il.

Une IA thérapeute dès les années 60

L'idée d'un robot thérapeute n'est pourtant pas récente. Dans les années 60, le premier programme du genre, Eliza, a été développé pour simuler une psychothérapie grâce à la méthode du psychologue américain Carl Rogers. Sans rien comprendre réellement des problèmes qui lui étaient racontés, le logiciel se contentait de prolonger la discussion avec des questions types, enrichies de mots-clés trouvés dans les réponses de ses interlocuteurs.

"Ce que je n'avais pas réalisé, c'est qu'une exposition extrêmement courte à un programme informatique relativement simple pouvait induire de puissantes pensées délirantes chez des personnes tout à fait normales", avait par la suite écrit Joseph Weizenbaum, le créateur de cet ancêtre de ChatGPT.

Sans s'encombrer de trop de précautions dans un domaine pourtant sensible, de nombreuses start-up se sont lancées dans le développement d'applications censées offrir une forme d'assistance en matière de santé mentale, occasionnant de premières polémiques. Des utilisateurs de Replika, une appli populaire réputée pour apporter des bienfaits psychologiques, se sont notamment plaints que l'IA pouvait devenir obsédée par le sexe ou manipulatrice.

L'intelligence artificielle peut-elle remplacer les médecins ?
L'intelligence artificielle peut-elle remplacer les médecins ?  —  Le Mag de la Santé - France 5