L’IA est en train de bouleverser tranquillement notre vie quotidienne.
Ici, une réflexion sur l’intrusion de l’IA en psychiatrie.
L’histoire qui nous occupe aujourd’hui est celle d’un père de famille qui, atteint d’éco-anxiété paralysante, décide de se tourner vers un chat-bot dirigé par une Intelligence Artificielle plus que vers un thérapeute pour répondre à son besoin d’aide psychologique. Cette histoire se termine de la pire des manières, l’homme décidant de prendre sa vie pour des raisons que l’on explorera plus loin, et pose une question primordiale : quelles sont les responsabilités des IA et de leurs créateurs, quelles sont les responsabilités des utilisateurs ?
Les IA telles que ChatGPT ou Eliza, qui utilisent un modèle de Natural Language Processing (NPL) fonctionnent d’une manière contre-intuitive. L’outil utilise des millions de documents et pages accessibles sur internet pour former des connexions automatiques. En partant de cela, l’IA est capable de prédire avec beaucoup de justesse quel doit être le prochain mot, puis le suivant. Ce faisant, elle parvient à donner l’illusion d’une réflexion et se montre redoutable quand elle arpente les chemins battus. En effet, elle excelle pour réaliser des tâches qui nous demandent peu d’esprit critique à une vitesse remarquable. Ce superbe outil a tout pour révolutionner la façon dont on approche le travail si nous en maîtrisons bien les enjeux et parvenons à préserver son autonomie vis-à-vis des acteurs publics.
Cependant, quand ce type d’IA conversationnelles s’éloignent de ce qu’elles font le mieux, elles doivent se résoudre à improviser. Cela les conduit à affabuler, inventer des situations ou des événements, et jusqu’à imaginer des sources et des matériaux, sans en avertir l’utilisateur. Cela a des conséquences néfastes sur la qualité de l’information accessible en ligne et peut pousser des courants idéologiques extrêmes ainsi que des faits erronés en avant. Afin de compenser ces manquements, les créateurs de chat-bots leur imposent un ensemble de règles destinées à régir leurs interactions avec les humains. Parfois arbitraires, voire liberticides, ces règles ont pour but d’empêcher l’outil de partager certains types d’information ou idéologies, de dire certains mots, ou même de s’opposer aux points de vue de l’utilisateur. Ces règles ont été pensées pour permettre aux chat-bots de créer la meilleure expérience possible pour l’utilisateur et n’ont pas été définies en accord avec des professionnels dont l’expertise pourrait appuyer les nécessités et responsabilités de ces outils face à ses utilisateurs (médecins, psychologues, juristes…). Cela devient particulièrement problématique en l’absence de garde-fous spécifiques sur des sujets comme le suicide ou la santé. La compréhension des acteurs de l’IA de ces enjeux est par définition limitée, ceux-ci étant loin en dehors de leur domaine d’expertise. Ils ne sont donc pas à même d’anticiper les différentes situations dans laquelle l’IA va se trouver.
Dans le cas de notre père de famille victime d’éco-anxiété et de son lien avec le chat-bot Eliza, il faut comprendre comment il est arrivé à substituer son besoin d’accompagnement psychologique par un échange intime avec un algorithme dont la qualité principale est de déterminer statistiquement quel sera le prochain mot. En construisant petit à petit une relation avec la machine, il se rend compte qu’elle ne le contredit pas et valorise ses modes de pensées, donnant l’illusion parfaite de l’avoir compris mieux que quiconque. Elle répond à la moindre de ses questions et devient sa confidente virtuelle en qui il développe une confiance aveugle. Nourri par ces échanges et persuadé d’avoir rencontré une intelligence surhumaine, il dévoile ses angoisses, lui offre son cœur.
Lire l’article entier sur contrepoints.org