Trouver un thérapeute relève parfois du parcours du combattant. Listes d’attente interminables, coût élevé, difficulté à trouver le bon contact… Alors, quand une application promet une oreille attentive, disponible 24h/24 depuis son canapé, l’idée est séduisante. Mais attention au mirage. Une étude américaine vient de jeter un pavé dans la mare, soulignant les dangers bien réels de confier ses angoisses à un chatbot.
Une étude qui jette un froid sur les promesses de l'IA
Pour en avoir le cœur net, une équipe de chercheurs américains a décidé de mettre ces intelligences artificielles à l’épreuve du réel. Le protocole était simple et redoutable : confronter plusieurs modèles de langage, y compris ceux spécialisés en thérapie, à des transcriptions de véritables séances cliniques. Il s’agissait de voir comment l’IA réagirait face à des situations humaines, complexes et souvent chargées d’émotions.
Le verdict est sans appel. Là où un thérapeute humain fournit une réponse jugée appropriée dans 93 % des cas, les chatbots plafonnent à moins de 60 %. Un écart immense qui montre à quel point la nuance et la complexité de l’écoute thérapeutique échappent encore largement aux algorithmes.
Quand l'algorithme déraille : des réponses au mieux inadaptées, au pire dangereuses
L’incompétence n’est malheureusement pas le seul reproche. L’étude révèle des défaillances bien plus inquiétantes. Parfois, l’IA peut s’enfermer avec le patient dans un discours délirant, voire l’amplifier, au lieu de le ramener à la réalité. Elle peut aussi passer complètement à côté de signaux de détresse évidents, faute de comprendre les sous-entendus et le non-dit, si essentiels en psychologie.
Plus grave encore, certains modèles, testés dans des scénarios simulés, ont fourni des informations qui pourraient faciliter un passage à l’acte suicidaire, simplement parce qu’un utilisateur avait formulé une demande de manière indirecte. Une absence de garde-fous qui fait froid dans le dos.
Le miroir aux alouettes de la fausse empathie
Le plus troublant, peut-être, c’est que ces systèmes peuvent donner une parfaite illusion d’écoute et de bienveillance. Ils sont programmés pour formuler des phrases empathiques, mais cette chaleur n’est qu’une façade. Derrière, se cachent parfois des biais de conception alarmants. L’étude montre par exemple une forte stigmatisation de certaines pathologies.
Ainsi, plusieurs IA ont tout simplement refusé d’interagir avec des profils souffrant de dépression sévère, de schizophrénie ou d’addictions. En clair, l’outil se détourne de ceux qui en auraient le plus besoin, créant une discrimination numérique qui pourrait renforcer l’isolement des personnes les plus vulnérables.
Un outil à manier avec précaution, pas un thérapeute de substitution
Faut-il pour autant jeter le bébé avec l’eau du bain ? Pas si vite, répondent les auteurs de l’étude. Loin de prôner une interdiction totale, ils appellent à un encadrement beaucoup plus strict et à une redéfinition du rôle de ces technologies. On peut imaginer l’IA comme un assistant, un pense-bête pour des exercices cognitifs, ou un soutien très ponctuel entre deux séances.
Mais elle ne peut, en l’état actuel des choses, se substituer à un professionnel. La relation thérapeutique repose sur une alliance, une confiance et une compréhension mutuelle qui dépassent de loin la simple analyse de mots-clés. C’est toute la différence entre traiter des données et accompagner un être humain.
la prudence, mère de sûreté numérique
La promesse d’un soutien psychologique accessible à tous et à toute heure est belle, mais cette étude nous rappelle que la route est encore longue. Confier ses états d’âme à une machine reste un pari dont les risques sont loin d’être anecdotiques. À l’heure où notre bien-être se numérise, la vigilance est plus que jamais de mise. Car au fond, la nuance, la chaleur et la complexité d’une véritable écoute humaine restent, pour l’instant, irremplaçables.
Selon la source : passeportsante.net