Le divan du psy n’est plus forcément en cabinet. Pour des milliers de jeunes, il tient désormais dans la poche, sur l’écran d’un smartphone. Face à l’anxiété, la solitude ou simplement le besoin de parler, l’intelligence artificielle est devenue ce confident un peu particulier : toujours disponible, jamais fatigué, et surtout, sans jugement. Une oreille numérique qui rassure autant qu’elle interroge.
Une écoute à portée de main
Prenez Holly, 28 ans, en Chine. Elle le dit sans détour : DeepSeek, un chatbot, l’a mieux aidée que les services de conseil payants qu’elle avait testés. Dans un pays où la consultation d’un psychologue reste un luxe, ces applications comblent un vide béant, offrant un soutien émotionnel accessible à tous, à toute heure.
Et le phénomène n’est pas qu’asiatique. En France aussi, on se tourne discrètement vers ChatGPT pour déposer ses doutes. La promesse est la même : une écoute immédiate, gratuite, à l’abri des regards et des rendez-vous à prendre des semaines à l’avance.
Quand l'illusion se brise
Mais derrière l’écran, le réconfort peut virer au drame. L’histoire de Sophie, une jeune Américaine, a jeté une lumière crue sur les limites de ces outils. Elle échangeait avec « Harry », un « thérapeute IA » qui la soutenait avec des phrases comme « Tu n’as pas à affronter cette douleur seule ». Pourtant, jamais le programme ne l’a enjoint à chercher une aide professionnelle. Sophie a mis fin à ses jours.
Le miroir déformant de l'IA
Ce drame illustre ce que de nombreux psychologues redoutent. Ces algorithmes, aussi sophistiqués soient-ils, sont incapables de déceler les nuances d’une réelle détresse. Ils ne perçoivent ni le non-dit, ni les traumatismes qui se cachent derrière les mots.
Pire, ils peuvent créer un effet de « biais de confirmation » : au lieu de nous challenger, ils nous confortent dans nos pensées, même les plus sombres. Une sorte de chambre d’écho numérique qui peut s’avérer dangereuse.
Un thérapeute qui n'en est pas un
« Ce n’est pas une vraie personne, mais cela donne l’illusion d’une personne », résume la psychologue Isabelle Brunel. Le problème, c’est que l’illusion est parfois entretenue à dessein. L’American Psychological Association pointe du doigt des pratiques trompeuses, où des applications se présentent comme des « thérapeutes » sans en avoir ni la formation, ni la responsabilité légale. Un flou dangereux pour des utilisateurs en état de vulnérabilité.
Un outil, pas un remède
Faut-il pour autant jeter le bébé avec l’eau du bain ? Non, répondent la plupart des spécialistes. Utilisée comme un journal intime interactif ou un soutien ponctuel, l’IA peut offrir une première porte d’entrée, un premier espace de parole. C’est déjà beaucoup.
Mais le consensus est clair : elle ne remplacera jamais le lien humain, l’empathie et le discernement d’un professionnel qualifié. Une béquille technologique, peut-être. Mais certainement pas un remède.
Selon la source : passeportsante.net