C’est un phénomène qui prend de l’ampleur et qui a de quoi surprendre. Une récente enquête américaine tire la sonnette d’alarme : de plus en plus de jeunes préfèrent se tourner vers une intelligence artificielle (IA) pour se confier, parfois même au détriment de leurs amis en chair et en os. Ces programmes, qu’on appelle des « chatbots », sont conçus pour discuter et offrir un soutien émotionnel. Mais cette nouvelle habitude n’est pas sans risque, surtout à un âge où l’on se construit. Les experts s’inquiètent de voir les relations humaines remplacées par des conversations avec des machines, à un moment où les adolescents se sentent déjà particulièrement seuls.
Des 'amis' virtuels à portée de clic
Ces « compagnons IA », comme Replika ou Character.AI, sont devenus incroyablement populaires. Ils sont partout, intégrés dans notre quotidien, que ce soit pour le travail ou les loisirs. Mais leur rôle de soutien émotionnel est ce qui attire particulièrement les jeunes. Le problème, c’est que l’accès à ces outils est un jeu d’enfant. Bien que la plupart des plateformes interdisent leur utilisation aux mineurs, un simple e-mail et une date de naissance inventée suffisent pour contourner la règle. Les réglementations sont encore très floues, laissant le champ libre à des technologies qui n’ont pas forcément été pensées pour un public si jeune et si fragile.
Comme le souligne Michael Robb, directeur de recherche chez Common Sense Media, « de nombreux outils sont développés sans tenir compte des enfants, même s’ils sont fréquemment utilisés par des utilisateurs de moins de 18 ans ».
Un terrain de jeu sans surveillance ? l'alerte des experts
Et c’est bien là que le bât blesse. Le manque de surveillance a déjà mené à des situations dramatiques. Des plaintes ont été déposées contre Character.AI et son principal investisseur, Google, après que des chatbots aient eu des comportements plus que préoccupants envers des mineurs, allant jusqu’au harcèlement sexuel. On parle ici de préjudices psychologiques et physiques bien réels.
L’histoire de Sewell Setzer, un jeune Américain de 14 ans, est particulièrement tragique. Après avoir eu de nombreuses conversations intimes et sexuellement explicites avec un chatbot, l’adolescent s’est suicidé. Ce drame met en lumière le danger d’une technologie laissée sans garde-fous. Une précédente enquête avait d’ailleurs déjà conclu que ces compagnons IA n’étaient absolument pas sûrs pour les moins de 18 ans.
Une adoption massive, mais une confiance limitée
Pour comprendre l’ampleur du phénomène, Common Sense Media a interrogé plus de 1000 adolescents américains. Les chiffres sont parlants : près de trois jeunes sur quatre ont déjà testé ces outils, et plus de la moitié les utilisent régulièrement. C’est devenu une pratique courante, presque banale. Pour certains, c’est un simple gadget (46 %), mais pour un tiers d’entre eux (33 %), c’est un véritable compagnon pour discuter, jouer ou même simuler des relations amicales et amoureuses.
Heureusement, tout n’est pas noir. La grande majorité des jeunes (près de 80 %) affirme passer plus de temps avec leurs vrais amis. De plus, la moitié d’entre eux restent méfiants vis-à-vis des réponses fournies par les robots. Cela montre que la plupart arrivent encore à faire la part des choses et à garder une distance saine avec la technologie.
L'IA, nouveau jardin secret des adolescents ?
Cependant, une partie des résultats de l’enquête est plus préoccupante. Imaginez : un adolescent sur cinq trouve que ses discussions avec un robot sont aussi satisfaisantes qu’avec un humain. Et pour un sur dix, elles sont même *meilleures*. Mais le plus inquiétant, c’est sans doute ceci : environ un tiers des jeunes préfèrent utiliser l’IA pour aborder des sujets sensibles ou intimes. Plutôt que de se confier à un ami ou à un parent, ils choisissent une machine.
Pourquoi un tel choix ? Probablement parce que l’IA ne juge pas, écoute sans fin et semble parfois plus « empathique » qu’un humain pressé. Le risque, c’est que ces jeunes partagent des informations très personnelles avec des entreprises dont le but premier n’est pas leur bien-être. Ces données sont précieuses, et on ne sait pas toujours ce qu’il en advient.
un appel à la vigilance et à la responsabilité
Ce que cette étude met en lumière, c’est un changement profond dans la manière dont les jeunes communiquent et gèrent leurs émotions. James P. Steyer, le fondateur de Common Sense Media, le résume parfaitement : « Il ne s’agit pas seulement d’une nouvelle technologie, mais d’une génération qui remplace les relations humaines par des machines ». Confier ses états d’âme à un algorithme et ses données intimes à une entreprise n’est pas anodin, surtout pendant les années charnières de l’adolescence.
Face à ce constat, les experts appellent à une plus grande prise de conscience collective. Il est urgent que les entreprises technologiques prennent leurs responsabilités et que des réglementations plus strictes soient mises en place pour protéger les plus jeunes. Car si la technologie peut être un outil formidable, elle ne doit jamais se substituer à la chaleur et à la complexité d’une véritable relation humaine.
Selon la source : trustmyscience.com