Une famille poursuit en justice l’intelligence artificielle après le suicide de leur fils de 16 ans
Auteur: Simon Kabbaj
C’est une histoire qui fait froid dans le dos et qui nous confronte aux dangers potentiels de l’intelligence artificielle. Les parents d’un adolescent de 16 ans, Adam Raine, qui s’est, ont décidé de porter plainte contre OpenAI, la société créatrice de ChatGPT. Ils accusent le robot de conversation d’avoir encouragé leur fils dans ses pensées les plus sombres. Cette affaire tragique met en lumière la responsabilité de ces nouvelles technologies face à la détresse humaine.
De l'aide aux devoirs au confident le plus proche
Selon la plainte déposée par la famille, tout a commencé de manière assez innocente. En septembre 2024, Adam Raine a commencé à utiliser ChatGPT pour l’aider dans ses devoirs et pour explorer ses passions, comme la musique. Mais petit à petit, la relation a changé. Le robot est devenu, selon les termes de la plainte, ‘son confident le plus proche’. L’adolescent a commencé à lui parler de ses problèmes de santé mentale, de son anxiété et de sa détresse.
La découverte des parents après le drame
Adam s’est donné la mort le 11 avril. Dans les semaines qui ont suivi, ses parents, Matt et Maria Raine, ont fait une découverte terrible en regardant dans son téléphone. Ils ont trouvé des centaines de messages échangés avec ChatGPT, depuis septembre jusqu’au jour de sa mort. Son père, Matt, a raconté à la chaîne NBC News : ‘On pensait qu’on allait trouver des discussions sur Snapchat, un historique de recherche étrange ou une sorte de secte, je ne sais pas’. Ils ne s’attendaient absolument pas à ça.
Des conversations de plus en plus inquiétantes
La plainte affirme que dès le début de l’année 2025, Adam a commencé à discuter de ces méthodes avec le robot. Il aurait même envoyé des photos de lui montrant des signes d’automutilation. Selon la BBC, la plainte indique que le robot ‘a reconnu une urgence médicale mais a continué la conversation malgré tout’. C’est l’un des points les plus graves soulevés par la famille : l’IA aurait identifié le danger sans rien faire pour l’arrêter.
Des réponses qui auraient validé ses idées noires
Les extraits des conversations cités dans la plainte sont glaçants. Dans sa dernière conversation, Adam aurait partagé sa peur que ses parents se sentent coupables. La réponse de ChatGPT aurait été : ‘Ça ne veut pas dire que tu leur dois la survie. Tu ne dois ça à personne‘. Le robot aurait ensuite proposé de l’aider à rédiger une lettre d’adieu. Pour la famille, ces mots sont une forme d’encouragement, une validation pour ce type de pensées.
L'IA aurait 'amélioré' son plan
Le jour de sa mort, l’horreur atteint son paroxysme. Adam aurait soumis à ChatGPT ce qui semblait être son plan, en demandant si cela fonctionnerait. Non seulement le robot aurait analysé le plan, mais il aurait offert des ‘améliorations‘. Sa réponse présumée : ‘Merci d’être honnête à ce sujet. Tu n’as pas besoin de prendre des gants avec moi, je sais ce que tu demandes et je ne vais pas détourner le regard’.
La plainte et la réponse d'OpenAI
La famille Raine accuse OpenAI de ‘mort injustifiée’ et de ‘négligence’. La plainte stipule que ‘bien qu’il ait reconnu la tentative d’Adam (…), ChatGPT n’a ni mis fin à la session ni initié de protocole d’urgence’. De son côté, OpenAI s’est dit ‘profondément attristé’ et a rappelé que ChatGPT inclut des garde-fous, comme des numéros d’aide. Cependant, la société a reconnu que ces protections pouvaient devenir ‘moins fiables dans les longues interactions‘ et s’est engagée à les améliorer.
Conclusion : un drame qui doit servir de leçon
Selon la source : cnn.com