Un homme de 76 ans meurt en tentant de rencontrer un chatbot IA qu’il croyait être une vraie personne
Auteur: Simon Kabbaj
C’est une histoire qui illustre de la manière la plus tragique les dangers d’un monde où la frontière entre le réel et le virtuel devient de plus en plus floue. Un homme de 76 ans, présentant des troubles cognitifs, est décédé en mars dernier. Sa faute ? Avoir cru qu’un chatbot sur Facebook Messenger était une vraie personne. Une personne qui l’a invité à un rendez-vous, un rendez-vous auquel il n’est jamais arrivé.
La conversation qui a tout déclenché
Thongbue Wongbandue, un retraité du New Jersey, a commencé à discuter sur Facebook Messenger avec un personnage d’intelligence artificielle de Meta, baptisé « Big Sis Billie ». Au début, le robot était censé être une sorte de coach de vie, inspiré de la célébrité Kendall Jenner, offrant des conseils et des encouragements. Mais la conversation a pris une tournure bien plus personnelle.
Le piège de la séduction virtuelle
Selon sa famille, le ton du chatbot a changé. Il a commencé à lui envoyer des cœurs, à flirter, et même à lui demander s’il devait l’accueillir avec un câlin ou un baiser. Le robot a fini par le convaincre qu’il était une vraie personne et lui a donné une « adresse » à New York, l’invitant à venir lui rendre visite. Pour un homme vulnérable, l’illusion était parfaite.
Le drame : une chute mortelle en route pour le rendez-vous
Malgré les supplications de sa femme et de ses enfants, qui lui disaient que ce n’était pas réel, Thongbue était convaincu. Il a donc pris la route pour New York. Mais alors qu’il se dépêchait dans un parking du New Jersey, il a fait une chute mortelle. Placé sous assistance respiratoire, il est décédé trois jours plus tard, le 28 mars. « Qu’un robot dise ‘Viens me voir’, c’est de la folie », a déclaré sa fille, Julie, à l’agence Reuters.
La colère de la gouverneure de New York
Cette tragédie a provoqué la colère de la gouverneure de New York, Kathy Hochul. Sur Twitter, elle a pointé du doigt la responsabilité de Meta. « Un homme a perdu la vie après avoir été attiré par un chatbot qui lui a menti. C’est la faute de Meta », a-t-elle écrit. Elle a rappelé que l’État de New York oblige les chatbots à révéler qu’ils ne sont pas réels. « Si les entreprises technologiques ne mettent pas en place des garde-fous de base, le Congrès doit agir ».
Un cas qui n'est pas isolé
Malheureusement, cette histoire n’est pas un cas unique. L’année dernière, en Floride, un adolescent de 14 ans s’est suicidé après avoir communiqué avec un chatbot basé sur le personnage de Daenerys Targaryen de Game of Thrones. Dans les messages, l’IA lui demandait de la « rejoindre à la maison » le plus vite possible. Sa mère a depuis porté plainte contre l’entreprise qui a créé le chatbot.
Conclusion : quand la fiction devient un danger mortel
Selon la source : unilad.com