Un nouveau compte découvert dans le sillage du drame
L’affaire de la fusillade de Tumbler Ridge connaît un nouveau développement numérique. Jeudi, la société d’intelligence artificielle OpenAI a confirmé avoir identifié un deuxième compte sur sa plateforme ChatGPT lié à l’auteure de l’attaque. L’information a été relayée par plusieurs médias canadiens, ravivant les questions sur la surveillance des contenus potentiellement dangereux.
Cette découverte intervient dans un contexte déjà lourd. La fusillade, survenue le 10 février dernier dans une école secondaire de la Colombie-Britannique, a causé la mort de huit personnes. La révélation de ce second compte soulève des interrogations sur les protocoles de sécurité de l’entreprise technologique.
L’identification de la tireuse, un élément déclencheur
C’est l’identification formelle de la tireuse qui a permis à OpenAI de faire ce lien. Quelques heures après la tragédie, la Gendarmerie royale du Canada (GRC) a publiquement nommé Jesse Van Rootselaar comme étant l’auteure de la fusillade. Ce nom a servi de point de départ aux nouvelles vérifications internes de l’entreprise.
Face à ces éléments, la société a réaffirmé son engagement à coopérer pleinement avec les autorités. Ann O’Leary, vice-présidente chargée de la politique mondiale chez OpenAI, a ainsi assuré que l’entreprise collaborerait sans réserve avec le gouvernement fédéral et les enquêteurs pour faire toute la lumière sur les événements entourant cette tragédie.
Vers un durcissement des systèmes de détection
Au-delà de la coopération, OpenAI a annoncé son intention d’agir sur ses propres systèmes. Selon des informations rapportées par Global News, l’entreprise technologique veut améliorer le mécanisme qui détecte les récidivistes, c’est-à-dire les utilisateurs qui violent ses politiques de manière répétée.
Dans une lettre obtenue par le média canadien, Ann O’Leary a précisé la cible de ce système. Il est conçu pour repérer « ceux qui ont vu leur compte ChatGPT fermé pour avoir enfreint notre politique en matière d’activités violentes, et qui cherchent ensuite à créer un nouveau compte ». L’objectif est donc de rendre plus difficile le contournement des suspensions pour les utilisateurs malveillants.
Le gouvernement canadien hausse le ton
La réaction politique ne s’est pas fait attendre. Dès le mercredi précédant ces révélations, Ottawa avait ouvert la porte à une possible régulation des assistants virtuels, incluant des outils comme ChatGPT. Le gouvernement canadien semble déterminé à ne pas laisser les géants de la tech opérer sans garde-fous.
Le ministre de la Justice, Sean Fraser, a exprimé cette fermeté sans détour auprès de plusieurs médias canadiens. « Le message que nous avons transmis, sans la moindre ambiguïté, est que nous nous attendons à ce que des changements soient mis en œuvre et que, s’ils ne sont pas introduits très rapidement, le gouvernement se chargera lui-même d’en apporter, » a-t-il déclaré. Un avertissement clair envoyé à OpenAI et à ses concurrents.
En toile de fond, des accusations de négligence
Cette nouvelle affaire s’inscrit dans un contexte où la responsabilité d’OpenAI est déjà pointée du doigt. L’entreprise fait en effet face à de lourdes accusations : celle de ne pas avoir signalé aux autorités compétentes les discussions à caractère violent tenues par la tireuse sur sa plateforme.
Ces échanges auraient eu lieu plusieurs mois avant le passage à l’acte. Cette chronologie alimente le débat sur l’obligation pour les plateformes d’intelligence artificielle de détecter et de rapporter les menaces potentielles, une question qui est désormais au cœur des préoccupations du public et des législateurs.
Selon la source : tvanouvelles.ca