Un verdict retentissant, une référence troublante
L’affaire avait fait grand bruit. En novembre dernier, le juge Jocelyn Geoffroy, de la Cour supérieure du Québec, tranchait dans la débâcle du groupe Huot. Sa décision : l’homme d’affaires Robert Giroux a fait preuve d’un manque de transparence injustifiable en entraînant des investisseurs de Québec dans cette chute. Le jugement est lourd : Giroux est condamné à rembourser la somme de 128 millions de dollars.
Pour asseoir son argumentation, le magistrat s’appuie, au paragraphe 134 de sa décision rendue le 26 novembre 2025 à Québec, sur une jurisprudence qui semble imparable. « Dans Crawford c. Crawford McGregor, la Cour suprême du Canada précise qu’aucune clause contractuelle ne peut exonérer un fiduciaire de sa négligence grossière ou de ses manquements fondamentaux à la transparence », écrit-il.
Seulement voilà, un problème majeur émerge. La Cour suprême du Canada n’a jamais statué sur l’affaire Crawford c. Crawford McGregor, celle-ci n’ayant pas dépassé le stade de la Cour d’appel. Pire encore, la référence citée par le juge Geoffroy renvoie à une tout autre décision, datant de 1939, concernant l’inhabilité à siéger du maire de Grand-Mère. Une simple erreur d’inattention dans un jugement fleuve de près de 200 pages ? C’est ce que l’on pourrait croire.
Des « anomalies » qui sèment le doute
Les avocats de Robert Giroux ne partagent pas cette vision. Condamné pour ce que le juge considère comme une fraude de type Ponzi, l’homme d’affaires a fait appel. Dans la déclaration soumise en décembre par le cabinet Rigaud Legal inc., la défense affirme avoir repéré toute une série d’erreurs similaires. Le texte du jugement comporterait « des anomalies rappelant les “hallucinations” associées à la rédaction assistée par intelligence artificielle ».
La déclaration d’appel est précise : « Certains passages citent des propos prétendument verbatim qui ne figurent nulle part dans la preuve, et le Juge fait référence à de la jurisprudence inexistante. » Contacté, l’avocat de Robert Giroux, Sylvain Rigaud, a refusé de faire des commentaires sur le dossier. D’autres exemples viennent étayer cette thèse. Pour justifier la levée du voile corporatif — un principe permettant de tenir un dirigeant personnellement responsable — le juge Geoffroy cite deux jugements. Le premier, Droit de la famille – 12 345, porte sur une pension alimentaire et sa référence mène à une affaire d’extradition. Le second, Succession de Blanchette, ne traite pas non plus du sujet et sa référence renvoie à un arrêt sur une thérapie imposée à un toxicomane.
Une autre erreur concerne le caractère frauduleux des systèmes à la Ponzi. Le magistrat cite ici l’affaire Ponce c. Société d’investissement MGP, un dossier qui s’avère totalement inexistant. La référence fournie dans le jugement conduit en réalité à une affaire relevant du droit du travail.
La thèse de l’IA et le silence de la Cour
Pour Nicolas Vermeys, directeur du Centre de recherche en droit public, la situation est pour le moins alarmante. « C’est très préoccupant », affirme ce professeur à la faculté de droit de l’Université de Montréal, qui a formé des centaines de magistrats québécois aux usages de l’intelligence artificielle générative. Selon lui, si une erreur isolée peut toujours survenir, l’accumulation de décisions inexistantes ou mal référencées pointe vers une cause spécifique. « Je vois mal comment ce type d’erreurs pourraient être faites par autre chose qu’une IA générative », estime-t-il.
Face à ces allégations, le juge Jocelyn Geoffroy oppose son devoir de réserve. Dans un courriel, il explique : « À titre de juge, mon devoir de réserve m’impose la retenue d’autant plus que le dossier dont il s’agit est présentement en appel ». Même son de cloche du côté des Tribunaux judiciaires du Québec. « Puisque l’affaire est pendante devant la Cour d’appel, la Cour supérieure ne fera aucun commentaire, par respect pour le processus en cours », indique le porte-parole, Paul-Jean Charest.
Si la thèse des hallucinations numériques était confirmée, ce jugement marquerait une première au Canada. Jamais auparavant, ni au Québec ni dans le reste du pays, l’usage supposé de l’IA par un juge n’avait conduit à de telles inexactitudes dans un verdict final.
Une décision en péril ? Pas si simple
L’expert Nicolas Vermeys a envisagé une autre hypothèse : le juge Geoffroy aurait-il pu simplement reprendre des passages erronés des plaidoiries des avocats ? Après vérification, il s’avère que les erreurs en question ne figurent nulle part dans le plan d’argumentation de 582 pages déposé par la poursuite. De leur côté, les avocats des entrepreneurs floués cherchent à minimiser l’impact de ce qu’ils qualifient d' »erreurs cléricales sans conséquence ».
Maître François Valin rappelle le contexte d’un procès qui a duré 36 jours, avec des dizaines de témoins et des milliers de pages de documents. « Il est important de souligner que des erreurs cléricales peuvent se produire depuis bien avant l’utilisation de l’IA et que le Code de procédure civile permet d’ailleurs à la Cour de corriger celles-ci », plaide-t-il. Il ajoute que les conclusions du juge sur l’existence de la fraude de type Ponzi « s’appuient sur une abondante jurisprudence que nous avons citée dans notre plan d’argumentation et dans notre plaidoirie. »
En définitive, ces erreurs risquent peu, à elles seules, de faire annuler la décision. Comme l’explique le professeur Vermeys, la Cour d’appel pourrait conclure que le raisonnement juridique du juge reste valide, malgré les références problématiques. « Il est possible que le jugement, par ailleurs, soit conforme au droit ; même si on éliminait toutes les notes en bas de page, le jugement se tiendrait », analyse-t-il.
Quand les justiciables tombent dans le piège de l’IA
Si le cas d’un juge est une première, celui de citoyens utilisant mal l’IA est déjà documenté. Ailleurs au Canada, des faussetés générées par des algorithmes ont déjà fait dérailler des dossiers. L’été dernier, en Colombie-Britannique, la Cour fédérale a rejeté une procédure car elle était entachée de références « hallucinées ». Dans cette affaire, le plaignant se représentait seul devant le tribunal.
Cette tendance est confirmée par Damien Charlotin, enseignant et chercheur à HEC Paris, qui répertorie ces incidents à l’échelle mondiale. Il a recensé 61 décisions de ce type au Canada, dont 6 au Québec. Dans tous les cas québécois, il s’agissait de plaideurs non représentés par un avocat. Faute d’expertise, ils se tournent vers des agents conversationnels pour construire leur argumentation, créant ainsi des précédents juridiques fictifs.
Ces erreurs involontaires peuvent coûter cher. En octobre 2025, le juge Luc Morin, un confrère du juge Geoffroy à la Cour supérieure, a infligé une amende de 5000 dollars à Jean Laprade, un citoyen qui avait utilisé ChatGPT pour sa défense. L’application avait inventé de la jurisprudence fantôme. Le juge Morin a été catégorique : « Si l’accès à la justice commande une certaine flexibilité de la part des tribunaux face au citoyen qui doit se représenter sans l’aide d’un avocat, celle-ci ne saurait jamais se traduire par une tolérance du faux. L’accès à la justice ne saurait jamais s’accommoder de la fabulation ou de la frime. »
Encadrer la machine : la justice face au défi technologique
Face à ces nouveaux risques, les institutions judiciaires commencent à réagir. Le Barreau du Québec s’apprête à rendre obligatoire pour tous ses membres, dès le printemps, une formation sur l’intelligence artificielle. De son côté, la Cour supérieure a adopté en septembre 2025 un « cadre de gouvernance en matière d’intelligence artificielle » pour garantir une utilisation « responsable et rigoureusement encadrée ».
Ce cadre rappelle une règle essentielle : « L’IA doit être utilisée avec prudence et discernement. Le contenu généré doit toujours faire l’objet d’une vérification rigoureuse par les utilisateurs (juges et avocats à leur soutien) en raison du risque d’erreurs, d’énoncés inexacts ou d’hallucinations. » Certaines provinces vont plus loin. Au Manitoba, les tribunaux exigent désormais que tout usage de l’IA soit déclaré dans les documents déposés.
La Cour fédérale, elle, a pris une position encore plus ferme : elle s’est engagée à ne pas utiliser l’IA pour rendre ses jugements tant que des consultations publiques n’auront pas eu lieu. Le juge en chef Paul Crampton l’expliquait au Globe and Mail en 2024 : « Je serais troublé si je pensais que les juges utilisaient ChatGPT pour rédiger leurs décisions, ou si leurs décisions étaient influencées de quelque manière que ce soit par l’IA, par des machines. Nous ne comprenons pas suffisamment leurs processus, ce qui sous-tend leurs algorithmes, ni la nature de leurs biais. »
Colombie : un juge assume l’aide de ChatGPT
Le phénomène n’est pas confiné au Canada. En février 2023, en Colombie, un juge a déclenché une vive controverse en assumant publiquement son recours à l’intelligence artificielle. L’affaire concernait la mère d’un enfant autiste qui, manquant de ressources financières, demandait la gratuité des rendez-vous médicaux pour son fils.
Le juge Juan Manuel Padilla a admis avoir interrogé ChatGPT avant de rendre sa décision. La conclusion du robot conversationnel ? Il a tranché en faveur de l’enfant et de sa mère. Le juge a suivi cette recommandation, soulevant un débat national sur le rôle de la machine dans l’acte de juger.
Brésil : quand le verdict est sous-traité à une IA
Au Brésil, un incident survenu en novembre 2023 a mis en lumière les dangers de la délégation aveugle à la technologie. Un juge, Jefferson Rodrigues, a rendu une sentence truffée d’erreurs, entièrement fondée sur de faux éléments de jurisprudence.
Sommé de s’expliquer, le magistrat a révélé une chaîne de responsabilités pour le moins surprenante. Il a déclaré avoir confié l’élaboration du verdict à un collaborateur. Ce dernier aurait, à son tour, confié la tâche… à ChatGPT. L’affaire a illustré les risques liés à l’absence de supervision humaine dans l’utilisation de ces nouveaux outils.
États-Unis : des juges fédéraux blâmés par le Sénat
Même la plus haute sphère judiciaire américaine n’est pas épargnée. En octobre 2025, deux juges fédéraux ont été formellement réprimandés par le Sénat. La raison : ils avaient produit des documents judiciaires contenant de fausses citations et des passages entièrement fictifs.
Les explications des deux magistrats ont reporté la faute sur leurs subordonnés. Le juge Henry T. Wingate, du Mississippi, a imputé les erreurs à un assistant juridique. De son côté, le juge Julien Xavier Neals, du New Jersey, a blâmé le stagiaire en droit qui l’assistait dans ses tâches. Ces cas démontrent que, quelle que soit l’origine de l’erreur, humaine ou artificielle, la responsabilité finale pèse sur le juge.
Selon la source : lapresse.ca