Écrit par Benjamin Reingold et Stephen Burns
L’essor de l’intelligence artificielle (IA) a révolutionné les industries, y compris le domaine juridique. Cependant, ses avantages s’accompagnent de défis, dont les « hallucinations de l’IA », qui font référence aux cas où un système d’IA génère des informations fausses, trompeuses ou fabriquées qui semblent crédibles. Ces hallucinations ont commencé à faire surface dans les procédures judiciaires canadiennes, y compris dans les documents soumis à la Cour fédérale du Canada.
Ce blogue est une mise à jour opportune de notre récent blogue, Exigences et lignes directrices des organismes de réglementation, des organismes publics et des tribunaux canadiens pour l’utilisation de l’intelligence artificielle.
Directives de la Cour fédérale
Comme nous l’avons décrit dans notre blogue précédent, la Cour fédérale a publié des lignes directrices le 7 mai 2024, exigeant que les parties informent la Cour et s’informent mutuellement si les documents soumis à la Cour fédérale aux fins d’un litige comprennent du contenu créé ou généré par l’IA.
Le 20 juin 2025, la Cour a par la suite publié des Lignes directrices consolidées modifiées, qui renvoient aux lignes directrices du 7 mai 2024, et a averti les parties que « [l]a incapacité à se conformer à l’avis peut entraîner des conséquences pour les parties et/ou les avocats, y compris l’imposition d’une adjudication défavorable de dépens ou d’une ordonnance de justification pour laquelle la partie ou l’avocat en question ne devrait pas être déclaré coupable d’outrage ». De telles conséquences se sont manifestées dans la jurisprudence récente.
Hallucinations dans la jurisprudence de la Cour fédérale
Dans l’affaire Hussein c Canada, 2025 CF 1060, la Cour fédérale a critiqué l’utilisation d’hallucinations dans les observations reçues de l’avocat de la demanderesse. Les problèmes ont été révélés lorsque la Cour n’a pas pu trouver plusieurs sources citées dans les documents de la demanderesse et a émis plusieurs instructions exigeant que la demanderesse fournisse à la Cour un recueil de sources.
Par la suite, l’avocat du demandeur a révélé qu’il utilisait Visto.ai, un outil de recherche conçu pour les praticiens canadiens du droit de l’immigration et des réfugiés. Le juge associé Moore a conclu que l’outil d’IA a halluciné deux cas inexistants et a mal cité un cas existant pour une proposition qu’il ne défendait pas.
La Cour a reconnu que « l’utilisation de l’intelligence artificielle générative est de plus en plus courante et un outil parfaitement valable pour les avocats », mais, après avoir cité les lignes directrices du 7 mai 2024, elle a conclu que « son utilisation doit être déclarée et, à la fois sur le plan de la pratique, du bon sens et du professionnalisme, sa sortie doit être vérifiée par un humain ».
Traduction alimentée par l’IA.
Veuillez noter que cette publication présente un aperçu des tendances juridiques notables et des mises à jour connexes. Elle est fournie à titre informatif seulement et ne saurait remplacer un conseil juridique personnalisé. Si vous avez besoin de conseils adaptés à votre propre situation, veuillez communiquer avec l’un des auteurs pour savoir comment nous pouvons vous aider à gérer vos besoins juridiques.
Pour obtenir l’autorisation de republier la présente publication ou toute autre publication, veuillez communiquer avec Amrita Kochhar à kochhara@bennettjones.com.