Les tribunaux et les ordres professionnels de juristes canadiens sont confrontés à un défi en constante évolution : chevaucher la ligne de démarcation entre la reconnaissance des avantages potentiels de l’intelligence artificielle générative émergente (GenAI), tout en équilibrant les risques associés à l’utilisation de cette technologie. Le principe de ces risques associés est la capacité de GenAI à « halluciner » (c.-à-d. à générer des informations incorrectes).
Cet article examine les développements en ce qui concerne : (1) les directives de pratique émises par différents tribunaux canadiens sur l’utilisation de GenAI dans les documents déposés par les tribunaux ; (2) des avis sur l’utilisation que les tribunaux font eux-mêmes de GenAI ; et (3) des lignes directrices émises par divers ordres professionnels de juristes canadiens sur l’utilisation de La GenAI dans la profession juridique.
Diverses directives de pratique et lignes directrices ont été publiées au cours des derniers mois. À la suite de notre blog précédent, Nouvelles directives de pratique tiennent compte de l’intelligence artificielle dans les soumissions à la Cour, un thème commun de ces documents de référence est : (1) l’importance d’un « humain dans la boucle » pour vérifier les sorties de toute GenAI ; et (2) dans certaines juridictions, une exigence de divulgation supplémentaire si GenAI est utilisé pour préparer des documents déposés devant les tribunaux.
1. Avis ou directives de pratique émis par les tribunaux canadiens sur l’utilisation de GenAI
Les tribunaux canadiens suivants ont émis des avis et/ou des directives de pratique concernant l’utilisation de GenAI dans les documents déposés par les tribunaux :
Content of Notice or Practice Direction |
blog.
Dans le sens de la pratique, la Cour reconnaît que l’IA se développe rapidement et qu’il est impossible de « prédire complètement et avec précision comment [l’IA] peut se développer ou comment définir exactement l’utilisation responsable de [l’IA] dans les affaires judiciaires ». De plus, la Cour confirme qu’il existe des préoccupations quant à la fiabilité et à l’exactitude des renseignements générés par l’utilisation de l’IA. À cette fin, la Cour exige maintenant que toute utilisation de l’IA dans la préparation de documents déposés auprès de la Cour doit indiquer comment de la façon dont l’IA a été utilisée. |
Les nouvelles directives de pratique tiennent compte de l’intelligence artificielle dans les observations devant les tribunaux.
À l’instar des avis d’autres tribunaux, cette directive de pratique reconnaît également les préoccupations légitimes concernant la fiabilité et l’exactitude des renseignements générés par l’utilisation de l’IA. Par conséquent, si une forme quelconque d’IA est utilisée pour des recherches ou des observations juridiques, dans quelque affaire et sous quelque forme que ce soit, devant la Cour, la partie doit informer la Cour de l’outil qui a été utilisé et à quelles fins. À titre d’exemple d’outil exigeant la divulgation, la Cour a fait spécifiquement référence à ChatGPT, un outil d’IA bien connu. |
La Cour fédérale a également publié des directives sur it propre utilisation de GenAI :
Content of Notice or Practice Direction |
[9]
Le seul avis est qu’il décrit la façon dont la Cour, elle-même, a l’intention d’utiliser GenAI, plutôt que la façon dont les parties, les plaideurs qui se représentent eux-mêmes et les intervenants qui comparaissent devant la Cour devraient utiliser ces outils. L’avis décrit les trois lignes directrices suivantes :
Par conséquent, l’avis fournit un point de vue unique sur la façon dont GenAI peut être intégré par les tribunaux dans le processus de prise de décision judiciaire. |
En plus des avis et des directives de pratique émis par divers tribunaux, les ordres professionnels de juristes suivants ont également publié des directives sur l’utilisation de GenAI dans la profession juridique :
Guidelines |
Avec le déploiement et l’utilisation rapides de technologies comme ChatGPT, il y a eu un niveau croissant de matériaux générés par l’IA utilisés dans les procédures judiciaires. Nous rappelons aux avocats que l’obligation éthique d’assurer l’exactitude des documents soumis au tribunal demeure avec vous. Lorsque des documents sont générés à l’aide de technologies telles que ChatGPT, il serait prudent d’en aviser le tribunal en conséquence. Le Barreau examine actuellement cette question plus en détail et nous nous attendons à ce que d’autres directives à la profession soient offertes au cours des prochaines semaines.
Le 20 novembre 2023, le Barreau de la Colombie-Britannique a suivi ces directives et a publié une ressource de pratique, intitulée « Guidance on Professional Responsibility and Generative AI ». 12 Le guide itère un certain nombre de considérations de responsabilité professionnelle pour les avocats lorsqu’ils envisagent l’utilisation de GenAI, y compris : la compétence, la confidentialité, l’honnêteté et la franchise, la responsabilité, la sécurité de l’information, les exigences des tribunaux ou d’autres décideurs, les honoraires et débours raisonnables, le plagiat et le droit d’auteur, la fraude et les contrefaçons profondes et les préjugés. |
Citing fake cases in court filings and other materials handed up to the court is an abuse of process and is équivalent to making a false statement to the court. Incontrôlée, elle peut conduire à une erreur judiciaire.
En raison des « efforts et des dépenses supplémentaires ont été engagés » par l’insertion de ces affaires fictives, le tribunal a tenu l’avocat personnellement responsable de ces dépenses. L’avocate a également reçu l’ordre de : (1) examiner tous ses dossiers qui sont devant le tribunal dans les 30 jours ; et (2) informer les parties adverses et le tribunal de tout document déposé qui contient des citations de cas ou des résumés obtenus via l’outil GenAI. 6. ConclusionComme nous l’avons souligné dans notre blogue précédent, Les nouvelles directives de pratique tiennent compte de l’intelligence artificielle dans les mémoires aux tribunaux, ces lignes directrices et directives de pratique démontrent une tendance continue des tribunaux et des ordres professionnels de juristes canadiens à réglementer l’utilisation de GenAI par la profession juridique. Comme la Cour l’a conclu dans l’affaire Zhang c. Chen32 : Comme cette affaire l’a malheureusement clairement indiqué, l’IA générative ne remplace toujours pas l’expertise professionnelle que le système de justice exige des avocats. La compétence dans la sélection et l’utilisation de tout outil technologique, y compris ceux alimentés par l’IA, est essentielle. L’intégrité du système de justice n’en exige pas moins. Il sera important pour les praticiens de surveiller ces développements et tout nouveau développement concernant GenAI compte tenu des implications importantes associées à ne pas le faire. Le groupe Bennett Jones Privacy and Data Protection group est disponible pour discuter de la façon dont votre organisation peut gérer de manière responsable et efficace l’utilisation de l’information et de l’intelligence artificielle dans ses opérations. 2 https ://www.fct-cf.gc.ca/Content/assets/pdf/base/2023-12-20-notice-use-of-ai-in-court-proceedings.pdf 6 https ://www.manitobacourts.mb.ca/site/assets/files/2045/practice_direction_-_use_of_artificial_intelligence_in_court_submissions.pdf 7 https ://coursuperieureduquebec.ca/fileadmin/cour-superieure/Communiques_and_Directives/Montreal/Avis_a_la_Communite_juridique-Utilisation_intelligence_artificielle_EN.pdf 8 https ://www.yukoncourts.ca/sites/default/files/2023-06/GENERAL-29%20Use%20of%20AI.pdf 9 https ://www.fct-cf.gc.ca/fr/pages/droit-et-pratique/intelligence-artificielle 10 https ://www.lawsociety.ab.ca/resource-centre/key-resources/professional-conduct/the-generative-ai-playbook/ (en ligne) 11 https ://www.lawsociety.bc.ca/about-us/news-and-publications/e-brief/e-brief-july-2023/ (en anglais) 12 https ://www.lawsociety.bc.ca/Website/media/Shared/docs/practice/resources/Professional-responsibility-and-AI.pdf 13 https ://educationcentre.lawsociety.mb.ca/wp-content/uploads/sites/2/2024/04/Generative-Artificial-Intelligence-Guidelines-for-Use-in-the-Practice-of-Law.pdf 20 Fédération des ordres professionnels de juristes du Canada, Modèle du Code de déontologie professionnelle, commentaire de l’article 3.1-2 [4A] [4B]. 21 février 27, 2020 Law Society of Alberta Code of Conduct Changes. Voir aussi Law Society of Alberta Code of Conduct, s 3.1-2 commentary [5],[6]. 22 Barreau de l’Ontario, Rules de déontologie, commentaire de l’article 3.1-2 [4A][4B]. 23 Law Society of Manitoba, Code of Professional Conduct, s 3.1-2 commentary [4A][4B]. 24 Law Society of Saskatchewan, Code of Professional Conduct 2023, commentaire de l’article 3.1-2 [4A][4B]. 25 Law Society of Yukon, Code of Professional Conduct July 24, 2023, s 3.1-2 commentary [4A][4B]. 26 Law Society of the Northwest Territories, Code de déontologie 16 mars 2021, commentaire en vertu de l’article 3.1-2 [4A][4B]. 27 Nova Scotia Barristers' Society, Code of Professional Conduct, s 3.1-2 commentary [4A][4B]. 28 Projet de loi C-27, Loi édictant la Loi sur la protection de la vie privée des consommateurs, la Loi sur le Tribunal de la protection des renseignements personnels et des données et la Loi sur l’intelligence artificielle et les données et apportant des modifications corrélatives et connexes à d’autres lois, 1re sess, 44e parl, 2021 (deuxième lecture terminée par la Chambre des communes le 24 avril 2023). 29 Canada, Loi sur l’intelligence artificielle et les données (LEID) – Document d’accompagnement (dernière modification le 13 mars 2023). 30 Zhang c. Chen, 2024 BCSC 285, https://www.bccourts.ca/jdb-txt/sc/24/02/2024BCSC0285cor1.htm 31 Ibid au para. 42. 32 Ibid au para. 46. |