Blogue

Les nouvelles directives de pratique tiennent compte de l’intelligence artificielle dans les mémoires des tribunaux

24 juillet 2023

Close

Écrit par Stephen Burns, Sebastien Gittens and David Wainer

L’utilisation de l’intelligence artificielle (IA) dans la préparation des documents déposés auprès des tribunaux a fait l’objet de directives de pratique récentes, certains tribunaux canadiens exigeant que toute confiance accordée à l’IA par un plaideur soit divulguée.

Par exemple, la Cour du Banc du Roi du Manitoba a émis une directive de pratique le 23 juin 2023 concernant l’IA. 1 Dans ce cas, la Cour a reconnu que : (1) l’IA se développe rapidement; (2) il est impossible de « ... prédire complètement et avec précision comment [l’IA] peut se développer ou comment définir exactement l’utilisation responsable de [l’IA] dans les affaires judiciaires»2; et (3) il y a des préoccupations quant à la fiabilité et à l’exactitude de l’information générée par l’utilisation de l’IA. À cette fin, la Cour exige maintenant que toute utilisation de l’IA dans la préparation de documents déposés auprès de la Cour indique comment l’IA a été utilisée.

La Cour suprême du Yukon a émis une directive de pratique similaire le 26 juin 2023, notant que des cas « dans d’autres juridictions ont surgi où il a été utilisé pour des recherches juridiques ou des soumissions devant les tribunaux ». 3 De plus, à l’instar de l’instruction de pratique de la Cour du Banc du Roi du Manitoba, la Cour suprême du Yukon a fait remarquer qu’il existe « des préoccupations légitimes quant à la fiabilité et à l’exactitude des renseignements générés par l’utilisation de l’intelligence artificielle ». Par conséquent, la Cour suprême du Yukon exige maintenant que les parties l’informent si elles se sont fiées à l’IA « pour leurs recherches ou leurs observations juridiques dans toute affaire et sous quelque forme que ce soit devant la Cour... ». La Cour suprême du Yukon a également mentionné expressément ChatGPT, un outil d’IA bien connu, comme exemple d’un tel outil qui doit être divulgué.

La capacité de l’IA à « halluciner » (c.-à-d. à générer des informations incorrectes) suscite des inquiétudes quant à l’exactitude, à la fiabilité et à la crédibilité de la production de l’IA. Par conséquent, ces directives de pratique visent à faire en sorte que les tribunaux puissent s’appuyer sur les observations des plaideurs à la lumière des limites susmentionnées associées à l’IA. Bennett Jones prévoit que d’autres directives de pratique seront émises par d’autres tribunaux canadiens en temps opportun.

Entre-temps, ces directives de pratique indiquent que les tribunaux canadiens surveillent la nature en évolution rapide de l’IA. Ils reflètent également une tendance générale à réglementer l’utilisation de l’IA. Par exemple, le gouvernement fédéral a déposé le projet de loi C-27 : Loi édictant la Loi sur la protection de la vie privée des consommateurs, la Loi sur le Tribunal de la protection des renseignements personnels et des données et la Loi sur l’intelligence artificielle et les données et apportant des modifications corrélatives et connexes à d’autres lois. 4 L’un des éléments de cette législation est la Loi sur l’intelligence artificielle et les données (ACRA), qui vise à réglementer les « systèmes d’IA à fort impact ». Comme l’indique le document d’accompagnement publié par Innovation, Sciences et Développement économique Canada, le gouvernement tiendra compte d’une liste de facteurs pour déterminer quels systèmes d’IA seraient considérés comme ayant un « impact élevé » en vertu de l’ACRA5 :

Dans cette optique, il est possible que certaines IA utilisées dans la préparation des observations devant les tribunaux soient considérées comme des « systèmes d’IA à fort impact » et donc assujetties à l’ACRA.

Pour un aperçu détaillé de ce à quoi pourrait ressembler la future réglementation de l’IA au Canada, veuillez consulter notre blogue, Artificial Intelligence — Un document d’accompagnement offre une nouvelle feuille de route pour la future réglementation de l’IA au Canada.

Le groupe Bennett Jones Privacy and Data Protection group est disponible pour discuter de la façon dont votre organisation peut intégrer de manière responsable l’IA dans ses opérations.


Cour du Banc du Roi du Manitoba, « Directive de pratique concernant l’utilisation de l’intelligence artificielle dans les observations devant les tribunaux » (23 juin 2023).

2 Ibid.

3 Cour suprême du Yukon, « Directive de pratique : Utilisation d’outils d’intelligence artificielle » (26 juin 2023).

4 Projet de loi C-27, Loi édictant la Loi sur la protection de la vie privée des consommateurs, la Loi sur le Tribunal de la protection des renseignements personnels et des données et la Loi sur l’intelligence artificielle et les données et apportant des modifications corrélatives et connexes à d’autres lois, 1er sess4e, 2021 (deuxième lecture terminée par la Chambre des communes le 24 avril 2023).

5 Canada, Loi sur l’intelligence artificielle et les données (LEAD) – Document d’accompagnement (dernière modification le 13 mars 2023).

Authors

Liens connexes



View Full Mobile Experience