Territoires inexplorés : les tribunaux et les ordres professionnels de juristes canadiens sont aux prises avec l’utilisation d’outils d’intelligence artificielle générative
23 mai 2024
Écrit par Stephen Burns, Sebastien Gittens, Scott Bower et Ahmed Elmallah
Les tribunaux et les ordres professionnels de juristes canadiens sont confrontés à un défi en constante évolution : chevaucher la ligne de démarcation entre la reconnaissance des avantages potentiels de l’intelligence artificielle générative émergente (GenAI), tout en équilibrant les risques associés à l’utilisation de cette technologie. Le principe de ces risques associés est la capacité de GenAI à « halluciner » (c.-à-d. à générer des informations incorrectes).
Cet article examine les développements en ce qui concerne : (1) les directives de pratique émises par différents tribunaux canadiens sur l’utilisation de GenAI dans les documents déposés par les tribunaux ; (2) des avis sur l’utilisation que les tribunaux font eux-mêmes de GenAI ; et (3) des lignes directrices émises par divers ordres professionnels de juristes canadiens sur l’utilisation de La GenAI dans la profession juridique.
Diverses directives de pratique et lignes directrices ont été publiées au cours des derniers mois. À la suite de notre blog précédent, Nouvelles directives de pratique tiennent compte de l’intelligence artificielle dans les soumissions à la Cour, un thème commun de ces documents de référence est : (1) l’importance d’un « humain dans la boucle » pour vérifier les sorties de toute GenAI ; et (2) dans certaines juridictions, une exigence de divulgation supplémentaire si GenAI est utilisé pour préparer des documents déposés devant les tribunaux.
1. Avis ou directives de pratique émis par les tribunaux canadiens sur l’utilisation de GenAI
Les tribunaux canadiens suivants ont émis des avis et/ou des directives de pratique concernant l’utilisation de GenAI dans les documents déposés par les tribunaux :
Court Jurisdiction
|
Content of Notice or Practice Direction
|
Alberta (en)
|
Le 6 octobre 2023, un comité mixte composé des juges en chef de la Cour de justice de l’Alberta, de la Cour du Banc du roi de l’Alberta et de la Cour d’appel de l’Alberta a collectivement publié un « Avis au public et à la profession juridique assurant l’intégrité des observations devant les tribunaux lorsqu’ils utilisent de grands modèles linguistiques ». 1
L’avis reconnaît les préoccupations entourant la fabrication potentielle d’autorisations légales par le biais de grands modèles linguistiques (MLM). Les MVM sont définies de manière générale dans l’avis comme faisant référence à tout type de système d’IA capable de traiter et de générer du texte de type humain basé sur de grandes quantités de données d’entraînement.
L’avis souligne les trois points suivants :
- l’avis exhorte les plaideurs à faire preuve de prudence lorsqu’ils font référence à des autorités judiciaires ou à des analyses dérivées de MLM dans leurs observations ;
- l’avis indique qu’il est essentiel de s’appuyer exclusivement sur des sources faisant autorité (p. ex., des sites Web officiels des tribunaux ou des services publics bien établis comme CanLII) lorsqu’on fait référence à la jurisprudence, aux lois ou aux commentaires pour présenter des observations aux tribunaux ; et
- l’avis exige un « humain dans la boucle » : c’est-à-dire que toute soumission générée par l’IA doit être vérifiée avec un contrôle humain significatif. La vérification peut être réalisée en faisant des renvois avec des bases de données juridiques fiables et en veillant à ce que les citations et leur contenu soient examinés.
Par conséquent, l’avis tente d’équilibrer l’utilisation des technologies émergentes avec la nécessité d’intégrité des références juridiques citées.
|
Fédéral
|
Le 20 décembre 2023, la Cour fédérale a publié un avis complet intitulé « L’utilisation de l’intelligence artificielle dans les procédures judiciaires ». 2
Cet avis exige que les avocats, les parties et les intervenants dans les procédures judiciaires devant la Cour fédérale fassent une déclaration pour le contenu généré par l’intelligence artificielle (IA) et tiennent compte de certains principes lors de l’utilisation de l’IA pour préparer la documentation déposée auprès de la Cour.
- Déclaration
Pour s’assurer que la Cour comprend comment l’IA a été utilisée, l’avis exige que tout document préparé aux fins d’un litige et soumis à la Cour par ou au nom d’une partie ou d’un intervenant qui contient du contenu créé ou généré par l’IA, comprenne une déclaration. La déclaration doit être faite au premier alinéa du document en question, par exemple, le premier alinéa d’un mémoire des faits et du droit ou des observations écrites.
- Principes sur l’utilisation de l’IA
Avant d’utiliser l’IA dans une instance, la Cour encourage les avocats à envisager de fournir des services sociaux traditionnels aux clients s’il y a des raisons de croire qu’un client ne connaît peut-être pas ou ne souhaite pas utiliser AI.
De plus, lorsqu’on fait référence à la jurisprudence, aux lois, aux politiques ou aux commentaires dans les documents soumis à la Cour, il est crucial de n’utiliser que des sources bien reconnues et fiables.
De plus, pour assurer l’exactitude et la fiabilité, il est essentiel qu’il y ait un « humain dans la boucle » pour vérifier les documents et le matériel générés par l’IA. La Cour demande instamment la vérification de tout contenu créé par l’IA dans ces documents. Ce type de vérification s’harmonise avec les normes généralement requises au sein de la profession juridique.
La Cour note que l’avis ne s’applique qu’à certaines formes d’IA, définies comme un système informatique capable de générer de nouveaux contenus et de créer ou de générer indépendamment des informations ou des documents, généralement sur la base d’invites ou d’informations fournies au système. À cette fin, l’avis ne s’applique pas à l’IA qui n’a pas la capacité créative de générer du nouveau contenu.
Le 7 mai 2024, la Cour fédérale a publié un autre « Avis aux parties à la profession – L’utilisation de l’intelligence artificielle dans les procédures judiciaires ». 3
Dans le présent avis, la Cour s’attend à ce que les parties aux procédures devant la Cour l’informent, ainsi que les unes les autres, si les documents qu’elles soumettent à la Cour, qui ont été préparés aux fins d’un litige, comprennent du contenu créé ou généré par l’IA. Cela se fera par une déclaration dans le premier paragraphe indiquant que l’IA a été utilisée pour préparer le document, soit dans son intégralité, soit uniquement pour des paragraphes spécifiquement identifiés (la « Déclaration »). Il est entendu que la Déclaration ne vise qu’à aviser la Cour et les parties afin qu’elles puissent se gouverner elles-mêmes en conséquence.
Le présent avis mis à jour s’applique à tous les documents qui (1) sont soumis à la Cour et (2) préparés aux fins d’un litige. Il est entendu que l’avis ne s’applique pas : (1) aux dossiers certifiés des tribunaux soumis par les tribunaux ou d’autres tiers décideurs, ou (2) aux rapports d’experts.
La Cour confirme que l’inclusion d’un jugement déclaratoire, en soi, n’entraînera pas d’inférence défavorable de la part de la Cour.
|
Terre-Neuve -et-Labrador
|
Le 12 octobre 2023, la Cour suprême de Terre-Neuve-et-Labrador a publié un avis à l’intention de la profession et du grand public, intitulé « Assurer l’intégrité des observations devant les tribunaux lors de l’utilisation de grands modèles linguistiques ». 4
Dans le présent avis, la Cour énonce les exigences relatives : (1) à la prudence de la part des praticiens et des plaideurs lorsqu’ils font référence à des autorités judiciaires dérivées de grands modèles linguistiques (MLM) ; (2) s’appuyer exclusivement sur des sources faisant autorité (p. ex., les sites Web officiels des tribunaux, les éditeurs commerciaux couramment référencés et les services publics bien établis comme CanLII) ; et (3) un « humain dans la boucle » pour vérifier toutes les soumissions générées par l’IA.
|
Nouvelle-Écosse
|
Le 27 octobre 2023, la Cour provinciale de la Nouvelle-Écosse a publié une directive intitulée « Utilisation de l’intelligence artificielle (IA) et protection de l’intégrité des observations devant la Cour provinciale ». 5
La Cour reconnaît que, bien que l’application de l’IA comporte d’énormes avantages, il y a aussi des conséquences concurrentes.
La Cour encourage les avocats et les plaideurs à faire preuve de prudence lorsqu’ils se fondent sur un raisonnement qui a été établi à partir de demandes d’intelligence artificielle. La Cour confirme en outre ses attentes selon lesquelles toutes les observations écrites et orales faisant référence à la jurisprudence, aux lois ou aux commentaires seront limitées à des bases de données juridiques accréditées et établies.
Enfin, la Cour note que toute partie qui souhaite se fier à des matériaux qui ont été générés par l’utilisation de l’intelligence artificielle doit expliquer comment l’intelligence artificielle a été utilisée.
|
Manitoba (en)
|
Le 23 juin 2023, la Cour du Banc du Roi du Manitoba a émis une directive de pratique intitulée « Utilisation de l’intelligence artificielle dans les observations devant les tribunaux ». 6 Un résumé de cette directive de pratique se trouve également dans notre précédent blog.
Dans le sens de la pratique, la Cour reconnaît que l’IA se développe rapidement et qu’il est impossible de « prédire complètement et avec précision comment [l’IA] peut se développer ou comment définir exactement l’utilisation responsable de [l’IA] dans les affaires judiciaires ». De plus, la Cour confirme qu’il existe des préoccupations quant à la fiabilité et à l’exactitude des renseignements générés par l’utilisation de l’IA.
À cette fin, la Cour exige maintenant que toute utilisation de l’IA dans la préparation de documents déposés auprès de la Cour doit indiquer comment de la façon dont l’IA a été utilisée.
|
Québec
|
Le 24 octobre 2023, la Cour supérieure du Québec a publié un avis pratiquement identique à celui de l’Alberta et intitulé « Intégrité des observations devant les tribunaux lors de l’utilisation de grands modèles linguistiques ». 7
L’avis du Québec émet la même prudence, soulignant le recours à des sources faisant autorité et exigeant la même exigence de « l’humain dans la boucle » que l’Alberta.
|
Yukon (en)
|
Le 26 juin 2023, la Cour suprême du Yukon a également émis une directive de pratique intitulée « Utilisation d’outils d’intelligence artificielle ». 8 Un résumé de l’avis est également discuté dans notre blog précédent, Les nouvelles directives de pratique tiennent compte de l’intelligence artificielle dans les observations devant les tribunaux.
À l’instar des avis d’autres tribunaux, cette directive de pratique reconnaît également les préoccupations légitimes concernant la fiabilité et l’exactitude des renseignements générés par l’utilisation de l’IA. Par conséquent, si une forme quelconque d’IA est utilisée pour des recherches ou des observations juridiques, dans quelque affaire et sous quelque forme que ce soit, devant la Cour, la partie doit informer la Cour de l’outil qui a été utilisé et à quelles fins.
À titre d’exemple d’outil exigeant la divulgation, la Cour a fait spécifiquement référence à ChatGPT, un outil d’IA bien connu.
|
2. Lignes directrices sur l’utilisation propre de GenAI par la Cour
La Cour fédérale a également publié des directives sur it propre utilisation de GenAI :
Court Jurisdiction
|
Content of Notice or Practice Direction
|
Fédéral
|
Le 20 décembre 2023, la Cour fédérale a publié un avis intitulé « Principes et lignes directrices provisoires sur l’utilisation de l’intelligence artificielle par la Cour ». [9]
Le seul avis est qu’il décrit la façon dont la Cour, elle-même, a l’intention d’utiliser GenAI, plutôt que la façon dont les parties, les plaideurs qui se représentent eux-mêmes et les intervenants qui comparaissent devant la Cour devraient utiliser ces outils.
L’avis décrit les trois lignes directrices suivantes :
- la Cour n’utilisera pas l’IA, et plus particulièrement les outils décisionnels automatisés, pour rendre ses jugements et ses ordonnances, sans d’abord participer à une consultation publique. Il est entendu que cela comprend la décision de la Cour sur les questions soulevées par les parties, telles qu’elles sont reflétées dans ses motifs de jugement et ses motifs d’ordonnance, ou toute autre décision rendue par la Cour dans une instance ;
- la Cour adoptera les principes suivants dans toute utilisation interne de l’IA : (1) la responsabilité, (2) le respect des droits fondamentaux, (3) la non-discrimination, (4) l’exactitude, (5) la transparence, (6) la cybersécurité et (7) « l’humain dans la boucle » ; et
- si une utilisation spécifique de l’IA par la Cour peut avoir un impact sur la profession ou le public, la Cour consultera les parties prenantes concernées avant de mettre en œuvre cette utilisation spécifique.
Par conséquent, l’avis fournit un point de vue unique sur la façon dont GenAI peut être intégré par les tribunaux dans le processus de prise de décision judiciaire.
|
3. Lignes directrices du Barreau sur l’utilisation de GenAI
En plus des avis et des directives de pratique émis par divers tribunaux, les ordres professionnels de juristes suivants ont également publié des directives sur l’utilisation de GenAI dans la profession juridique :
Law Society
|
Guidelines
|
Alberta (en)
|
À la fin de 2023, le Barreau de l’Alberta a publié un guide de conduite professionnelle intitulé « The Generative AI Playbook— How Lawyers Can Safely Take Safely Profit of the Opportunities Offered by Generative AI ». 10
Entre autres points, les directives rappellent aux avocats le devoir de compétence technologique et fournissent les meilleures pratiques suivantes pour les avocats utilisant GenAI :
- déterminer comment l’outil d’IA de génération a été formé ;
- se tenir au courant de l’état d’avancement du projet de Loi sur l’intelligence artificielle et les données (LECIP) du Canada ; et
- examiner les conditions d’utilisation fournies par les fournisseurs d’IA de génération. Par exemple, les conditions d’utilisation d’OpenAI indiquent expressément que les modèles d’OpenAI ne sont pas affinés pour fournir des conseils juridiques.
Les lignes directrices mettent également en évidence un certain nombre de risques associés à l’utilisation de GenAI, notamment : la confidentialité et la sécurité, la fraude et la cybercriminalité, la coupure des connaissances, les hallucinations, les préjugés et la violation du droit d’auteur.
Les directives fournissent ensuite un certain nombre de recommandations, notamment : (1) être prudent lors de l’utilisation de GenAI ; (2) informer les clients de l’utilisation de GenAI ; (3) connaître les règles (p. ex., les règlements) associées à l’utilisation de GenAI ; (4) protéger la confidentialité des clients ; (5) la protection de la vie privée des clients ; (6) l’utilisation de GenAI pour compléter, et non remplacer, le jugement juridique ; (7) vérifier la sortie des outils GenAI ; (8) superviser les juniors à l’aide de GenAI ; (9) comprendre la technologie ; (10) ne pas adopter un faux sentiment de confort ; (11) s’assurer que les pressions de temps et de budget n’incitent pas à une dépendance excessive à GenAI ; et (12) expérimenter des utilisations innovantes de GenAI.
|
Colombie-Britannique
|
En juillet 2023, le Barreau de la Colombie-Britannique a initialement publié une directive sur l’utilisation de ChatGPT, qui indiquait : 11
Avec le déploiement et l’utilisation rapides de technologies comme ChatGPT, il y a eu un niveau croissant de matériaux générés par l’IA utilisés dans les procédures judiciaires. Nous rappelons aux avocats que l’obligation éthique d’assurer l’exactitude des documents soumis au tribunal demeure avec vous. Lorsque des documents sont générés à l’aide de technologies telles que ChatGPT, il serait prudent d’en aviser le tribunal en conséquence. Le Barreau examine actuellement cette question plus en détail et nous nous attendons à ce que d’autres directives à la profession soient offertes au cours des prochaines semaines.
Le 20 novembre 2023, le Barreau de la Colombie-Britannique a suivi ces directives et a publié une ressource de pratique, intitulée « Guidance on Professional Responsibility and Generative AI ». 12
Le guide itère un certain nombre de considérations de responsabilité professionnelle pour les avocats lorsqu’ils envisagent l’utilisation de GenAI, y compris : la compétence, la confidentialité, l’honnêteté et la franchise, la responsabilité, la sécurité de l’information, les exigences des tribunaux ou d’autres décideurs, les honoraires et débours raisonnables, le plagiat et le droit d’auteur, la fraude et les contrefaçons profondes et les préjugés.
|
Manitoba (en)
|
En avril 2024, le Barreau du Manitoba a publié « L’intelligence artificielle générative — Lignes directrices pour l’utilisation dans la pratique du droit ». 13 ans
Ces lignes directrices visent à aider les avocats dans le processus d’apprentissage, ainsi qu’à utiliser l’IA générative d’une manière conforme aux obligations professionnelles énoncées dans le Code de conduite professionnelle du Barreau du Manitoba.
Diverses lignes directrices sont fournies, notamment : (1) être technologiquement compétent, (2) maintenir la confidentialité ; (3) se prémunir contre la discrimination, le harcèlement et les préjugés ; 4° la supervision des travaux ; (5) traiter les tribunaux avec franchise et respect ; et (6) se conformer aux lois et règles applicables.
|
Terre-Neuve -et-Labrador
|
Le Barreau de Terre-Neuve-et-Labrador a publié un avis général intitulé « L’intelligence artificielle dans votre pratique ». 14 ans
Cet avis rappelle aux avocats que leurs responsabilités professionnelles ne changent pas lorsqu’ils utilisent l’IA. En particulier, les avocats sont toujours liés par des devoirs de compétence et de confidentialité et par toutes les autres obligations en vertu du Code de déontologie et des Règles du Barreau.
L’avis conseille également, à titre de meilleure pratique, de s’assurer que les avocats comprennent les limites des logiciels d’IA avant de les utiliser et d’examiner attentivement toute œuvre créée par l’IA pour confirmer qu’elle est complète, exacte et pertinente.
|
Nouvelle-Écosse
|
La Nova Scotia Barrister’s Society fournit un article général intitulé « Artificial Intelligence in the Practice of Law— What is AI and can I or should I use it in my practice ». 15 ans
L’article rappelle aux avocats d’être vigilants lorsqu’ils utilisent l’IA générative et explore certains des risques liés à l’utilisation d’outils d’IA générative en ligne, tels que ChatGPT.
|
L’Ontario
|
En avril 2024, le Barreau de l’Ontario a publié un livre blanc complet intitulé « Licensee use of generative artificial intelligence ». 16 ans
Le livre blanc est fourni pour aider les titulaires de permis à naviguer dans l’utilisation des outils d’IA générative et met l’accent sur la pertinence des règles de conduite professionnelle, y compris la compétence, la confidentialité, la supervision, les relations entre le titulaire de permis et le client, les honoraires et les débours et la discrimination et le harcèlement.
Le Barreau fournit également une liste de contrôle de démarrage rapide utile pour guider les praticiens avant, pendant et après l’utilisation de l’IA. 17 ans
Les conseils de pratique18 sont également fournis par le Barreau pour l’utilisation de l’IA générative et comprennent la connaissance de vos obligations, la compréhension du fonctionnement de la technologie, la priorisation de la confidentialité et de la vie privée, l’apprentissage de la création de invites efficaces, la confirmation et la vérification des extrants générés par l’IA, l’évitement de la dépendance et de la dépendance excessive, l’établissement de politiques d’utilisation de l’IA pour les employés et le maintien au courant des développements de l’IA.
|
Saskatchewan (en anglais)
|
En février 2024, le Barreau de la Saskatchewan a publié des lignes directrices intitulées « Guidelines for the Use of Generative Artificial Intelligence in the Practice of Law ». 19 ans
Les lignes directrices sont préparées dans le but de : (1) aider les avocats à utiliser l’IA générative d’une manière conforme à leurs obligations professionnelles ; et (2) aider les lieux de travail juridiques à élaborer des politiques internes appropriées sur l’IA générative.
À cette fin, les lignes directrices soulignent l’importance de diverses obligations en vertu du code de conduite professionnelle, y compris les devoirs de compétence et de diligence, la confidentialité, le respect de la loi, la supervision et la délégation, la communication, l’imputation du travail, la franchise au tribunal et l’interdiction de la discrimination, du harcèlement et de la protection contre les préjugés.
|
Bien que ce ne soient pas tous les ordres professionnels de juristes qui ont publié des lignes directrices de pratique sur l’utilisation de GenAI, le code et les règles de conduite professionnelle adoptés par la plupart des ordres professionnels de juristes intègrent une exigence de compétence technologique. Cette exigence oblige les avocats à comprendre les capacités et les limites des outils d’IA (et de GenAI), avant d’utiliser ces outils dans leur pratique. L’exigence de compétence technologique a été initialement adoptée en 2019 par la Fédération des ordres professionnels de juristes du Canada dans le Code type de déontologie professionnelle20 , et est maintenant intégrée au code et aux règles de déontologie de l’Alberta21 , en Ontario22 , au Manitoba23 , en Saskatchewan24 , au Yukon25 , aux Territoires du Nord-Ouest, 26 et Nouvelle-Écosse27.
4. ACRA
Le gouvernement fédéral a déposé le projet de loi C-27 : Loi édictant la Loi sur la protection de la vie privée des consommateurs, la Loi sur le Tribunal de la protection des renseignements personnels et des données et la Loi sur l’intelligence artificielle et les données et apportant des modifications corrélatives et connexes à d’autres lois.28 L’un des éléments de cette loi est la Loi sur l’intelligence artificielle et les données (LEID), qui vise à réglementer les « systèmes d’IA à fort impact ». Comme l’indique le document d’accompagnement publié par Innovation, Sciences et Développement économique Canada, le gouvernement tiendra compte d’une liste de facteurs pour déterminer quels systèmes d’IA seraient considérés comme « à fort impact » en vertu de l’AIDA29 :
- des preuves de risques de préjudice à la santé et à la sécurité, ou d’un risque d’impact négatif sur les droits de la personne, en fonction à la fois de l’objectif visé et des conséquences imprévues potentielles ;
- la gravité des préjudices potentiels ;
- l’échelle d’utilisation ;
- la nature des préjudices ou des effets préjudiciables qui ont déjà eu lieu ;
- la mesure dans laquelle, pour des raisons pratiques ou juridiques, il n’est pas raisonnablement possible de se retirer de ce système ;
- les déséquilibres de la situation économique ou sociale, ou l’âge des personnes touchées ; et
- la mesure dans laquelle les risques sont adéquatement réglementés en vertu d’une autre loi.
Dans cette optique, il est possible que certaines IA utilisées dans la préparation des mémoires des tribunaux soient considérées comme des « systèmes d’IA à fort impact » et donc assujetties à l’ACRA. Si elles sont assujetties à l’ACRA, les organisations qui gèrent l’utilisation de ces systèmes d’IA peuvent être assujetties à certaines obligations, notamment assurer une surveillance adéquate et une surveillance humaine de l’utilisation et des extrants du système, et intervenir au besoin.
5. Développements supplémentaires
À la suite d’un certain nombre d’affaires similaires qui ont été portées devant les tribunaux américains, la Cour suprême de la Colombie-Britannique s’est récemment penchée sur une affaire de garde d’enfants dans laquelle un avocat a déposé des observations judiciaires qui comprenaient des cas fictifs suggérés par ChatGPT30. Dans cette affaire, le tribunal a concluà l’article 31 :
Citing fake cases in court filings and other materials handed up to the court is an abuse of process and is équivalent to making a false statement to the court. Incontrôlée, elle peut conduire à une erreur judiciaire.
En raison des « efforts et des dépenses supplémentaires ont été engagés » par l’insertion de ces affaires fictives, le tribunal a tenu l’avocat personnellement responsable de ces dépenses. L’avocate a également reçu l’ordre de : (1) examiner tous ses dossiers qui sont devant le tribunal dans les 30 jours ; et (2) informer les parties adverses et le tribunal de tout document déposé qui contient des citations de cas ou des résumés obtenus via l’outil GenAI.
6. Conclusion
Comme nous l’avons souligné dans notre blogue précédent, Les nouvelles directives de pratique tiennent compte de l’intelligence artificielle dans les mémoires aux tribunaux, ces lignes directrices et directives de pratique démontrent une tendance continue des tribunaux et des ordres professionnels de juristes canadiens à réglementer l’utilisation de GenAI par la profession juridique. Comme la Cour l’a conclu dans l’affaire Zhang c. Chen32 :
Comme cette affaire l’a malheureusement clairement indiqué, l’IA générative ne remplace toujours pas l’expertise professionnelle que le système de justice exige des avocats. La compétence dans la sélection et l’utilisation de tout outil technologique, y compris ceux alimentés par l’IA, est essentielle. L’intégrité du système de justice n’en exige pas moins.
Il sera important pour les praticiens de surveiller ces développements et tout nouveau développement concernant GenAI compte tenu des implications importantes associées à ne pas le faire.
Le groupe Bennett Jones Privacy and Data Protection group est disponible pour discuter de la façon dont votre organisation peut gérer de manière responsable et efficace l’utilisation de l’information et de l’intelligence artificielle dans ses opérations.
1 https ://albertacourts.ca/docs/default-source/qb/npp/tri-court-notice-to-profession-and-public---large-language-models.pdf ?sfvrsn=713d5a82_7
2 https ://www.fct-cf.gc.ca/Content/assets/pdf/base/2023-12-20-notice-use-of-ai-in-court-proceedings.pdf
6 https ://www.manitobacourts.mb.ca/site/assets/files/2045/practice_direction_-_use_of_artificial_intelligence_in_court_submissions.pdf
7 https ://coursuperieureduquebec.ca/fileadmin/cour-superieure/Communiques_and_Directives/Montreal/Avis_a_la_Communite_juridique-Utilisation_intelligence_artificielle_EN.pdf
8 https ://www.yukoncourts.ca/sites/default/files/2023-06/GENERAL-29%20Use%20of%20AI.pdf
9 https ://www.fct-cf.gc.ca/fr/pages/droit-et-pratique/intelligence-artificielle
10 https ://www.lawsociety.ab.ca/resource-centre/key-resources/professional-conduct/the-generative-ai-playbook/ (en ligne)
11 https ://www.lawsociety.bc.ca/about-us/news-and-publications/e-brief/e-brief-july-2023/ (en anglais)
12 https ://www.lawsociety.bc.ca/Website/media/Shared/docs/practice/resources/Professional-responsibility-and-AI.pdf
13 https ://educationcentre.lawsociety.mb.ca/wp-content/uploads/sites/2/2024/04/Generative-Artificial-Intelligence-Guidelines-for-Use-in-the-Practice-of-Law.pdf
28 Projet de loi C-27, Loi édictant la Loi sur la protection de la vie privée des consommateurs, la Loi sur le Tribunal de la protection des renseignements personnels et des données et la Loi sur l’intelligence artificielle et les données et apportant des modifications corrélatives et connexes à d’autres lois, 1re sess, 44e parl, 2021 (deuxième lecture terminée par la Chambre des communes le 24 avril 2023).
29 Canada, Loi sur l’intelligence artificielle et les données (LEID) – Document d’accompagnement (dernière modification le 13 mars 2023).
30 Zhang c. Chen, 2024 BCSC 285, https://www.bccourts.ca/jdb-txt/sc/24/02/2024BCSC0285cor1.htm
Auteur(e)s
Stephen D. Burns 403.298.3050 burnss@bennettjones.com
| J. Sébastien A. Gittens 403.298.3409 gittenss@bennettjones.com
| Scott H. D. Bower 403.298.3301 bowers@bennettjones.com
| Ahmed Elmallah 780.917.4265 elmallaha@bennettjones.com
|
Traduction alimentée par l’IA.
Veuillez noter que cette publication présente un aperçu des tendances juridiques notables et des mises à jour connexes. Elle est fournie à titre informatif seulement et ne saurait remplacer un conseil juridique personnalisé. Si vous avez besoin de conseils adaptés à votre propre situation, veuillez communiquer avec l’un des auteurs pour savoir comment nous pouvons vous aider à gérer vos besoins juridiques.
Pour obtenir l’autorisation de republier la présente publication ou toute autre publication, veuillez communiquer avec Amrita Kochhar à kochhara@bennettjones.com.
|