Panel 2 | Experimenting AI Technologies to Enhance Judicial Actors’ Autonomy

Sur cette page (cliquez pour y accéder) :


Vidéo


Biographies

Modératrice

Speaker Photo
Jane Bailey

Jane Bailey est professeure titulaire de droit à l’Université d’Ottawa, elle enseigne le Cyberféminisme, la Technoprudence et les Contrats. Ses recherches portent sur la technologie et les droits humains, notamment les violences sexistes facilitées par la technologie. Elle est co-chercheuse et co-chef d’équipe du projet « L’autonomie grâce aux technologies de cyberjustice », basé à l’Université de Montréal. Avec la Dre Jacquelyn Burkell, elle codirige le projet « Rethinking Consent », une initiative de quatre ans qui explore les défis posés au modèle de consentement individuel par des technologies telles que l’IA et la génétique médico-légale, en recherchant des alternatives justes et publiquement responsables. Jane est également chercheuse au Centre for Protecting Women Online de l’Open University en Angleterre, et membre du corps professoral du Centre for Law, Technology & Society de l’Université d’Ottawa.

Panélistes

Speaker Photo
Leah Wing

La Docteure Leah Wing est directrice du National Center for Technology and Dispute Resolution (NCTDR) et maîtresse de conférences au département des études juridiques de l’Université du Massachusetts à Amherst, aux États-Unis. Cofondatrice et vice-présidente du conseil d’administration du International Council for Online Dispute Resolution (ICODR), Leah a codirigé l’élaboration des normes ODR du NCTDR-ICODR qui ont été adoptées par l’Organisation internationale de normalisation pour sa norme ODR : ISO 32122 (2025). Leah a participé en tant que chercheuse aux premières expériences en matière de résolution des litiges en ligne et ses projets de recherche actuels portent sur l’éthique de l’ODR et l’IA. Elle a récemment publié Wing, L., Draper, C. Cooper, S., et Rainey, D. Governing Artificial Intelligence. Leyde, Pays-Bas : Brill Nijhoff, 2025. Leah siège aux comités de rédaction de l’International Journal of Online Dispute Resolution et du Conflict Resolution Quarterly. En tant que formatrice et consultante, elle a travaillé avec des centaines d’agences et d’organisations aux États-Unis et à l’étranger.

Speaker Photo
Erik Bornmann

Erik Bornmann est directeur du programme Guided Pathways chez CLEO (Community Legal Education Ontario / Éducation juridique communautaire Ontario), où il dirige le développement d’outils juridiques interactifs qui aident les individus à naviguer dans les processus juridiques, notamment à remplir les formulaires des cours et des tribunaux. Le programme Guided Pathways de CLEO aide les utilisateurs dans des domaines tels que le droit de la famille, les petites créances, le logement, les recours en matière de sécurité sociale et l’immigration. Erik supervise également les recherches de CLEO en matière de technologie juridique, notamment un projet financé par la Fondation du droit de l’Ontario qui explore l’utilisation responsable de l’IA pour améliorer ces outils. Son travail comprend des collaborations avec des universités canadiennes dans le cadre du projet Autonomy through Cyberjustice Technologies (ACT) et d’autres initiatives visant à évaluer l’efficacité des applications juridiques destinées directement au public. Avant de rejoindre CLEO, Erik a exercé le droit dans une clinique juridique communautaire, où il a plaidé devant les cours et les tribunaux et dirigé une initiative d’innovation numérique visant à étendre la capacité de service du système de cliniques juridiques de l’Ontario.

Speaker Photo
Dominique Boullier

Professeur de sociologie à Sciences Po. Docteur en sociologie de l’École des hautes études en sciences sociales (EHESS, 1987), diplômé en linguistique (Rennes 2, 1991), HDR en sciences de l’information et de la communication (Bordeaux 3, 1995). Il a été professeur à l’Université de Technologie de Compiègne (UTC) et directeur de l’unité de recherche Costech (1997-2005). Il a également été fondateur et directeur de l’unité mixte de services LUTIN (Laboratoire des Utilisations des Technologies de l’Information Numérique) du CNRS à la Cité des Sciences et de l’Industrie de la Villette (2004-2007) et directeur du Laboratoire d’Anthropologie et de Sociologie (LAS) de l’université Rennes 2 (2005-2008). Il est souvent décrit comme un « entrepreneur de la recherche » en raison de son expérience passée en tant que chef d’entreprise, créateur de laboratoire, responsable de projets multipartenaires (ANR ou européens) et partenaire d’entreprises dans ses projets de recherche. Il est directeur exécutif du projet Idefi Forccast (formation à l’analyse des sciences et des technologies par la cartographie des controverses) (2012-2019) et responsable de l’éducation numérique à Sciences Po (avec Pascale Leclercq).

Speaker Photo
Hannes Westermann

Hannes Westermann est professeur adjoint de droit et d’intelligence artificielle à l’université de Maastricht et au Maastricht Law and Tech Lab. Ses recherches portent sur l’utilisation de l’IA et de l’IA générative pour améliorer l’accès à la justice. Il a obtenu son doctorat à l’université de Montréal et au Laboratoire de Cyberjustice, où il a développé JusticeBot, une plateforme en ligne innovante qui fournit des informations juridiques aux individus à l’aide de l’IA. La plateforme a été utilisée plus de 40 000 fois. Il a présenté les résultats de ses recherches lors de conférences internationales et a reçu le « Best Paper Award » lors des éditions 2020 et 2023 de JURIX. Ses travaux ont également été publiés dans le Financial Times et Context.news.


Résumé

Le 15 octobre 2025, la conférence AJC a repris après l’heure du dîner avec la présentation du segment suivant, intitulé « Expérimenter les technologies d’IA pour renforcer l’autonomie des acteurs judiciaires », par Jane Bailey, professeure titulaire de droit à l’Université d’Ottawa et présidente du panel.

Le panel comprenait également Leah Wing, directrice du National Center for Technology and Dispute Resolution (NCTDR), professeure à l’université du Massachusetts à Amherst, et cofondatrice et vice-présidente du International Council for Online Dispute Resolution (ICODR) ; Dominique Boullier, professeur de sociologie à Sciences Po Paris ; Hannes Westermann, professeur adjoint de droit et d’intelligence artificielle à l’université de Maastricht et au Maastricht Law and Tech Lab ; et Erik Bornmann, directeur des Parcours guidés à CLEO (Éducation juridique communautaire Ontario).

AI & Dispute Resolution: Online Dispute Resolution Standards

Leah Wing a ouvert la discussion en soulignant que l’IA peut accroître les possibilités d’accès à la justice, mais qu’elle peut également augmenter les risques. C’est pourquoi l’élaboration de normes en matière de règlement des différends en ligne (RDL) relatives à l’IA est devenue urgente.

Elle a fait valoir que les normes RDL intégrant l’IA doivent servir de garde-fous, et non pas comme des lignes directrices ambitieuses, mais comme des exigences minimales visant à garantir une utilisation éthique et équitable. Elle a souligné que l’IA peut améliorer l’efficacité, réduire les coûts, élargir les canaux de communication et même détecter les litiges avant qu’ils ne s’aggravent. Ces avantages illustrent les bouleversements positifs que la technologie peut apporter au droit et à la société, mais ils soulignent également la nécessité de mettre en place des mécanismes de gouvernance qui orientent l’IA vers le bien public.

Dre. Wing a souligné que les normes seules ne suffisaient pas ; elles doivent être soutenues par une législation, une réglementation et des lignes directrices spécifiques à la profession afin de former un écosystème complet de gouvernance de l’IA. Elle a encouragé la collaboration entre les disciplines et les juridictions, citant des exemples tels que la Cour d’appel du Québec comme modèles de mise en œuvre. Son message central était clair : l’IA peut transformer le règlement des litiges pour le bien public, mais uniquement si elle est guidée par des normes solides, applicables et transparentes.

Elle a également présenté brièvement le livre qu’elle a coécrit et qui a été récemment publié, intitulé « Governing Artificial Intelligence ». Ce livre aborde de multiples aspects de la réglementation de l’IA et explore différentes approches pour parvenir à une gouvernance efficace, notamment l’importance des normes internationales et professionnelles. Les auteurs soutiennent qu’une gouvernance efficace de l’IA nécessite un écosystème complet, reconnaissant ainsi que la réglementation, la législation ou les normes seules ne suffisent pas.

CLEO Guided Pathways: Using AI to Help Self-Represented Litigants Tell Their Stories

Erik Bornmann a présenté au public le projet Guided Pathways (Parcours guidés) de CLEO, qui vise à aider les justiciables qui se représentent eux-mêmes à comprendre leurs droits, à remplir les formulaires judiciaires, à rédiger des documents juridiques et à déterminer les prochaines étapes à suivre pour saisir un tribunal. CLEO propose actuellement plus de 103 parcours guidés en anglais et 73 en français, couvrant sept domaines du droit.

Avec l’essor de l’intelligence artificielle, l’équipe de CLEO s’intéresse de plus en plus à l’utilisation de cette technologie pour améliorer les parcours guidés et résoudre ce que l’intervenant a appelé le « paradoxe de l’arbre de décision ». Ce paradoxe reflète la tension entre la nécessité de recueillir toutes les informations requises pour établir une demande et la nécessité de simplifier le processus de narration pour les utilisateurs. Cette question a été au cœur d’une recherche de trois ans, qui a abouti à la publication d’un article en ligne l’année dernière.

M. Bornmann a ensuite présenté un parcours guidé dans lequel l’IA générative a été mise en œuvre. Ces parcours assistés par l’IA ne sont pas encore accessibles au public.

L’IA permet de générer un récit plus conforme au test juridique en utilisant les informations recueillies auprès de l’utilisateur. Des fonctionnalités telles que les suggestions ciblées aident les utilisateurs à remplir les détails manquants, tandis que les révisions mises en évidence font apparaître les déductions de l’IA pour qu’elles puissent être révisées par l’utilisateur. Ces outils préservent l’autonomie de l’utilisateur et réduisent les erreurs inaperçues, même si des défis subsistent en raison de la variabilité de l’IA, des déductions parfois incorrectes et des erreurs des utilisateurs dans les entrées de l’arbre de décision.

L’accent a été mis sur la confidentialité et le traitement des données. L’équipe travaille sur des solutions permettant de déidentifier et de réidentifier les données des utilisateurs en temps réel, ce qui permet d’utiliser de puissants LLM (grands modèles de langage) externes sans exposer d’informations sensibles. Cela s’avère particulièrement complexe lorsqu’il s’agit de données narratives non structurées, mais cela est considéré comme essentiel pour faire évoluer le système de manière responsable.

Une autre innovation en cours de développement est le téléversement de fichiers, qui permet aux utilisateurs de soumettre des documents tels que des déclarations sous serment. L’IA peut alors recouper les faits structurés avec des critères codifiés, signaler les informations manquantes et ainsi renforcer le récit de l’utilisateur. Les premiers résultats suggèrent que cette approche pourrait permettre de mettre en œuvre des listes de contrôle d’experts à grande échelle, en fournissant un accompagnement et en mettant en évidence les lacunes critiques.

La vision à long terme est celle d’un « coach juridique » IA qui accompagne les utilisateurs tout au long de leur parcours. Avant le parcours guidé, il pourrait analyser les documents initiaux et orienter les utilisateurs vers le bon processus. Ensuite, il pourrait suggérer des clarifications, demander des documents supplémentaires et guider la préparation des audiences. Pendant les audiences, il pourrait aider à organiser les preuves, rédiger des déclarations, structurer la prise de notes et interpréter les procédures.

Evaluation of AI Systems for Judicial Actors. A Protocol to Embed AI in Organizational Design

Dominique Boullier a commencé par souligner que les discussions ne devaient pas porter sur l’« IA » dans l’abstrait, mais sur les systèmes d’IA intégrés dans la conception organisationnelle. Ses recherches, menées avec des étudiants avant la sortie de ChatGPT, ont examiné la manière dont les professionnels du droit interagissent avec les technologies d’aide à la décision. L’accent a été mis sur le pluralisme des systèmes et la nécessité de les adapter aux processus réels des acteurs judiciaires, plutôt que de traiter l’IA comme une entité monolithique ou autonome.

À partir de travaux sur le terrain dans des cabinets d’avocats privés, M. Boullier a observé comment les professionnels s’approprient ces outils et comment le contexte organisationnel façonne leur utilisation. Il a insisté sur le fait que les systèmes d’IA ne sont jamais autonomes : ce sont des logiciels intégrés dans des flux de travail, des processus collectifs et des structures institutionnelles. L’évaluation doit donc aller au-delà des performances techniques pour prendre en compte l’intégration, l’autonomisation et l’autonomie des acteurs. L’un des principaux risques qu’il a identifiés est la « division de l’apprentissage », où les entreprises fournissant des systèmes d’IA extraient l’expertise des professionnels, laissant ces derniers moins aptes à améliorer leurs propres pratiques.

Pour remédier à cela, M. Boullier et son équipe ont développé une grille d’indicateurs combinant des dimensions quantitatives et qualitatives. Il est important de noter que l’évaluation était participative : les parties prenantes elles-mêmes ont évalué la pertinence et l’impact au sein de leurs environnements culturels et professionnels. La grille comprenait la cartographie des parties prenantes (internes et externes), l’analyse des bases de données d’apprentissage (sources, interopérabilité, mise à jour), des tests d’expérience utilisateur et la stratégie organisationnelle. Cette approche a mis en évidence la nécessité de descriptions précises et de tests continus, des pratiques souvent négligées dans l’adoption de l’IA.

M. Boullier a noté que de nombreux systèmes fonctionnaient bien au départ, mais perdaient rapidement de leur élan en raison d’un manque de formation, de mise à jour et d’intégration dans les flux de travail. Il a fait valoir que pour réussir, l’adoption nécessite une maintenance continue, une refonte et une transformation organisationnelle, ce qui est souvent plus exigeant que le développement technique lui-même.

En conclusion, M. Boullier a mis en garde contre le « déracinement des calculs », c’est-à-dire le risque que les résultats algorithmiques soient déconnectés des contextes organisationnels et culturels. Si les LLM peuvent réintroduire une certaine sémantique, ils restent des outils statistiques qui ne peuvent fournir une compréhension exhaustive. Pour les acteurs judiciaires, l’évaluation doit donc être participative, sensible au contexte et alignée sur les réalités organisationnelles. La confiance, la transparence et la participation des parties prenantes sont essentielles pour garantir que les systèmes d’IA renforcent les capacités des professionnels plutôt que de les affaiblir, et que leur intégration renforce les pratiques institutionnelles plutôt que de les compromettre.

Teaching Law in the Era of GenAI

Hannes Westermann a ensuite conclu le panel en abordant les implications et les défis découlant de l’avènement de l’intelligence artificielle générative dans l’enseignement du droit.

L’intervenant a ensuite présenté le dilemme consistant à former de futurs juristes bien outillés face à cette nouvelle réalité où l’IA est omniprésente, tout en veillant à ce qu’ils acquièrent et conservent les compétences essentielles d’un bon juriste. Il a ensuite montré comment l’IA pouvait être utilisée par les étudiants pour rédiger un mémoire de maîtrise en 20 minutes.

Selon le paneliste, l’utilisation de l’IA générative peut être expliquée à l’aide de trois analogies :

  • L’analogie avec la calculatrice : l’IA est un outil, mais la véritable réflexion de haut niveau appartient à la personne qui l’utilise.
  • L’analogie avec l’assistant de recherche : l’IA va au-delà du simple calcul, agissant comme une entité qui fournit un retour d’information et peut même corriger l’utilisateur.
  • L’analogie du chariot élévateur dans une salle de sport : l’IA est très efficace pour exécuter des tâches, mais les utilisateurs passent à côté des avantages et de l’apprentissage que leur procure le fait d’effectuer eux-mêmes le travail.

Il a ensuite résumé les lignes directrices relatives à l’IA qui ont été mises en œuvre à l’université de Maastricht, tant au niveau de l’université que de la faculté de droit. Ces lignes directrices reconnaissent la pérennité indéniable de l’IA dans l’avenir de la profession juridique, tout en fournissant aux étudiants de l’information sur les outils d’IA autorisés, à quelles fins et dans quelles conditions. Elles garantissent une utilisation responsable de l’IA, de la transparence et l’équité entre les étudiants.

En conclusion, M. Westermann se demande si nous devrions abandonner les examens au profit d’un système axé sur l’apprentissage perpétuel.

Résumé rédigé par Étienne Dussault.


Photos

Ce contenu a été mis à jour le 14 novembre 2025 à 9 h 34 min.