Vous l’utilisez lorsque vous demandez à Siri de téléphoner à votre mère, que vous cherchez le chemin le plus rapide sur Google Map pour vous rendre à votre rendez-vous ou encore lorsque vous recevez des recommandations de Netflix pour visionner telle nouvelle série ou ce documentaire dont vous n’aviez jamais entendu parler. C’est l’intelligence artificielle (IA). Les algorithmes au travail.

Ils sont partout désormais, et ils changent déjà la manière de pratiquer le droit. Et ce n’est qu’un début. L’IA vous facilitera la tâche, vous fera gagner du temps, vous aidera à préparer vos causes ainsi qu’à jauger leur chance de réussite et vous évitera des erreurs. Cependant, elle vous fera aussi vous questionner sur sa justesse et sur sa pertinence.

Par où commencer? D’abord par définir une réalité dont tout le monde parle, mais qui reste nébuleuse pour la plupart d’entre nous.

Définir l’IA

Il s’agit de l’ensemble des techniques «qui permettent à une machine de simuler l’intelligence humaine, notamment pour apprendre, prédire, prendre des décisions et percevoir le monde environnant», peut-on lire dans la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle. L’événement, qui s’est déroulé en décembre 2018, a réuni des citoyens, des experts et des responsables publics afin de discuter des enjeux éthiques et sociaux de l’IA.

Un «ensemble de techniques» qui a pour objet la reproduction artificielle des facultés cognitives de l’intelligence humaine «dans le but de créer des systèmes ou des machines capables d’exécuter des fonctions relevant normalement de celle-ci», décrit l’Office québécois de la langue française.

Dans le domaine du droit, l’IA permet à une nouvelle génération de logiciels d’apprendre à extraire les informations désirées de données non structurées, de les livrer et de permettre aux juristes de les utiliser «pour guider, choisir ou réellement prendre une action particulière», écrivait Joanna Goodman, en 2016, dans Robots in Law, How Artificial Intelligence is Transforming Legal Services.

À SOQUIJ, l’IA est définie comme: «Tout procédé de recherche et d’analyse des données visant à mieux comprendre les tendances qui ressortent de ces données, établir des statistiques pertinentes et créer des solutions technologiques capables de simuler l’intelligence humaine, dans le but de créer des outils qui améliorent les connaissances juridiques, améliorent les services et produits de SOQUIJ, permettent de les personnaliser ou encore permettent d’en développer de nouveaux.»

Votre pratique sera touchée par l’IA

Selon une étude réalisée en 2017 par la banque CIBC, le domaine du droit serait le onzième secteur d’activités le plus touché par l’IA. Des experts prédisent une baisse de 13 % d’heures facturées d’ici quelques années et Deloitte évalue que 39 % des tâches juridiques pourraient être remplacées par l’IA.

Ces tâches où l’IA intervient déjà et le fera encore plus dans l’avenir, vous les exécutez tous les jours: dans vos analyses juridiques, dans vos recherches, dans la rédaction, l’interprétation et la prise de décision. L’IA pourra prédire des chances de succès d’un recours lorsque vous construirez un argumentaire ou monterez une preuve électronique.

Les systèmes algorithmiques collectent et catégorisent automatiquement les informations importantes pour vous, et ce, à une vitesse folle. Un logiciel peut faire en quelques secondes ce qu’un juriste prendra des milliers d’heures à accomplir. Les algorithmes éliminent ainsi certaines tâches répétitives, consommatrices de temps et de ressources (donc d’argent). Ils permettent de réviser un important volume de documents et d’y relever des incohérences ou des clauses éventuellement problématiques.

Les systèmes d’IA font des liens entre des milliers de données pertinentes. L’analyse prédictive par la consultation de la jurisprudence permet ainsi de comparer des cas similaires. Des bases de données ouvertes, en open source, sont désormais accessibles, comme ceux de l’éditeur juridique américain LexisNexis.

L’IA améliore aussi l’accès à la justice. Outre les tribunaux virtuels qui l’utilisent déjà, la plateforme PARLe, élaborée par le Laboratoire de Cyberjustice et utilisée par l’Office de la protection du consommateur et par la Commission des normes, de l’équité, de la santé et de la sécurité du travail permet, entre autres choses, aux citoyens de négocier des offres de règlement à la lumière des informations reçues. «Quelles sont mes chances de succès et combien je peux espérer toucher?»

Rassurez-vous, ce n’est pas la fin de la profession juridique, tant s’en faut. Conseiller le client et créer un lien de confiance, interpréter des résultats, bâtir une stratégie, tout cela demeure. L’IA n’a ni émotion, ni intuition, ni créativité. Le domaine juridique demeure par ailleurs très difficile à modéliser, en raison des ambiguïtés de terminologie et des multiples interprétations de textes de loi. Par ailleurs, il manque aussi de données au Canada afin d’entraîner adéquatement les algorithmes. Une masse critique est essentielle si l’on souhaite arriver à faire de l’analyse prédictive.

Et, surtout, l’IA n’est pas exempte d’un problème atavique: les biais.

Les biais de l’IA

Partout, les mêmes interrogations et inquiétudes entourent l’avènement inéluctable de l’IA: Fera-t-elle perdre des emplois? Combien de laissez-pour-comptes des nouvelles technologies? Jusqu’où ira son intrusion dans notre vie privée?

Dans le domaine du droit et de la justice, l’opacité des systèmes entraîne des enjeux au niveau du contrôle et de la responsabilité. Qui sera responsable d’une erreur de la machine? Le manque d’explications représente aussi un enjeu important. Les utilisateurs ne peuvent comprendre le raisonnement de l’algorithme dans sa prise de décision. Si l’on connaît les données qui y ont conduit, on ne peut pas toujours expliquer les corrélations.

Toutefois, la principale préoccupation demeure son absence de neutralité. L’IA reproduit des biais.

C’est que les algorithmes sont créés par les humains qui tous et toutes ont des biais, qu’ils soient conscients ou non. Et les résultats discriminants parfois observés dans les recherches s’expliquent en grande partie par des données biaisées, utilisées pour entraîner les algorithmes, qui deviennent à leur tour biaisés. «Les biais peuvent porter sur la non-représentativité de la population ou simplement refléter les biais structurels de la société», écrit Céline Castets-Renard, () professeure de droit à l’Université d’Ottawa et coresponsable de l’axe Relations internationales, action humanitaire, droits humains de l’Observatoire international sur les impacts sociétaux de l’IA et du numérique.

Historiquement, certaines communautés ethniques ou sociales ont été discriminées par le système judiciaire. Cette discrimination s’est reflétée dans les jugements des tribunaux. https://www.assurance-barreau.com/fr/articles-maitres-droits/articles/intelligence-artificielle-pratique/ Or, les algorithmes utilisent ces jugements pour formuler des recommandations ou faire des prédictions. On peut ainsi craindre que l’IA ne reproduise des situations discriminatoires.

Il s’agit d’une préoccupation mondiale qui déborde le cadre juridique. Il existe des mesures préventives pour reconnaître et contourner ces biais. Nous y reviendrons.

Print Friendly, PDF & Email