Pour les personnes qui se représentent seules devant les tribunaux, il peut être tentant d’avoir recours à l’intelligence artificielle (IA) pour préparer un dossier. Or, citer des sources juridiques proposées par ChatGPT ou Gemini ou encore déposer des documents rédigés à l’aide de l’IA forcent la partie adverse et les décideurs à faire beaucoup de recherches pour vérifier les sources et réfuter les arguments invoqués. Les tribunaux québécois ont d’ailleurs publié des directives officielles pour encadrer l’utilisation de l’IA.
Dans une décision récente rendue par la Cour du Québec, Division des petites créances, en matière de vices cachés, un juge a rappelé à la demanderesse l’importance d’avoir recours à des sources officielles fiables:
Note quant à l’utilisation de l’intelligence artificielle
37. L’utilisation de l’intelligence artificielle présente plusieurs attraits pour les justiciables qui hésitent parfois à recourir aux services d’un juriste pour connaître l’étendue de leurs droits et obligations. Il est désormais très facile, pour quiconque a accès à Internet, d’interroger un outil d’intelligence artificielle afin d’obtenir des informations sur l’état de la jurisprudence.
38. C’est ce qu’a fait l’Acheteuse. À la fin de l’audience, elle a remis au Tribunal une liste de quatre décisions accompagnées d’un court résumé des faits, de citations et du résultat dans chaque cas. Ces décisions, censées traiter de situations similaires à celle en litige, étaient les suivantes :
- Leblanc c. Lacasse, C.Q. 2005 - (Berger allemand reproducteur infertile)
- Girard c. Roy, 2012 QCCQ 7854 - (Chien de reproduction non conforme)
- Beaulieu c. Ferland, 2009 QCCQ 3249 - (Étalon vendu infertile)
- Bujold c. Élevage du Nord, 2018 QCCQ 1649 - (Bouvier Bernois atteint d’un vice héréditaire)
39. Or, ces quatre décisions sont des hallucinations générées par l’intelligence artificielle: elles n’existent tout simplement pas. Les références neutres mentionnées (2012 QCCQ 7854, 2009 QCCQ 3249 et 2018 QCCQ 1649) renvoient à d’autres jugements sans lien avec des ventes d’animaux infertiles.
40. L’objectif du présent commentaire n’est pas de reprocher quoi que ce soit à l’Acheteuse, qui a informé le Tribunal que la liste provenait de ChatGPT. Le Tribunal saisit plutôt l’occasion pour mettre en garde contre l’utilisation de l’intelligence artificielle à des fins de recherche juridique. En plus de fournir des informations erronées, ces outils peuvent, comme en l’espèce, laisser croire à un justiciable que des cas similaires ont été jugés en sa faveur, ce qui est de nature à induire en erreur.
41. En définitive, si l’intelligence artificielle peut constituer un outil d’appoint, elle ne saurait remplacer la rigueur et la fiabilité des sources officielles. La justice repose sur la preuve et sur le droit applicable, non sur des réponses générées par un algorithme. Un outil conversationnel d’intelligence artificielle ne crée pas de jurisprudence et ne peut, en aucun cas, servir de fondement à une décision judiciaire.
Punir l’usage inapproprié de l’IA
Devant d’autres instances, des justiciables ont d’ailleurs été réprimandés pour avoir fait un usage inapproprié de l’IA. C’est le cas du défendeur dans Specter Aviation Limited c. Laprade, qui se représentait seul. Il a été condamné à payer 5 000 $ pour avoir déposé une contestation faisant référence à des citations «hallucinées» par l’IA. Cette affaire a d’ailleurs fait l’objet d’un billet de blogue d’un de mes collègues l’automne dernier.
Dans un autre litige en matière de droit du travail (Syndicat des travailleuses et travailleurs de L'Autre Maison -- CSN et Centre L'Autre Maison inc. (Khaled Sasa)), c’est le procureur de la partie patronale qui avait présenté des références jurisprudentielles fausses générées par un outil d’IA. L’arbitre de griefs a rappelé à l’ordre la procureure, membre de l’Ordre des conseillers en ressources humaines agréés, et il l’a incitée à faire preuve d’une grande vigilance à l’avenir, mais il n’a toutefois pas jugé opportun d’ordonner une sanction aussi sévère que celle retenue dans Specter Aviation Limited.
Dans Bourse de Immobilier Multilogements inc. c. Lanthier, un défendeur a aussi été condamné à payer 750 $ à la partie adverse pour avoir déposé une procédure contenant plusieurs citations jurisprudentielles fictives générées à l’aide d’un outil d’IA, et ce, même s’il n’avait pas l’intention de tromper le tribunal.
Un guide pour l’utilisation responsable de l’IA générative
Enfin, pour en savoir plus sur l’utilisation responsable de l’IA générative, le Barreau du Québec a publié un guide destiné aux personnes qui se représentent seules devant les tribunaux. On y trouve notamment des conseils pratiques et une liste de ressources juridiques fiables.