« Les prédictions de l’avenir ont toujours été associées à une poignée de personnes extraordinaires, en particulier le célèbre Nostradamus, dont les prophéties continuent à fasciner le monde. Aujourd’hui, à l’ère de l’accès rapide à l’information juridique, nul besoin d’un don divin, mais plutôt d’un regard critique sur l’actualité juridique pour pouvoir entrevoir les contours du monde judiciaire de demain. Ce billet de blogue met en lumière les principaux enjeux qui façonneront le paysage juridique canadien au cours de la prochaine décennie.

1.     La discrimination systémique multimodale

De l’action collective Stonechild c. R.[1], autorisée par la Cour fédérale pour la «rafle du nouveau millénaire»[2], à celle intentée à la suite de la révélation des incidents de stérilisation forcée et de violences obstétricales endurées par des femmes autochtones au Québec[3], arrivant à l’affaire Gordon-Kawapit c. Procureur général du Québec[4], autorisée au nom des Inuits victimes des crimes au Nunavik[5], il semble évident que l’enjeu de la discrimination systémique occupera les tribunaux au cours des prochaines années.

Néanmoins, les juges seront davantage appelés à se prononcer sur une nouvelle forme de discrimination: celle générée par les algorithmes de l’IA. L’affaire Beaulieu c. Facebook inc.[6], récemment autorisée par la Cour d’appel du Québec au nom des personnes qui auraient été discriminées par le ciblage publicitaire de Facebook en raison de leur race, de leur sexe ou de leur âge[7], marque les prémices de cet enjeu.

Dans son appréciation des questions communes soulevées dans l’affaire, l’honorable Marie-France Bich met en exergue la principale préoccupation en matière d’IA, que nous pouvons résumer ainsi: «Qui est responsable des biais algorithmiques?»[8]. La juge Bich établit les interrogations qui en découlent comme suit:

«[…] Les intimées peuvent-elles être tenues responsables d’annonces d’emploi ou de logement qui ne sont pas les leurs, mais qu’elles se contentent de diffuser selon les préférences des annonceurs? Dans l’affirmative, à quelles conditions? Sont-elles technologiquement capables de contrôler les annonces d’emploi ou de logement qui circulent sur la plateforme Facebook afin d’éliminer le ciblage fondé sur la race, le sexe ou l’âge, que ce ciblage provienne de leurs propres algorithmes ou des préférences des annonceurs? […] À supposer qu’elles soient considérées comme des intermédiaires offrant un service de communication, les intimées seraient-elles dégagées de toute responsabilité en raison des dispositions de la Loi concernant le cadre juridique des technologies de l’information[9]? […]»[10] .

Cette réflexion fort importante suscite de grands espoirs, notamment quant à l’interprétation tant attendue des dispositions de la Loi concernant le cadre juridique des technologies de l’information (LCCJTI) évoquées par la juge Bich[11] concernant la «responsabilité des intermédiaires techniques». En effet, le principe de «non-responsabilité des intermédiaires» institué par cette loi, adoptée il y a plus de 20 ans[12], n’est plus adapté au contexte actuel de prolifération des plateformes numériques. Le professeur Pierre Trudel souligne dans ce sens que «[l]e recours tous azimuts à des technologies disruptives est facilité par des retards à mettre les lois à niveau»[13]. Ainsi, la propagation des pratiques repréhensibles sur les plateformes numériques, comme le mentionne le professeur Trudel, est favorisée par «l’usage non encadré de ces dispositifs technologiques « disruptifs » dits « intelligents »»[14] .

Nous espérons donc que les juges, qui sont «non seulement des adjudicateurs mais aussi des interprétateurs et créateurs de droit» [15], renonceront à ce principe de non-responsabilité dans leur jugement sur le fond de cette affaire, et paveront ainsi la voie à une réforme de la LCCJTI, voire même à la conception éventuelle d’un nouveau «droit des plateformes numériques» qui permettra de mieux encadrer les activités de ces plateformes et de limiter les risques associés[16] .

Ainsi, pour que nos espérances soient réalisables, les juges seront mis au défi de sortir de leur «zone de confort interprétatif».

2.     La nécessité d’une rupture avec la « zone de confort interprétatif »

Dans sa décision dans l’affaire Beaulieu c. Facebook inc.[17], la juge Bich précise que :

    «[…] le droit est bien établi et sa souplesse intrinsèque lui permet de s’adapter aux circonstances. La Charte des droits et libertés de la personne[18] peut ainsi s’ajuster aux nouvelles formes de discrimination susceptibles d’émerger dans le monde numérique et, pareillement, l’action collective aux réalités naissant de l’usage de réseaux sociaux comme Facebook […]»[19] (nos soulignements).

Bien que nous nous ralliions à cette observation et reconnaissions que les «vieux textes législatifs»[20] ont une merveilleuse capacité à s’adapter aux nouvelles situations [21], il convient de souligner que ceux-ci restent pourtant insuffisants pour englober toutes les particularités de l’environnement numérique[22]. Par exemple, dans Tardif-Audy c. Magasin Latulippe inc.[23], l’une des «rares» décisions qui tiennent compte des particularités du commerce électronique[24], le juge a conclu à l’existence d’un «contrat à distance» sur la base de l’interprétation de l’article 54.1 de la Loi sur la protection du consommateur[25] (ci-après «L.P.C.»). L’application de cette disposition a ainsi permis une meilleure protection du consommateur numérique que celle conférée par l’article 1385 du Code civil du Québec[26] (ci-après «C.C.Q.»), appliquée dans l’affaire Faucher c. Costco Wholesale Canada Ltd.[27] et qui a amené à la constatation d’une proposition plutôt que d’une offre et, par la suite, à l’absence d’une relation contractuelle entre les parties[28].

Cette tendance des tribunaux à interpréter le «vieux droit»[29] plutôt que les «nouvelles dispositions législatives» adaptées aux nouvelles réalités technologiques imposées au monde juridique[30] a créé, selon le professeur Vincent Gautrais, «un vrai fossé normatif; pas un vide, surtout pas, mais une zone qui passe sous le radar»[31]. Ce fossé risque de se creuser davantage, faute d’une adaptation jurisprudentielle à l’évolution accélérée de l’environnement normatif des nouvelles technologies de l’IA.

3. La nécessité d’une adaptation accélérée à l’évolution de l’environnement normatif des technologies de l’IA

Si les tribunaux ont réussi à encadrer les activités de commerce électronique en interprétant simplement le «vieux droit», cette stratégie sera certainement inefficace dans le cas des technologies de l’IA, vu les mutations fulgurantes de l’environnement dans lequel elles évoluent. Ainsi, le «fossé normatif» déjà existant risque de se creuser encore et l’État de droit risque ensuite de s’effondrer devant les géants de la «tech». Le professeur Hugues Bersini souligne ce danger en déclarant que «[l]es algorithmes pourraient finir par se substituer à la loi»[32].

Cela dit, une adaptation rapide des tribunaux aux nouvelles dispositions législatives régissant les nouvelles technologies de l’IA s’avère indispensable. Une telle adaptation permettrait une meilleure mise en œuvre de ces nouvelles lois, d’autant plus que, selon le professeur Gautrais, «la loi interprétée entend jouer un rôle plus mécanique dans les situations en lien avec le numérique»[33].

Parmi les nouvelles lois dans ce domaine, et qui entreront en vigueur au Canada au cours des 10 prochaines années, figurent les suivantes:

Au niveau provincial :

La Loi modernisant des dispositions législatives en matière de protection des renseignements personnels[34] 

Cette loi, dite «loi 25», est partiellement en vigueur au Québec depuis septembre 2022, et sera pleinement effective en 2024[35]. Elle oblige notamment les organisations à adopter des mesures proactives pour prévenir ou limiter les conséquences des incidents de confidentialité[36]. Nous espérons que cette loi entraînera un virage jurisprudentiel important, surtout après le rejet de l’affaire Lamoureux c. Organisme canadien de réglementation du commerce des valeurs mobilières (OCRCVM)[37], première action collective à être jugée au fond au Québec et au Canada, au motif que le défaut de protection des renseignements personnels a priori ne constitue pas une faute engendrant automatiquement un préjudice[38].

La Loi sur les renseignements de santé et de services sociaux et modifiant diverses dispositions législatives 

Ce projet de loi, dit «PL3», vise à doter le Québec d’un cadre législatif complet en matière d’accès et d’utilisation de renseignements de santé et de services sociaux (RSSS). Une circulation plus fluide et sécuritaire des RSSS est ainsi visée[39].

Au niveau fédéral :

La Loi de 2022 sur la mise en œuvre de la Charte numérique

Ce projet de loi, dit «C-27», déposé par le gouvernement fédéral le 16 juin 2022, est actuellement en deuxième lecture[40]. Il propose de légiférer, entre autres, la Loi sur la protection de la vie privée des consommateurs, qui vise à assurer une meilleure protection des renseignements personnels «recueillis, utilisés, ou communiqués dans le cadre d’activités commerciales»[41]. Elle impose ainsi de nouvelles obligations aux organisations, notamment en matière d’élaboration d’un programme de gestion et de protection des renseignements personnels[42].

Cette loi, si elle est adoptée, devrait bouleverser la position des tribunaux des provinces de common law, notamment l’Ontario, qui ont adopté une appréciation très étroite et limitée du «délit d’intrusion dans l’intimité». Cette interprétation restrictive fait en sorte que les tribunaux refusent de responsabiliser les entreprises ayant été victimes de cyberattaques, peu importe les mesures préalables qu’elles ont prises pour protéger les renseignements recueillis et stockés à des fins commerciales[43]. En guise d’exemple, la Cour d’appel de l’Ontario a rejeté, le 25 novembre 2022, la trilogie d’actions collectives, Owsianik v. Equifax Canada Co.[44], Obodo v. Trans Union of Canada Inc.[45], et Winder v. Marriott International Inc.[46], pour cette même raison[47].

Notons également que le projet de loi C-27 propose aussi de légiférer la Loi sur l’intelligence artificielle et les données. Cette loi, si elle est adoptée, serait la première loi au Canada à encadrer l’IA en dehors de la législation relative à la protection de la vie privée[48].

La Loi concernant la cybersécurité, modifiant la Loi sur les télécommunications et apportant des modifications corrélatives à d’autres lois

Ce projet de loi, dit «C-26», vise à légiférer une loi fédérale sur la cybersécurité afin de protéger les infrastructures essentielles[49]. Il a déjà fait couler beaucoup d’encre quant à l’efficacité de son adoption et à son effet réel sur la cybersécurité du pays[50].

4. L’inflation des actions collectives en matière d’IA

Dans sa décision historique dans l’affaire Beaulieu c. Facebook inc., la juge Bich a souligné la capacité de l’action collective à s’ajuster «[..] aux réalités naissant de l’usage de réseaux sociaux comme Facebook»[51]. Nous ne pouvons que saluer cette observation et reconnaître l’adaptabilité de ce véhicule procédural extraordinaire à la nature collective des préjudices générés par l’exploitation abusive des nouvelles technologies de l’IA. Les tribunaux doivent donc s’attendre à une inflation d’actions collectives dans le domaine de l’IA au cours des prochaines années[52]. Ainsi, une aggravation du problème de congestion dont souffrent les tribunaux depuis plusieurs années marquerait la prochaine décennie[53].  

Cependant, ces actions collectives, si elles sont bien jugées au mérite, pourront conférer de grands pouvoirs aux juges, notamment en termes d’«incitation à la modification des comportements préjudiciables», mise en exergue dans l’arrêt Western Canadian Shopping Centers Inc. c. Dutton[54]. En effet, non seulement Facebook, mais aussi les autres GAFAM[55], seront incités à respecter les normes éthiques[56] dans leurs activités, en raison des sommes astronomiques à verser dans le cadre d’une action collective. Ainsi, l’action collective pourrait réaffirmer son rôle d’instrument de justice sociale[57] qui rétablit l’équilibre de pouvoirs entre les citoyens, d’une part, et les géants de la tech, d’autre part.

En définitive, les enjeux engendrés par l’exploitation des nouvelles technologies de l’IA poseront de nombreux défis aux tribunaux canadiens au cours de la prochaine décennie. Cependant, la proactivité de l’État dans la réglementation de ces nouvelles réalités technologiques, jumelée à notre confiance dans la flexibilité de nos tribunaux et de leur capacité à maîtriser l’interprétation du «nouveau droit» tout comme celle du «vieux droit», nous donne beaucoup d’espoirs pour l’avenir. Il reste à savoir si nos prédictions juridiques parviendront à se concrétiser.

Print Friendly, PDF & Email