La technologie de reconnaissance faciale : droits, risques et réglementation nécessaire

IMAGES/Sean Gladwell

Par Brenda McPhail

La technologie de reconnaissance faciale (TRF) risque d’anéantir notre droit à l’anonymat dans les espaces publics et semi-publics. Cela semble alarmiste. Excessif même. Et pourtant, ce n’est pas exagéré. Ce constat découle d’une observation fondée sur les promesses faites par les fabricants de logiciels de TRF. La technologie NeoFace Watch de NEC Corporation promet d’être en mesure de « traiter plusieurs flux de caméras pour y extraire et apparier des milliers de visages par minute »[1]. Le logiciel de reconnaissance faciale controversé (et illégal au Canada)[2] de Clearview AI utilise une base de données de plus de 30 milliards d’images extraites de l’Internet[3].

Pour mieux en comprendre les dangers, il est essentiel de savoir comment fonctionnent les technologies de reconnaissance faciale. La TRF est un type de technologie biométrique (c’est-à-dire basée sur le corps humain) qui utilise des algorithmes d’intelligence artificielle (IA) et d’autres outils informatiques pour identifier les individus par leurs caractéristiques faciales. La TRF fonctionne en extrayant des informations biométriques basées sur des caractéristiques faciales spécifiques et en établissant des comparaisons entre des modèles biométriques vivants et d’autres modèles stockés dans des bases de données. Autrement dit, elle utilise nos visages dans le cadre d’un processus d’appariement technologique pour déterminer qui nous sommes. En outre, un certain nombre d’études indiquent que certains outils de la TRF sont moins précis sur les visages qui ne sont ni blancs ni masculins, ce qui augmente le risque d’erreur d’identification pour toutes personnes hors de ces deux catégories[4].

Cette technologie peut être utilisée de différentes manières. La version extrême – la reconnaissance faciale en direct dans les rues de nos localités – n’est pas, à notre connaissance, utilisée actuellement par la police canadienne. Elle a cependant été testée à l’aéroport Pearson de Toronto[5]. En revanche, les forces de police du Canada ont de plus en plus recours aux TRF pour comparer des images soi-disant « légalement puisées » dans des bases de données de photos d’identité judiciaires, en grande partie sans préavis, sans consultation véritable, sans contrôle public efficace et sans obligation de rendre des comptes.

Bien entendu, les forces de police ou de sécurité nationale ne sont pas les seules qui veulent s’en servir. La reconnaissance faciale fait son apparition de diverses manières dans le secteur privé. En voici quelques exemples : la recherche en direct de voleur⋅ses à l’étalage présumé⋅es dans le flux d’images des caméras de sécurité de Canadian Tire[6], une histoire qui a fait la une des journaux lorsqu’une personne autochtone a été identifiée à tort; la vérification de l’identité d’étudiant⋅es pour des examens en ligne; la possibilité de payer les achats à l’aide d’un balayage du visage relié à une carte de paiement[7].

L’utilisation des TRF est une question de droits de la personne qui va bien au-delà des préoccupations liées à la protection de la vie privée. Cette dernière est un droit précurseur, un portail en quelque sorte. Une fois ce portail franchi, nous perdons le contrôle des informations qui nous concernent (en particulier notre visage, élément fondamental de notre identité). L’utilisation de ces informations se répercute sur d’autres droits démocratiques protégés par la Charte, notamment la liberté d’expression, la liberté d’association et les droits en matière d’égalité. Lorsque nous sommes observés et reconnus, nous sommes moins enclin⋅es à nous exprimer sur des questions controversées. Nous sommes moins enclin⋅es à nous rassembler pour protester et défendre les causes auxquelles nous croyons. Lorsque nous sommes observé⋅es et reconnu⋅es, toutes les incidences discriminatoires du racisme, du sexisme, du capacitisme systémiques et de l’exclusion socio-économique intégrées dans les systèmes sociaux, en particulier les systèmes de sécurité, sont susceptibles d’être exacerbées. La TRF renforce l’efficacité du regard inquisiteur – si souvent dirigé de manière disproportionnée vers les personnes racisées ou marginalisées – pour le transformer de « nous t’avons vu » à « nous savons qui tu es ».

Si les résident⋅es du Canada ne peuvent plus se déplacer au sein de leur collectivité comme un simple visage dans la foule, la nature de la société dans laquelle nous vivons s’en trouve fondamentalement bouleversée. Dans une démocratie respectueuse des droits, nous nous attendons à ce que l’État ne nous observe pas – et, certainement, ne nous identifie pas – systématiquement et sans discernement, une attente confirmée par les arrêts de la Cour suprême du Canada[8]. La reconnaissance faciale a le potentiel de perturber, voire d’éliminer cette attente légitime. De même, la présomption d’innocence, principe démocratique fondamental, serait érodée si la TRF était utilisée sans discernement dans les espaces publics. Et penser que cette hypothèse est improbable, qu’elle ne pourrait se produire que dans un État autoritaire, sachons que notre allié du Groupe des cinq, le Royaume-Uni, expérimente activement avec la TRF en direct[9].

L’application potentiellement étendue de la TRF, le large éventail d’acteurs qui souhaitent l’utiliser et sa capacité à être mise en œuvre secrètement à l’aide de caméras de sécurité existantes, rendent impératif le débat public essentiel pour déterminer si certaines utilisations de la TRF sont acceptables dans notre société. Si oui, lesquelles sommes-nous prêt⋅es à autoriser, et comment les réglementer pour en atténuer les risques? La discussion a commencé lors de la récente étude suivie du rapport du Comité permanent de l’accès à l’information, de la protection des renseignements personnels et de l’éthique (ETHI), dans le cadre de laquelle l’Association canadienne des libertés civiles (ACLC), la Coalition pour la surveillance internationale des libertés civiles (CSILC) et d’autres organismes ont formulé des recommandations détaillées. Les 19 recommandations du rapport reflètent certaines de nos préoccupations, notamment l’appel à la mise en œuvre d’un moratoire fédéral sur l’utilisation de la TRF, jusqu’à ce qu’un cadre réglementaire concernant les utilisations, les interdictions, les mécanismes de surveillance et de responsabilité, et les protections de la vie privée soit démocratiquement débattu et appliqué[10].

C’est ce qu’il faut faire, compte tenu de ce qui est en jeu. En février 2023, le gouvernement a publié sa réponse au rapport, réponse qui passe sous silence la gravité des défis posés par la TRF et l’IA. La société civile se mobilise pour combler cette lacune. Une coalition de groupes et d’individus de partout au Canada, dirigée notamment par l’ACLC et la CSILC, s’est réunie sous la bannière de Right 2 Your Face Coalition. Cette large coalition a pour but de concevoir un plaidoyer percutant sur la réglementation de cette technologie dangereuse et de s’assurer qu’un large éventail de points de vue d’intérêt public soient intégrés et promus auprès des décideur⋅ses. Dans une lettre ouverte, cette coalition a soulevé un certain nombre de préoccupations majeures concernant la réponse du gouvernement. Cette réponse ignore les appels à un moratoire fédéral sur l’utilisation de la TRF et elle n’assume pas son rôle de direction en matière de politique technologique responsable. De plus, elle s’appuie largement sur le projet de loi C-27 (Loi de mise en œuvre de la Charte numérique, 2022) comme solution globale, malgré l’incapacité de ce dernier à protéger adéquatement les droits à la vie privée des individus ou à contrôler les outils de l’IA[11].

Le Canada doit adopter une approche fondée sur les droits humains pour élaborer de nouvelles lois fédérales et provinciales intersectorielles concernant les protections biométriques. Il lui faut également mettre à jour les lois existantes, notamment la Loi canadienne sur les droits de la personne et la Loi sur la protection de la vie privée, afin de réglementer de manière appropriée et, dans les cas de surveillance de masse, d’interdire l’utilisation des TRF. Il existe de nombreux exemples dans le monde où une législation sur la protection biométrique a été récemment adoptée ou est en cours d’examen, ici même au Canada, précisément au Québec[12]. Pour un processus réussi, il faut commencer par consulter de manière proactive les communautés les plus susceptibles d’être touchées de manière disproportionnée par cette technologie.

Nous disposons d’une fenêtre politique pour agir, mais elle se referme rapidement à mesure que la TRF gagne du terrain dans l’ensemble du pays, souvent de manière discrète ou secrète. Les Canadien⋅nes méritent d’être libres de vivre leur vie sans être identifié⋅es. Comme le souligne à juste titre le comité ETHI dans son rapport : « En l’absence d’un cadre [législatif] approprié, la TRF et d’autres outils de l’IA pourraient causer des préjudices irréparables à certaines personnes. Les risques sont manifestes. Les droits en jeu sont multiples. Il est temps d’apporter une réponse sociale et politique ».


Brenda McPhail fait de la recherche et du plaidoyer dans le domaine de la protection de la vie privée et de la technologie. Elle est directrice de la formation des cadres au programme de maîtrise en politique publique de la société numérique à l’Université McMaster. Right2yourface.ca

Notes de bas de page

[1] NEC, Montre NeoFace : comment fonctionne la reconnaissance des visages, 2023 [en anglais seulement] https://www.nec.com/en/global/solutions/biometrics/face/neofacewatch.html

[2] Enquête conjointe sur Clearview AI inc. par le Commissariat à la protection de la vie privée du Canada, la Commission d’accès à l’information du Québec, le Commissariat à l’information et à la protection de la vie privée de la Colombie-Britannique et le Commissariat à l’information et à la protection de la vie privée de l’Alberta. Conclusions en vertu de la LPRPDE no 2021-001 https://priv.gc.ca/fr/mesures-et-decisions-prises-par-le-commissariat/enquetes/enquetes-visant-les-entreprises/2021/lprpde-2021-001/

[3] Clearview AI, Application de la loi, 2023 [en anglais seulement] https://www.clearview.ai/law-enforcement

[4] La publication d’ouvrages dans ce domaine est abondante. Deux ouvrages importants : Joy Buolamwini et Timnit Gebru, Proceedings of the 1st Conference on Fairness, Accountability and Transparency, PMLR 81:77-91, 2018; et Patrick Grother, Mei Ngan, et Kayee Hanaoka, Face Recognition Vendor Test Part 3, Demographic Effects, NIST, 2019. La technologie continue toutefois d’évoluer et il est important de savoir que si la technologie devient plus précise, elle ne règle qu’un seul petit problème, alors que plusieurs autres subsistent.

[5] Tom Cardoso et Colin Freeze, Ottawa tested facial recognition on millions of travellers at Toronto’s Pearson airport in 2016, The Globe and Mail, 19 juillet 2021 [en anglais seulement] https://www.theglobeandmail.com/canada/article-ottawa-tested-facial-recognition-on-millions-of-travellers-at-torontos/

[6] Austin Grabish, First Nations man wants apology after being flagged as shoplifter, asked to leave Canadian Tire store, CBC News, 19 octobre 2022 [en anglais seulement] https://www.cbc.ca/news/canada/manitoba/first-nation-apology-store-accused-1.6620457

[7] Pour un aperçu des utilisations de la reconnaissance faciale au Canada, voir : La reconnaissance faciale expliquée : comment la TRF est-elle utilisée au Canada? Brenda McPhail, ACLC, 6 décembre 2022 https://ccla.org/fr/privacy/facial-recognition-explained-how-is-frt-used-in-canada/

[8] Comme l’a déclaré la Cour dans l’affaire R. v. Jarvis, 2019 SCC 10 [2019] 1 S.C.R. 488 : « La vie privée, telle qu’elle est habituellement comprise, n’est pas un concept tout ou rien, et le fait de se trouver dans un espace public ou semi-public n’annule pas automatiquement toutes les attentes en matière de vie privée en ce qui concerne l’observation ou l’enregistrement »

[9] Metropolitan Police, Facial Recognition, 2023 [en anglais seulement] https://www.met.police.uk/advice/advice-and-information/fr/facial-recognition

[10] Rapport du Comité permanent de l’accès à l’information, de la protection des renseignements personnels et de l’éthique sur la technologie de reconnaissance faciale et le pouvoir grandissant de l’intelligence artificielle, octobre 2022 https://www.ourcommons.ca/Content/Committee/441/ETHI/Reports/RP11948475/ethirp06/ethirp06-f.pdf [ETHI]

[11] Right 2 Your Face Coalition, Lettre conjointe sur un sujet préoccupant. Une réponse au rapport sur la TRF et l’IA de la commission ETHI et à la réponse du gouvernement, 21 juin 2023 [en anglais seulement] https://right2yourface.ca/open-letter/

[12] Voir la Loi sur la protection des renseignements personnels dans le secteur privé, CQLR P-39.1, récemment modifiée par la Loi de modernisation de la législation sur la protection de la vie privée (Loi 25) au Québec. D’autres exemples incluent la Loi sur la protection des renseignements biométriques de l’Illinois 740 ILCCS 14, la Loi sur les renseignements relatifs aux identificateurs biométriques, le Code administratif de la ville de New York, Titre 22, Chapitre 12 et la Loi de l’État de Washington relative aux identificateurs biométriques, et ajoutant un nouveau chapitre au Titre 19 RCW, H.B. 1493

Retour à la table des matières

Puisque vous êtes ici…

… nous avons une faveur à vous demander. À la CSILC, nous travaillons sans relâche afin de protéger et promouvoir les droits humains et les libertés civiles dans le contexte de la soi-disant “guerre au terrorisme” au Canada. Nous ne recevons aucune aide financière des gouvernements municipaux, provinciaux et fédéral, ni d’aucun parti politique.Vous pouvez devenir notre mécène sur Patreon et recevoir des récompenses en échange de votre soutien. Vous pouvez donner aussi peu que 1$ par mois (c’est seulement 12$ par année!) et vous pouvez vous désabonner en tout temps. Tout don nous aidera à poursuivre notre travail.support-usVous pouvez également faire un don unique ou donner mensuellement par Paypal en cliquant sur le bouton ci-dessous. Vous hésitez à donner? Consulter la page sur nos nombreuses Réalisations et Acquis depuis 2002. Merci de votre générosité!