OTTAWA –
L’Agence des services frontaliers du Canada prévoit mettre en œuvre une application qui utilise la technologie de reconnaissance faciale pour suivre les personnes qui ont reçu l’ordre d’être expulsées du pays.
L’application mobile de signalement utiliserait la biométrie pour confirmer l’identité d’une personne et enregistrerait ses données de localisation lorsqu’elle utilise l’application pour s’enregistrer. Des documents obtenus grâce à l’accès à l’information indiquent que l’ASFC a proposé une telle application dès 2021.
Un porte-parole a confirmé qu’une application appelée ReportIn sera lancée cet automne.
Les experts soulèvent de nombreuses inquiétudes, remettant en question la validité du consentement des utilisateurs et le secret potentiel entourant la manière dont la technologie prend ses décisions.
Chaque année, environ 2 000 personnes ayant reçu l’ordre de quitter le pays ne se présentent pas, ce qui signifie que l’ASFC « doit consacrer des ressources considérables à enquêter, localiser et, dans certains cas, détenir ces clients », indique un document de 2021.
L’agence a présenté une application pour smartphone comme une « solution idéale ».
Recevoir des mises à jour régulières via l’application sur « l’adresse résidentielle, l’emploi, la situation familiale, entre autres choses, d’une personne permettra à l’ASFC de disposer d’informations pertinentes qui pourront être utilisées pour contacter et surveiller le client afin de détecter tout indicateur précoce de non-conformité », a-t-il déclaré.
« De plus, grâce à l’automatisation, il est plus probable que le client se sente impliqué et reconnaisse le niveau de visibilité que l’ASFC a sur son dossier. »
De plus, le document indique : « Si un client ne se présente pas pour son retrait, les informations recueillies via l’application fourniront de bonnes pistes d’enquête pour localiser le client. »
Une évaluation de l’impact algorithmique du projet, qui n’a pas encore été publiée sur le site Web du gouvernement fédéral, a indiqué que la technologie vocale biométrique que l’ASFC essayait d’utiliser était progressivement abandonnée en raison d’une « technologie défaillante », et qu’elle avait développé l’application ReportIn pour la remplacer.
Il a déclaré que « les données biométriques faciales et la localisation d’une personne, fournies par des capteurs et/ou le GPS de l’appareil mobile/smartphone » sont enregistrées via l’application ReportIn puis envoyées au système back-end de l’ASFC.
Une fois que les gens soumettent des photos, un « algorithme de comparaison faciale » générera un score de similarité avec une photo de référence.
Si le système ne confirme pas la correspondance faciale, il déclenche un processus permettant aux agents d’enquêter sur l’affaire.
« La localisation des individus est également collectée à chaque fois qu’ils se présentent et si la personne ne respecte pas ses conditions », précise le document. Le document précise que les individus ne seront pas « constamment suivis ».
L’application utilise la technologie d’Amazon Web Services. C’est un choix qui a retenu l’attention de Brenda McPhail, directrice de la formation des cadres du programme de politique publique sur la société numérique de l’Université McMaster.
Elle a déclaré que si de nombreuses entreprises de reconnaissance faciale soumettent leurs algorithmes à des tests auprès du National Institute of Standards and Technology des États-Unis, Amazon ne l’a jamais fait volontairement.
Un porte-parole d’Amazon Web Services a déclaré que sa technologie Amazon Rekognition est « testée de manière approfondie, notamment par des tiers comme Credo AI, une société spécialisée dans l’IA responsable, et iBeta Quality Assurance ».
Le porte-parole a ajouté qu’Amazon Rekognition est un « système basé sur le cloud à grande échelle et n’est donc pas téléchargeable comme décrit dans les directives de participation du NIST ».
« C’est pourquoi notre système Rekognition Face Liveness a été soumis à des tests selon les normes de l’industrie auprès d’iBeta Lab », qui est accrédité par l’institut en tant que laboratoire de test indépendant, a déclaré le porte-parole.
Le document de l’ASFC précise que l’algorithme utilisé sera un secret commercial. Dans une situation qui pourrait avoir des conséquences qui pourraient changer la vie des gens, McPhail a demandé s’il était « approprié d’utiliser un outil protégé par des secrets commerciaux ou des secrets exclusifs et qui prive les gens du droit de comprendre comment les décisions les concernant sont réellement prises ».
Kristen Thomasen, professeure agrégée et titulaire de la chaire de droit, de robotique et de société à l’Université de Windsor, a déclaré que la référence aux secrets commerciaux est un signal qu’il pourrait y avoir des obstacles juridiques bloquant les informations sur le système.
On s’inquiète depuis des années du fait que les personnes sujettes à des erreurs dans les systèmes se voient légalement interdire d’obtenir plus d’informations en raison des protections de la propriété intellectuelle, a-t-elle expliqué.
La porte-parole de l’ASFC, Maria Ladouceur, a déclaré que l’agence « a développé cette application pour téléphone intelligent pour permettre aux ressortissants étrangers et aux résidents permanents soumis à des conditions d’application des lois sur l’immigration de se présenter sans se rendre en personne dans un bureau de l’ASFC ».
Elle a déclaré que l’agence avait « travaillé en étroite collaboration » avec le Commissariat à la protection de la vie privée sur l’application. « L’inscription à ReportIn sera volontaire et les utilisateurs devront consentir à la fois à l’utilisation de l’application et à l’utilisation de leur image pour vérifier leur identité. »
Petra Molnar, directrice adjointe du laboratoire de droit des réfugiés de l’Université York, a déclaré qu’il existe un déséquilibre de pouvoir entre l’agence qui met en œuvre l’application et les personnes qui la reçoivent.
« Une personne peut-elle réellement consentir dans cette situation où il existe un énorme différentiel de pouvoir ? »
Si une personne ne consent pas à participer, elle peut se présenter en personne comme alternative, a déclaré Ladouceur.
Thomasen a également averti qu’il existe un risque d’erreurs avec la technologie de reconnaissance faciale, et que ce risque est plus élevé pour les personnes racialisées et les personnes à la peau plus foncée.
Molnar a déclaré qu’il était « très troublant qu’il n’y ait pratiquement aucune discussion sur les impacts sur les droits de l’homme dans les documents ».
Le porte-parole de l’ASFC a déclaré que Credo AI avait examiné le logiciel pour déceler les préjugés à l’encontre des groupes démographiques et avait constaté un taux de correspondance faciale de 99,9 % dans six groupes démographiques différents, ajoutant que l’application « sera continuellement testée après son lancement pour évaluer sa précision et ses performances ».
La décision finale sera prise par un humain, les agents supervisant toutes les soumissions, mais les experts ont noté que les humains ont tendance à faire confiance aux jugements rendus par la technologie.
Thomasen a déclaré qu’il existe une « tendance psychologique assez largement reconnue chez les gens à s’en remettre à l’expertise du système informatique », les systèmes informatiques étant perçus comme étant moins biaisés ou plus précis.