ARCHIVÉE – Mise à l’essai de la biométrie sur le terrain
Cette page Web a été archivée dans le Web.
Information archivée dans le Web
Information archivée dans le Web à des fins de consultation, de recherche ou de tenue de documents. Cette dernière n’a aucunement été modifiée ni mise à jour depuis sa date de mise en archive. Les pages archivées dans le Web ne sont pas assujetties aux normes qui s’appliquent aux sites Web du gouvernement du Canada. Conformément à la Politique de communication du gouvernement du Canada, vous pouvez la demander sous d’autres formes. Ses coordonnées figurent à la page « Contactez-nous »
Section 6 : Rendement du système biométrique
6.1 Contexte
Cette section décrit les résultats du rendement des systèmes biométriques lors des essais sur le terrain. Elle examine la qualité des empreintes digitales et des photographies transmises ainsi que le rendement des deux systèmes biométriques en matière de comparaison. La liste des indicateurs de rendement est fournie à la section 4.1, Méthode d’évaluation.
Les essais sur le terrain consistaient à recueillir, aux fins de l’enregistrement dans une base de données, dix empreintes digitales et une photographie chaque fois qu’un client demandait un visa à l’un des bureaux des visas participants. Puis, lorsque le client arrivait à un point d’entrée participant au Canada, une empreinte digitale était prélevée à des fins de vérification, afin de confirmer que le voyageur était bien la personne qui avait obtenu le visa.
Tout le travail de comparaison a été effectué à la Section de comparaison de l’Administration centrale (SCAC). La comparaison consistait à rechercher les photographies numérisées et les images d’empreintes digitales dans la base de données des essais sur le terrain pour les 18 264 clients inscrits, qui comprenaient 14 854 demandeurs de visa de résident temporaire et 3 410 demandeurs d’asile.
6.1.1 Types de comparaison biométrique automatisée
Trois types de comparaison biométrique ont été utilisés pour les essais sur le terrain :
- Comparaison de type un à plusieurs de toutes les photographies de clients qui présentent une demande. Les photographies entrées dans la base de données dans le cadre des essais sur le terrain ont été comparées les unes avec les autres afin de déterminer s’il existait des doubles et de détecter les tentatives de fraude potentielles. Sur les 18 264 clients inscrits, 41 n’avaient aucune photographie associée dans la base de données en raison d’une erreur d’un opérateur, et deux (2) avaient omis de s’inscrire. Ce processus de comparaison consistait donc à comparer les 18 221 photographies les unes avec les autres. Les résultats des 332 004 841 comparaisons relatives à la reconnaissance faciale sont présentés à la section 6.2.
- Comparaison de type un à plusieurs des dix empreintes digitales des 11 623 [note 6] ensembles d’empreintes digitales enregistrés. La répartition est fournie à la figure 6‑A. Ce processus a aidé à déterminer le nombre de tentatives multiples faites soit en toute honnêteté, par des clients ayant présenté des demandes multiples en vue d’obtenir un visa, soit de façon frauduleuse. Ce processus de comparaison consistait donc à comparer les 11 623 ensembles de dix empreintes digitales les uns avec les autres. Les résultats de ces 135 094 129 concordances potentielles d’empreintes digitales sont présentés à la section 6.3.
Figure 6‑A : Enregistrements initiaux d’empreintes digitales

- « Concordance un à plusieurs » d’une seule empreinte digitale présentée au point d’entrée pour comparaison avec les dix empreintes digitales du client initialement enregistrées. Le processus consistait à comparer les 918 [note 7] empreintes digitales uniques présentées au point d’entrée par les titulaires de visa au numéro de dossier correspondant de l’ensemble de dix empreintes digitales enregistré.
Lorsqu’une comparaison conduisait à une ou plusieurs correspondances possibles—lorsque la cote de similarité biométrique était supérieure au seuil défini par CIC, les experts judiciaires évaluaient les correspondances suggérées et les acceptaient ou les rejetaient. Conformément aux règles établies pour les essais sur le terrain, que les correspondances aient été acceptées ou rejetées, les données résultantes n’ont été fournies à aucun point d’entrée ou bureau des visas participant, pas plus qu’à l’Unité de traitement des cas de réfugiés à l’accueil.
6.1.2 Examen par les experts judiciaires des correspondances biométriques automatisées suggérées
Les experts judiciaires qui ont examiné les correspondances suggérées ont utilisé des écrans similaires à ceux qui sont présentés ci-dessous.
Les comparaisons pouvaient être effectuées pour une recherche individuelle ou pour une recherche groupée. L’utilisateur effectuant la comparaison à la Section de comparaison de l'Administration centrale pouvait choisir de comparer les visages seulement, les empreintes digitales seulement ou une combinaison des deux. Lorsque la comparaison était basée sur une combinaison, l’utilisateur devait spécifier si les résultats devaient être classés principalement dans les résultats relatifs au visage ou dans ceux relatifs aux empreintes digitales.
La figure 6‑B présente un écran d’examen de correspondance de niveau 1 d’échantillon. [note 8] Pour cette comparaison, un enregistrement contrôlé était comparé essentiellement sur la base du visage. Toutes les cotes de reconnaissance faciale se situent au-dessus de 72,25 qui est le meilleur seuil d’équilibre, selon les experts judiciaires, entre les correspondances fondées et les faux rejets pour les essais sur le terrain. L’écran montre également les cotes pour les empreintes digitales, le nom et la date de naissance (si disponible). Disposer des deux cotes s'est avéré extrêmement utile pour l’analyse.
Figure 6‑B : Écran d’examen de correspondance de niveau 1

Source: Enregistrement de démo.
*Enregistrement contrôlé : modèle biométrique utilisé pour effectuer une recherche dans une (des) base(s) de données
La figure 6‑C présente un écran d’examen d’échantillon de niveau 2. Cet écran a été utilisé pour visualiser une image de résultat de correspondance donnée—photographie, empreintes digitales du pouce et de l’index—côte à côte avec l’enregistrement contrôlé (la photographie originale) recherché dans la base de données.
Figure 6‑C : Écran d’examen de correspondance de niveau 2

La figure 6‑D présente l’écran de niveau 3 pour une empreinte digitale. Cet écran a été utilisé pour agrandir les images de l’enregistrement contrôlé et du résultat côte à côte.
Figure 6‑D : Écran d’examen de correspondance de niveau 3

Source: Enregistrement de démo
6.2 Reconnaissance faciale
6.2.1 Rendement des enregistrements liés à la reconnaissance faciale
Sur les 18 264 dossiers enregistrés, 18 223 comportaient des photographies (41 enregistrements ne comportaient pas de photographies). La base de données comprenait 14 816 photographies de demandeurs de visas, numérisées par balayage et entrées dans le système aux bureaux de visas, à 300 points au pouce, et 3 407 [note 9] photographies de demandeurs d'asile, prises à l’aide de LiveScan à l’Unité de traitement des cas de réfugiés à l’accueil à Toronto.
Le temps d’enregistrement de la collection de photographies comprenait la numérisation par balayage et le cadrage, ce qui prenait environ dix secondes, plus environ 30 secondes pour la sauvegarde de la photographie dans le serveur. Cela comprenait le temps nécessaire pour créer une photographie de 3,25 Ko fortement comprimée, destinée à être enregistrée sur une puce et disponible pour des recherches ultérieures.
Échec de l’enregistrement des photographies
Le système utilisé pour les essais sur le terrain tentait d’enregistrer chaque photographie numérisée par balayage et accordait à chacune une cote de qualité de 1 à 100. Si une photographie ne pouvait pas être enregistrée, le système donnait à la photographie une cote de zéro et la plaçait dans la section « Échec de l’enregistrement » de la base de données.
Sur les 18 223 photographies devant être enregistrées, seules deux (2) n’ont pu l’être, le total des photographies ayant été enregistrées avec succès aux fins de comparaison étant de 18 221. Le premier cas était une photographie d’enfant prise trop près de l’appareil photographie, avec une pose à un angle de 30 degrés. Dans le second cas, le logiciel de reconnaissance faciale n'a pas pu enregistrer l’image parce que la personne avait une blessure à l’œil.
Qualité des photographies
La qualité des photographies a été examinée sous trois aspects :
- Cotes d’enregistrement des photographies générées par le système;
- Conformité des échantillons sélectionnés avec les normes de l’Organisation de l’aviation civile internationale (OACI), tels qu’analysés par les experts judiciaires à trois périodes différentes de l’essai sur le terrain plutôt que seulement au début de l’essai;
- Conformité de toutes les photographies de clients qui ont fait l’objet d’une vérification au point d’entrée avec les normes de l’OACI, tels qu’analysés par les experts judiciaires.
La figure 6‑E indique que, pour le système biométrique, les photographies de visa numérisées par balayage ont été de meilleure qualité que les photographies de demandeurs d'asile aux fins de la reconnaissance faciale. [note 10]
Figure 6‑E : Cotes de qualité des photographies générées par le système
La figure 6-F montre que, bien que les cotes générées par le système pour les demandeurs de visa soient plus élevées que celles des demandeurs d'asile, on observe peu de différence entre les sexes.
Figure 6‑F : Cotes générées par le système pour les demandeurs de visa et les demandeurs d'asile, par sexe

La figure 6-G indique le niveau de conformité tel que déterminé par l’examen de 300 photographies-échantillons des bureaux des visas avant les essais sur le terrain. La qualité des photographies avant les essais, en termes de conformité aux normes de l’OACI, était assez faible. Par conséquent, l’équipe chargée de la mise en œuvre a amélioré les outils de formation et les lignes directrices sur les spécifications avant le lancement des essais.
Figure 6-G : Conformité des photographies prises aux bureaux des visas avec les normes de l’OACI — Avant les essais sur le terrain
Définitions
- Niveau 1 : Répond à toutes les spécifications de l’OACI
- Niveau 2 : Une ou deux violation(s) mineures de l’OACI
- Niveau 3 : Violation(s) importante(s) de l’OACI
La figure 6-H indique le niveau de conformité tel que déterminé par l’examen de 600 photographies-échantillons durant tout l’essai sur le terrain. La qualité de photographies des essais sur le terrain en termes de conformité aux normes de l’OACI s’est considérablement améliorée durant les essais et est devenue assez bonne.
Figure 6-H : Conformité des photographies avec les normes de l’OACI — Durant les essais sur le terrain
La figure 6-I présente les résultats de l’évaluation, par les experts judiciaires, d’un échantillon de photographies de clients qui ont fait l’objet d’une vérification au point d’entrée durant les essais sur le terrain.
Figure 6-I : Évaluation des experts judiciaires—Photographies de clients avec un enregistrement de vérification d’empreintes digitales au dossier

Source : Vérifications/évaluation par les experts judiciaires
Définitions de la qualité
Niveau 1 : Photographies acceptées
Niveau 2 : Photographies acceptées malgré une légère violation de l’OACI
Niveau 3 : Rejetées = Plusieurs violations de l’OACI
La fiabilité de nombreux aspects du logiciel de reconnaissance faciale a été analysée. La qualité de près de 80 % des photographies a été examinée. Les problèmes détectés, très peu nombreux, se sont produits lorsque les spécifications fournies par CIC pour les photographies n'ont pas été respectées. Les problèmes pourraient vraisemblablement être éliminés avec l'expérience et de meilleures directives.
Les problèmes rencontrés comprennent ce qui suit :
- Éclairage : Certaines des photographies ont été prises avec trop ou trop peu d’éclairage, ce qui fait qu’elles étaient trop sombres ou trop claires pour que l’on voie tous les traits.
- Tête inclinée à gauche, à droite, vers le haut ou vers le bas : Le fait que la tête soit inclinée a causé des difficultés importantes pour le moteur de recherche, en particulier lorsqu’elle était inclinée vers le bas ou vers le haut.
- Lunettes : Les montures de lunettes qui masquent le haut des yeux et créent un reflet dans la lentille ont causé des difficultés pour le moteur de recherche.
- Cheveux : Les cheveux qui obstruent les traits du visage ont aussi causé des problèmes.
- Petites photographies : Certaines photographies étaient simplement trop petites, ce qui rendait la visualisation difficile.
6.2.2 Rendement des correspondances pour la reconnaissance faciale—Seule et combinée avec les empreintes digitales
Il y a eu 18 221 enregistrements réussis lors des essais sur le terrain. On n’a trouvé des paires de photographies correspondantes que lorsque des personnes avaient présenté plus d’une demande de visa ou avaient présenté une demande de visa puis une demande d’asile.
Sur la base de recherches de nom, de l’interrogation des systèmes existants de CIC et de l’examen approfondi de correspondances biométriques, il a été déterminé que 364 personnes avaient interagi au moins deux fois avec CIC durant les essais sur le terrain et avaient donc fourni au moins deux photographies. Certaines de ces personnes ont présenté trois ou quatre demandes durant les essais.
Ces situations ont permis à CIC d’analyser le rendement de comparaison du système biométrique. L’analyse a montré que les correspondances possibles étaient de 394. Les 30 paires qui s’ajoutent aux 364 personnes ayant interagi au moins deux fois avec CIC durant les essais sur le terrain sont attribuables aux personnes qui ont présenté trois ou quatre demandes.
Sur les 394 paires (Figure 6‑J) :
- Dans 195 cas, CIC disposait des photographies ainsi que des empreintes digitales pour la comparaison;
- Dans 182 cas, CIC disposait uniquement des photographies pour la comparaison;
- Dans 17 cas, CIC disposait uniquement des empreintes digitales pour la comparaison (en raison d’erreurs opérationnelles).
Figure 6-J : Répartition des comparaisons biométriques
Les correspondances proposées dans les centaines de possibilités suivent souvent une tendance. Par exemple, si la personne a les cheveux longs, la plupart des correspondances proposées ont les cheveux longs. Si la personne porte des lunettes ou un couvre-chef, la plupart des correspondances proposées portent des lunettes ou un couvre-chef.
Cette tendance n’a toutefois pas semblé poser de problème important. Si le visage de la personne comparée se trouvait effectivement dans la base de données, le système trouvait la bonne correspondance.
Lorsque les spécifications fournies par CIC pour les photographies étaient suivies, le logiciel de reconnaissance faciale s'est avéré un outil précieux, effectuant avec succès une comparaison avec les milliers de visages entrés dans la base de données, ce qu’un humain n’aurait jamais pu accomplir en si peu de temps.
6.2.3 Correspondance pertinente avec photographie seulement
Sur les 394 correspondances possibles, 182 paires de correspondances possibles ont été trouvées en utilisant la reconnaissance faciale seule, car ces personnes n’avaient pas soumis deux ensembles d’empreintes digitales ou plus. Dans trois cas, la cote de reconnaissance faciale a dépassé le seuil établi par les experts judiciaires, de sorte que le système a généré trois fausses non-correspondances (pourcentage de correspondances pertinentes de 98,1 %).
Sur les 394 correspondances possibles, il y a eu 195 correspondances potentielles qui ont pu être effectuées grâce à une combinaison de la reconnaissance faciale et des empreintes digitales. Si l’on examine uniquement le rendement du système de reconnaissance faciale, la cote de la reconnaissance faciale pour les correspondances pertinentes a dépassé le seuil fixé par les experts judiciaires dans 183 cas (93,8 %).
Au total, CIC a obtenu 377 correspondances potentielles en utilisant la reconnaissance faciale. Le nombre de correspondances exactes obtenues par CIC a été de 362 (96,0 %). Sur ces correspondances exactes, pour 98,8 %, il s’agissait de la photographie classée au 1er rang.
6.2.4 Correspondance exacte de l’identité avec la photographie combinée aux empreintes digitales
Sur les 394 correspondances possibles, 195 correspondances potentielles ont été trouvées en utilisant une combinaison de la reconnaissance faciale et des empreintes digitales.
En examinant le rendement des deux systèmes biométriques combinés pour cet ensemble de correspondances potentielles, CIC a constaté ce qui suit :
- En utilisant les cotes de reconnaissance faciale ou d’empreintes digitales au‑dessus des seuils respectifs, toutes les correspondances de 100 % étaient exactes.
- En utilisant les cotes de reconnaissance faciale ainsi que les cotes d’empreintes digitales et en établissant une correspondance uniquement si les résultats biométriques dépassaient les seuls respectifs, seules 179 correspondances ont été obtenues (91,8 %).
- Pour les correspondances établies en utilisant les empreintes digitales ainsi que les photographies, CIC a conclu que les deux systèmes biométriques étaient adéquats pour confirmer une correspondance positive. Toutefois, en utilisant la reconnaissance faciale ou les empreintes digitales seules, deux paires dépassant le seuil recommandé n’ont pas été détectées. Les deux non‑correspondances erronées obtenues pour la reconnaissance faciale ne concernaient pas les mêmes personnes que les non‑correspondances erronées obtenues pour les empreintes digitales. Lorsqu’ils étaient combinés, les deux systèmes biométriques permettaient d’obtenir toutes les correspondances,par rapport à seulement 155 (98,7 %) si un seul système biométrique était utilisé.
6.3 Reconnaissance des empreintes digitales
6.3.1 Rendement de l’enregistrement des empreintes digitales
La section 8 décrit les délais d’enregistrement des dix empreintes digitales (les empreintes groupées 4 + 4 + 2) et des empreintes digitales uniques prélevées à des fins de vérification. Le reste de cette section porte sur la qualité des deux types d’empreintes digitales.
La qualité des empreintes digitales a été examinée sous les angles suivants :
- L’évaluation par les experts judiciaires des dix empreintes digitales enregistrées après avoir examiné les quelque 3 000 échantillons prélevés dans le cadre des essais sur le terrain.
- Les cotes des empreintes digitales enregistrées générées par le système pour tous les ensembles de dix empreintes digitales enregistrés.
- L’évaluation par les experts judiciaires des 918 empreintes digitales saisies aux fins de vérification et des ensembles de dix empreintes digitales enregistrés correspondants par opposition aux cotes générées par le système.
- La comparaison des demandeurs de visa par rapport aux cotes des modèles des demandeurs d’asile. Un modèle est constitué des données biométriques générées par le système et utilisées pour comparer les personnes entre elles. Des cotes pour la qualité des modèles ont été nécessaires plutôt que des cotes pour la qualité des images, parce que les dossiers importés pour les demandeurs d'asile ne comprenaient pas de cotes pour la qualité des images.
6.3.2 Évaluation par les experts judiciaires de la qualité des ensembles de dix empreintes digitales enregistrés
Après avoir effectué une évaluation initiale de la qualité des empreintes digitales en examinant les images d’empreintes, plusieurs problèmes ont été établis. Un examen des empreintes digitales qui n’avaient pas été enregistrées par l’algorithme des empreintes digitales a montré que quelque 3 000 impressions convenables n’avaient pas été enregistrées. [note 11]
La figure 6-K présente des exemples d’images d’empreintes digitales qui n’ont pas été enregistrées dans le système biométrique et qui ont été mises de côté dans un fichier d’images dont l’enregistrement a échoué.
Figure 6-K : Empreintes digitales qui n’étaient pas enregistrées

Au départ, plusieurs images de haute qualité n’ont pas été enregistrées dans le système biométrique, bien que plusieurs images de qualité médiocre l’aient été. Voir la figure 6‑L pour des exemples d’images de qualité médiocre qui ont été enregistrées.
Figure 6-L : Empreintes digitales qui n’auraient pas dû être enregistrées
Après que l’on eut exprimé ces préoccupations au fournisseur, un nouvel algorithme biométrique a été inclus dans le progiciel et le problème a été résolu.
Un second problème établi était l’image fantôme—une image différente incluse avec les images saisies pour certaines empreintes digitales. Souvent, l’image fantôme était de meilleure qualité que l’image réelle. Il semble que ce problème ait été observé dans des ensembles consécutifs. Il s'est produit durant le processus de calibrage initial des dispositifs de saisie d’empreintes digitales LS2. Si une main ou des doigts se trouvaient sur la plaque de verre du dispositif durant l’initialisation de l’appareil, l’image de la main ou des doigts était incluse avec chaque image d’empreinte digitale prise avec cet appareil. Ce problème a été réglé grâce à la distribution d’un communiqué aux employés leur demandant de s’assurer qu’aucun doigt ne se trouve sur le lecteur lors du processus d’initialisation.
Voir la figure 6‑M, qui donne des exemples de problèmes d’images fantômes.
Figure 6‑M : Images fantômes
Un autre problème a été rencontré : les images tronquées, dans lesquelles une partie de l’image des empreintes digitales est coupée. Ce problème s’est produit parce que les empreintes groupées n’ont pas été placées entièrement dans la zone de numérisation par balayage acceptable, ce qui fait que seule une partie de certains doigts a été enregistrée. Le problème est attribuable à une combinaison d’erreurs d’opérateurs et de logiciel. Les images provenaient de bureaux des visas et de zones de contrôle secondaire de l’immigration aux points d’entrée. La SCAC a observé ce phénomène d’images d’empreintes digitales tronquées principalement avec les empreintes digitales uniques prélevées aux fins de vérification. Comme la zone de numérisation par balayage acceptable indiquée ne correspond pas précisément à la zone de numérisation par balayage réelle, les opérateurs pouvaient ne pas savoir que les images n’étaient pas bien saisies. Toutefois, certaines images étaient si tronquées qu’il semble que l’opérateur n’ait pas prêté attention à ce que les empreintes digitales du client soient placées dans la zone adéquate. (Note : En raison de contraintes liées aux opérations et aux installations, les opérateurs ne pouvaient pas toujours voir où les clients plaçaient leurs doigts.) Voir la figure 6‑N, qui fournit un exemple d’images tronquées.
Figure 6‑N : Empreintes digitales tronquées / Figure 6‑O : Empreintes digitales coupées
La qualité générale (85 % à 90 %) des images d’empreintes digitales était excellente. Toutes les images de qualité médiocre étaient généralement attribuables à l’âge du sujet ou à d’autres facteurs. Les images de qualité médiocre ne résultaient pas de l’équipement ou de l’opérateur, mais du fait que les empreintes digitales du client aient insuffisamment de détails de crête pour la saisie.
L’évaluation par les experts judiciaires de la qualité a été basée sur l’analyse de la clarté de l’ensemble des empreintes digitales—avec quelle clarté les détails de la crête papillaire sont transférés d’un objet en trois dimensions (la peau) à un objet en deux dimensions (la plaque de verre).
Lorsqu’on évalue une empreinte digitale, les trois niveaux de détail suivants sont examinés (normes pour les spécialistes d’empreintes digitales du monde entier).
Le niveau 1 de détail fait référence à la forme générale du tracé des empreintes digitales inconnues — un verticille, une boucle ou autre. Ce niveau de détail ne peut pas être utilisé pour individualiser, mais il peut aider à restreindre la recherche.

Le niveau 2 de détail fait référence à des tracés spécifiques de la crête papillaire—mouvement général des crêtes papillaires et grandes déviations de la crête (caractéristiques de la crête) comme les arrêts de ligne, lacs, îles, bifurcations, cicatrices, crêtes naissantes et plis de flexion.

Le niveau 3 de détail fait référence aux détails intrinsèques présents dans une empreinte digitale—pores, unités de la crête, détails des bords, cicatrices, etc.

6.3.3 Évaluation des empreintes digitales enregistrées générée par le système
Les cotes des empreintes digitales enregistrées auto-générées par le système biométrique pour tous les ensembles de dix empreintes digitales des essais sur le terrain sont présentées ci-dessous. Les figures 6‑P à 6‑Q montrent que le système biométrique a accordé pratiquement la même cote moyenne aux empreintes digitales des deux missions participantes.
Figure 6-P : Cotes d’empreintes digitales de Seattle par mois
Figure 6‑Q : Cotes d’empreintes digitales de Hong Kong par mois
Figure 6-R : Répartition des cotes de qualité des ensembles de dix empreintes digitales
Figure 6‑S : Cote de qualité des empreintes digitales, par sexe
Figure 6‑T : Cote de qualité des empreintes digitales, par âge
6.3.4 Évaluation par les experts judiciaires des empreintes digitales enregistrées aux fins de vérification
Les experts judiciaires ont examiné les images enregistrées dans le système biométrique et leurs cotes de qualité. Les tableaux 6‑A et 6‑B présentent les cotes générées par le système, ainsi que l’évaluation par les experts judiciaires de la façon dont les empreintes digitales seraient jugées en utilisant les définitions de normes des experts judiciaires.
Tableau 6‑A
| Gamme des cotes du système | Nombre | % |
|---|---|---|
| Gamme 1 : 90‑100 | 29 | 3 % |
| Gamme 2 : 80‑89 | 274 | 30 % |
| Gamme 3 : 70‑79 | 314 | 34 % |
| Gamme 4 : 60‑69 | 251 | 27 % |
| Gamme 5 : 50‑59 | 28 | 3 % |
| Gamme 6 : > 50 | 22 | 2 % |
| Total | 918 | ‑ |
Tableau 6‑B
| Gamme des évaluations des experts judiciaires | Nombre | % |
|---|---|---|
| Gamme 1 : 90‑100 | 74 | 8 % |
| Gamme 2 : 80‑89 | 303 | 33 % |
| Gamme 3 : 70‑79 | 304 | 33 % |
| Gamme 4 : 60‑69 | 153 | 17 % |
| Gamme 5 : 50‑59 | 33 | 4 % |
| Gamme 6 : > 50 | 51 | 6 % |
| Total | 918 | ‑ |
Le tableau 6‑C montre comment les valeurs ci-dessus se traduisent en définitions de normes des experts judiciaires.
Tableau 6‑C
| Classement des experts judiciaires | Nombre | % |
|---|---|---|
| Niveau 3 (Gamme 1, 2) | 377 | 41,1 % |
| Niveau 2 (Gamme 3, 4) | 457 | 49,8 % |
| Niveau 1 et en dessous (Gamme 5, 6) | 84 | 9,2 % |
| Total | 918 | ‑ |
Le tableau 6‑D montre la différence entre la cote du système et l’évaluation des experts judiciaires.
Tableau 6‑D
| Évaluation des experts judiciaires | Nombre | % |
|---|---|---|
| D’accord avec le système | 557 | 61 % |
| Pas d’accord avec le système | 361 | 39 % |
| Cote augmentée par les experts judiciaires | 232 | 25 % |
| Cote baissée par les experts judiciaires | 129 | 14 % |
| Total | 918 | 100 % |
Le tableau 6‑E et la figure 6‑U montrent la qualité des empreintes digitales (les dix), telle qu’évaluée par les experts judiciaires, pour celles prélevées aux fins de vérification.
Tableau 6‑E : Qualité des empreintes digitales saisies aux fins de vérification
| Commentaires des experts judiciaires | Nombre | % |
|---|---|---|
| Qualité suffisante | 645 | 70 % |
| Images fantômes | 59 | 6 % |
| Images coupées | 199 | 22 % |
| Bas | 39 | 4 % |
| Côté | 4 | 0 % |
| Haut | 146 | 16 % |
| Zones multiples | 10 | 1 % |
| Empreintes digitales médiocres | 2 | 0 % |
| Problèmes multiples | 9 | 1 % |
| Distorsion numérique | 3 | 0 % |
| Autres | 1 | 0 % |
| Total | 918 | ‑ |
Figure 6‑U : Qualité des images aux fins de vérification selon les experts judiciaires

L’analyse effectuée par les experts judiciaires a montré que dans environ 70 % des cas, les empreintes digitales étaient de qualité convenable. Plusieurs facteurs, y compris les images fantômes, ont réduit la qualité des images d’empreintes digitales. Comme le phénomène des images fantômes a été découvert au début des essais sur le terrain et corrigé, il ne devrait pas avoir de conséquences importantes dans l’avenir. Un autre problème, qui représentait 22 % des problèmes, est la coupure de parties des images. Certaines empreintes digitales étaient coupées en haut, sur le côté ou en bas, ce qui rendait la recherche difficile. Ce problème peut être facilement réglé en utilisant un logiciel corrigé et en formant mieux les opérateurs. Tous les autres problèmes étaient mineurs et ne représentaient pas plus de 1 % de la totalité des problèmes. Les plus importants étaient des images médiocres n’ayant pas suffisamment de détails de crête papillaire en raison de l’âge ou du travail.
6.3.5 Cotes des enregistrements pour les demandeurs de visa par rapport aux cotes des enregistrements pour les demandeurs d’asile
Pour les demandeurs d’asile, le dossier du NIST (la norme internationale pour l’échange d’information sur les empreintes digitales) du système LiveScan ne fournit pas de cotes de qualité pour les images d’empreintes digitales; toutefois, il fournit des cotes d’enregistrement pour les modèles. Comme ces paramètres sont également disponibles pour les empreintes digitales liées aux visas, les figures 6‑V et 6‑W comparent les ensembles de dix empreintes digitales groupées prélevés pour les demandeurs de visa avec les ensembles de dix empreintes roulées [note 12] prélevés pour les demandeurs d’asile.
Figure 6‑V : Cote de qualité des modèles d’empreintes digitales pour les demandeurs de visa
Figure 6-W : Cote de qualité des modèles d’empreintes digitales pour les demandeurs d'asile
6.3.6 Rendement de la comparaison des empreintes digitales—Comparaison de type un à plusieurs
Sur les 18 264 fichiers créés au cours des essais sur le terrain, 8 213 ensembles de dix empreintes digitales ont été prélevés sur des demandeurs de visa et 3 410 sur des demandeurs d'asile, ce qui a donné une galerie* de 11 623 ensembles de dix empreintes digitales, comme le montre la figure 6‑X.
Figure 6-X : Nombre d’ensembles initiaux de dix empreintes
*Une galerie est un ensemble d’images biométriques enregistrées qui seront comparées lors de la recherche
La comparaison d’ensembles multiples de dix empreintes digitales a été possible dans le cas des personnes qui :
- avaient présenté des demandes de visa multiples;
- avaient présenté une demande de visa ainsi qu’une demande d’asile.
Tel que décrit à la section 6.2.2, les essais sur le terrain ont porté sur 18 264 clients enregistrés, et 364 personnes ont interagi au moins deux fois avec CIC durant les essais. Il y a eu un total de 394 paires de correspondances possibles.
Les résultats obtenus pour la comparaison des empreintes digitales combinée à la reconnaissance faciale sont présentés à la section 7.3.2.
6.3.7 Correspondance pertinente pour l’identité
Sur les 394 correspondances possibles, 17 paires de correspondances possibles ont été obtenues en utilisant les empreintes digitales seules parce que les personnes avaient fourni des photographies incorrectes ou invalides. Dans tous les cas, la cote de correspondance dépassait le seuil établi par les experts judiciaires, de sorte que le système a généré un taux de correspondances pertinentes de 100%.
Sur les 394 correspondances possibles, 195 ont été obtenues en utilisant une combinaison de reconnaissance faciale et de comparaison des empreintes digitales. En examinant seulement le rendement de la comparaison des empreintes digitales, les cotes des correspondances pertinentes ont dépassé le seuil fixé par les experts judiciaires dans 191 cas (97,9 %).
Au total, CIC a obtenu 212 correspondances potentielles en utilisant les empreintes digitales, et le nombre de correspondances exactes était de 208 (98,1 %). Lorsque CIC a élevé le seuil en vue de faire passer le taux de correspondances pertinentes à 100 %, 2 (0,9 %) correspondances incorrectes (également appelées fausses correspondances) ont été incluses.
6.3.8 Rendement de la comparaison—Un à un
Sur les 8 213 ensembles de dix empreintes digitales prélevés pour les demandeurs de visa, 918 empreintes digitales uniques prélevées aux points d’entrée ont été enregistrées dans le système biométrique aux fins de comparaison un à un. Bien que tous aient été priés de présenter leur index droit, CIC a demandé que le système compare l’empreinte digitale présentée à toutes (généralement dix) les empreintes digitales enregistrées. Il y a à cela deux grandes raisons qui devraient être souhaitables pour un système entièrement mis en œuvre :
Les dix empreintes digitales se trouvent dans le système, de toute façon. Comparer l’empreinte digitale unique à l’ensemble des empreintes digitales de la personne
- élimine le risque que l’agent demande au voyageur de présenter le mauvais doigt ou que le voyageur place le mauvais doigt sur l’appareil, entraînant ainsi un faux rejet.
- Cette approche, qui permet à l’agent de demander n’importe quel doigt, au hasard, réduit la probabilité qu’un voyageur tente de déjouer le système avec une fausse empreinte digitale.
Les résultats de la vérification sont présentés ci-dessous. Les empreintes digitales impropres ont été jugées par les experts judiciaires comme des empreintes de trop mauvaise qualité pour déterminer si une correspondance existe ou non.
Le tableau 6-F présente, aux fins de vérification, le nombre et le pourcentage d’acceptations pertinentes, de faux rejets et de fausses acceptations. Dans six cas, des erreurs opérationnelles ont conduit à prendre la mauvaise empreinte digitale.
Tableau 6‑F : Résultats de la vérification des experts judiciaires
| Réponses du système | Nombre | % |
|---|---|---|
| Empreintes digitales inacceptables | 36 | 3,9 % |
| Total des empreintes digitales utilisables | 882 | 96,1 % |
| Acceptations correctes | 810 | 91,8 % |
| Faux rejets (même personne, cote faible) | 52 | 5,9 % |
| Fausse acceptation (cote élevée, mauvaise personne) | 14 | 1,6 % |
| Mauvaise empreinte digitale / personne n'ayant pas fait l’objet d’une vérification | 6 | 0,7 % |
| Total | 918 | 100,0 % |
Note en bas de page :
6. 8 213 ensembles d’empreintes digitales de clients des bureaux des visas, rencontrés en personne, et 3 410 ensembles de demandeurs d'asile. Il n’y a pas d’empreintes digitales pour les clients inclus dans l’essai sur le terrain qui ont envoyé leur demande par la poste ou qui ne sont pas entrés au Canada à Vancouver.
7. Bien que 1 020 empreintes digitales uniques aient été prises aux fins de vérification durant l’essai sur le terrain, seules 918 ont pu être enregistrées dans le système biométrique (converties en fichiers biométriques).
8. Tous les écrans d’échantillons présentent des sujets qui n’ont pas participé aux essais sur le terrain.
9. En fait, 3 410 photographies de demandeurs d'asile ont été enregistrées, mais 3 dossiers ont fini sans photographie. On soupçonne une corruption des dossiers.
10. Les photographies de très faible qualité (14 pour les visas et 80 pour les réfugiés) n’ont pas pu être représentées sur ce graphique.
11. Cela signifiait que 3 000 images d’empreintes digitales individuelles (non 3 000 clients) n’étaient pas disponibles aux fins de comparaison jusqu’à ce que le problème soit résolu. La comparaison a pu être effectuée avec succès après correction du logiciel.
12. Les empreintes roulées sont la façon plus traditionnelle de pendre les empreintes d’une personne, pour laquelle chaque doigt est « roulé » d’un côté de l’ongle à l’autre. Il en résulte une empreinte plus complète. Les empreintes groupées sont plus récentes et ne présentent que la partie appuyée du doigt.
- Date de modification :
