Reconnaissance faciale : en cas d’enlèvement, l’Europe peut-elle faire comme le FBI ?

Agent du FBI

L’enquête sur la disparition de Nancy Guthrie, 84 ans, près de Tucson (Arizona), illustre la façon dont une affaire “classique” bascule aujourd’hui dans une enquête guidée par les données biométriques. Vidéos de sonnette, traces biologiques, gants potentiellement abandonnés : tout ce qui peut produire une empreinte exploitable devient un point d’entrée. 

Le FBI mobilise son écosystème forensique et, en toile de fond, la base NGI (Next Generation Identification), la grande “plaque tournante” biométrique de l’agence. La logique est simple : partir d’indices concrets (images, empreintes, ADN) et les comparer à de vastes référentiels pour générer des pistes.

Reconnaissance faciale : une piste qui doit rester une piste

Reste que la recherche faciale de type “photo-to-photo” ne donne pas une vérité absolue, mais seulement une liste classée de candidats. Plus l’image est dégradée (masque, capuche, angle, compression), plus le résultat est fragile. En pratique, l’outil sert à orienter l’enquête, puis à être confirmé par d’autres éléments (alibis, téléphonie, plaques, témoins, ou preuves matérielles).

Empreintes et ADN : plus robustes, mais plus contraignants

Dans cette affaire, les autorités évoquent notamment un échantillon ADN prélevé sur un gant qui correspondrait à celui porté par un individu filmé, ainsi que des traces de sang. Ce sont des signaux plus solides qu’un “match” visuel, mais ils exigent une chaîne de conservation stricte, des procédures, du temps, et surtout une interprétation prudente : un dépôt biologique peut raconter plusieurs histoires.

En Europe, l’AI Act ouvre une porte… étroite

Côté Europe, le débat sur la reconnaissance biométrique est souvent présenté comme binaire : “interdit” ou “autorisé”. La réalité est plus procédurale. L’AI Act prohibe l’usage de la reconnaissance biométrique à distance en temps réel dans l’espace public à des fins répressives, sauf exceptions. Parmi elles figure explicitement la recherche ciblée de victimes, notamment en cas d’enlèvement ou de personne disparue, mais aussi la prévention d’une menace grave et imminente, ou l’identification de suspects de crimes graves.

Ce que l’AI Act exige

Là où l’affaire américaine met en avant la puissance des bases, le texte européen met l’accent sur la gouvernance. L’usage “temps réel” doit viser à confirmer l’identité d’un individu spécifiquement ciblé, pas à balayer une foule au hasard. Il doit être encadré par des limitations temporelles, géographiques et personnelles, et surtout soumis à une autorisation préalable délivrée par une autorité judiciaire ou administrative indépendante, selon des règles nationales. Autrement dit, l’Europe n’essaie pas d’empêcher l’outil, elle tente d’empêcher le dérapage.

La confiance se joue sur la preuve et sur le contrôle

Le vrai sujet n’est pas de savoir si la biométrie “fonctionne”. Non. Le sujet, c’est le moment où une piste algorithmique est traitée comme une quasi-preuve, et où la pression opérationnelle (urgence, émotion, médiatisation) accélère cette glissade. L’Europe répond par du droit et des garde-fous ; les États-Unis par l’industrialisation des capacités d’identification.

Alors, si demain un cas d’enlèvement déclenche un usage biométrique “temps réel”, la question critique ne sera pas “avions-nous le droit ?”, mais “pouvons-nous prouver que c’était proportionné, ciblé, autorisé, auditable et corrigible en cas d’erreur ?”.

Dernières publications

Dernières parutions partenaires

L'agenda

Sur le même sujet