Lunettes connectées Meta : l’IA qui met un nom sur votre visage

Dans le film de John Carpenter Invasion Los Angeles, une simple paire de lunettes fait tomber le vernis. En les enfilant, le héros voit ce que les autres ne voient pas : des messages cachés, des visages qui ne sont plus tout à fait humains, une réalité manipulée. Une scène marquante qui montre que la technologie peut changer, d’un coup, la façon dont on regarde le monde. En 2026, la fiction trouve un écho troublant. Les lunettes connectées ne se contentent plus d’afficher des notifications ou de filmer. Elles pourraient demain identifier des personnes. Selon une enquête du New York Times, Meta étudierait l’ajout d’une fonction de reconnaissance faciale à ses smart glasses. L’enjeu dépasse largement le gadget. Si cette capacité se banalise, la rue, un hall d’hôtel ou un café cessent d’être des espaces anonymes. Un visage devient une donnée, et l’anonymat, une option.

L’idée serait de permettre à l’utilisateur de demander à l’assistant IA des lunettes « qui est cette personne ? », avec un rattachement possible à des informations issues de l’écosystème Meta (par exemple des profils publics ou des connexions). Une prouesse technique certes, mais qui inquiète malgré atout car elle rend l’identification “à la volée” accessible au grand public, dans la rue, dans un café, dans une gare.

Quand le consentement devient impraticable

La reconnaissance faciale, quand elle sert à identifier une personne, n’est pas une simple capture d’image. En droit européen, dès qu’une photo/vidéo est traitée “par des moyens techniques spécifiques” pour identifier quelqu’un, on bascule dans la biométrie, avec un régime plus strict.

Or, dans l’espace public, obtenir un consentement libre, éclairé et explicite des passants avant qu’ils soient identifiés est, dans les faits, quasi impossible. Et sans ce garde-fou, l’identification devient une collecte massive et silencieuse.

La confidentialité n’est plus seulement “numérique”

Une caméra de smartphone est visible, tenue à la main, souvent assumée. Des lunettes, c’est autre chose : la captation et l’analyse peuvent se faire au niveau du regard, en continu, avec beaucoup moins de friction sociale. Même avec des dispositifs d’avertissement (LED d’enregistrement, blocage si elle est masquée), la promesse de “transparence” se heurte au fait que l’entourage ne maîtrise rien, ne paramètre rien, et ne peut pas vérifier ce qui est réellement activé.

Stalking, doxxing, intimidation, “triangulation” sociale

Dès que l’identification devient triviale, on ouvre une boîte noire d’abus à faible coût :

  • retrouver un nom puis un compte social, une entreprise, une ville ;
  • “confirmer” une identité dans un contexte sensible (violences conjugales, témoins, journalistes, militants, mineurs) ;
  • industrialiser le repérage et le harcèlement.

Et tout cela n’est pas théorique. Des cas de captation clandestine via lunettes connectées et de diffusion en ligne alimentent déjà les alertes sur ces usages.

Vers une société où chacun doit supposer qu’il est “reconnu”

Le vrai problème, c’est l’effet systémique : si n’importe qui peut identifier n’importe qui, alors chacun se comporte comme s’il était potentiellement “indexé”. La CNIL rappelle depuis longtemps que la reconnaissance faciale pose des enjeux majeurs et appelle à fixer des lignes rouges et un débat à la hauteur. Même sans entrer dans une analyse juridique exhaustive, deux blocs se télescopent :

  • RGPD : biométrie = catégorie particulière de données, conditions très strictes, obligations fortes (finalité, minimisation, information, droits, analyse d’impact selon le risque).
  • AI Act : le texte encadre fortement la biométrie à distance, avec des interdictions et un régime très sensible, en particulier dans l’espace public (notamment côté “remote biometric identification”).

Si Meta veut déployer une telle capacité en Europe, il faudra prouver une conformité béton… et surtout expliquer comment les droits des personnes “scannées” (qui ne sont pas clientes, pas utilisatrices, pas consentantes) peuvent être respectés, en pratique.

Qui porte le risque ?

Si cette fonctionnalité arrive, la question sera de savoir qui assume les dommages quand l’identification se trompe, quand une personne est harcelée, quand un salarié est reconnu sur un lieu confidentiel, quand un enfant est ciblé ?

Tant que la réponse reste floue, ce type de reconnaissance faciale grand public n’est pas une simple “feature” d’un objet connecté… C’est un changement de société.

Dernières publications

Dernières parutions partenaires

L'agenda

Sur le même sujet