ChatGPT va “deviner” si vous êtes mineur

OpenAI déploie dans ChatGPT un système de prédiction d’âge destiné à repérer les comptes qui “semblent” appartenir à des utilisateurs de moins de 18 ans. Objectif : activer automatiquement une expérience plus “ado”, avec des réglages de sécurité renforcés. Le dispositif est en cours de déploiement mondial, avec une arrivée annoncée “dans les prochaines semaines” dans l’Union européenne, pour tenir compte “d’exigences régionales”. 

Avec cette annonce, OpenAI passe d’une simple déclaration d’âge (facile à contourner) à une logique plus intrusive de détection probabiliste puis, si besoin, à une vérification d’âge via un tiers. Un modèle déjà vu ailleurs… mais qui, ici, touche un outil conversationnel utilisé au quotidien par des millions de personnes, y compris en contexte scolaire.

Un système de “prédiction” basé sur des signaux d’usage

OpenAI explique que ChatGPT va utiliser un “age prediction system” fondé sur des “signaux” liés au compte. Exemple de signaux cités : les “thèmes généraux” abordés et les “heures” d’utilisation. OpenAI reconnaît explicitement que le système peut se tromper. 

C’est le premier point de friction. On ne parle pas d’un contrôle d’âge binaire, mais d’un classement probabiliste. Autrement dit, la décision qui vous affecte (mode “mineur” ou non) repose sur des indices comportementaux, partiellement opaques, avec un risque structurel de faux positifs (adultes classés “ados”) et de faux négatifs (ados non détectés).

Ce qui change quand ChatGPT vous classe “moins de 18”

Si ChatGPT estime que vous avez moins de 18 ans, il active automatiquement des “extra safety settings”. OpenAI précise que les utilisateurs peuvent toujours apprendre, créer et poser des questions, mais certains sujets seront traités “plus prudemment” pour réduire l’exposition à des contenus sensibles. Sont cités : violence graphique, “défis viraux” incitant à des comportements risqués, jeux de rôle sexuels/romantiques/violents, contenus promouvant des standards de beauté extrêmes, régimes malsains ou body shaming. 

OpenAI indique qu’il n’y aura “pas de publicités” sur ces comptes. 

Ces restrictions vont mécaniquement créer des situations où l’outil répond “moins” ou différemment, avec une zone grise sur ce qui est considéré comme sensible. Dans un usage éducatif, cela peut devenir un sujet concret : deux élèves (ou deux comptes) n’obtiennent pas les mêmes réponses pour la même question. Et dans un usage familial, cela peut provoquer l’effet inverse de celui recherché : pousser certains ados à multiplier les comptes, à contourner, ou à migrer vers des outils moins encadrés.

La porte de sortie : vérification d’âge… et tierce partie

Si vous avez 18 ans ou plus et que vous êtes classé à tort “moins de 18”, OpenAI explique que vous pouvez désactiver ces réglages en vérifiant votre âge. La vérification se fait via Persona, un prestataire tiers. Selon les pays, Persona peut demander un selfie “en direct” et/ou un document d’identité (passeport, permis, carte d’identité, etc.). 

Cas particulier : l’Italie. OpenAI précise que si un utilisateur en Italie est invité à vérifier, il doit le faire “dans les 60 jours”, sinon “certaines fonctionnalités seront désactivées”. 

Là encore, la friction est évidente. Pour sortir d’un mode restrictif, on introduit une procédure d’age assurance qui peut impliquer biométrie (selfie) et document officiel. Beaucoup d’adultes refuseront par principe. D’autres accepteront… mais sans mesurer ce que cela normalise, à savoir l’idée qu’un service conversationnel est légitime à exiger une preuve d’âge “forte” pour donner accès à l’expérience complète.

Vie privée : ce qu’OpenAI promet… 

OpenAI insiste toutefois sur le cloisonnement. L’entreprise affirme ne pas recevoir le document d’identité ni le selfie, que Persona supprime ces éléments sous 7 jours, et qu’OpenAI ne récupère que la date de naissance ou une “prédiction d’âge”, stockée de manière sécurisée. 

OpenAI indique aussi que si vous ne voulez pas que votre âge soit “préduit”, vous pouvez vérifier votre âge, et qu’après vérification, OpenAI ne relancera plus la prédiction d’âge sur votre compte. 

C’est cohérent… mais ça ne rend pas le sujet neutre. Même si OpenAI ne voit pas le justificatif, l’utilisateur doit passer par une chaîne de confiance supplémentaire (un tiers, des traitements, des preuves) pour retrouver une expérience standard. Et dès qu’un mécanisme de vérification d’âge existe, il devient tentant (pour des plateformes, des régulateurs, ou des pressions locales) d’en élargir l’usage, progressivement, à d’autres fonctionnalités.

Ce que cette décision change vraiment

OpenAI ne fait pas qu’ajouter un “mode ado”. L’entreprise pose trois jalons :

  1. des signaux comportementaux pour estimer l’âge ;
  2. des restrictions automatiques si le système “pense” que vous êtes mineur ;
  3. une procédure de vérification, potentiellement forte, pour lever les limites. 

Et là, découle une question : qui arbitre l’équilibre entre protection des mineurs et généralisation de la vérification d’identité ? La protection est nécessaire, certes, mais l’outil choisi compte autant que l’objectif.

Ce dossier mérite d’être suivi de près, surtout à l’approche du déploiement dans l’UE. Car les effets secondaires (opacité des signaux, erreurs de classification, contournement, normalisation du selfie+ID, asymétries d’accès) sont tout, sauf anodins.

 

Dernières publications

Dernières parutions partenaires

L'agenda

Sur le même sujet