« Bientôt, utiliser l’IA contre la fraude ne sera plus une option, mais le seul choix possible »

Fin 2022, ChatGPT 3.5 échouait à l’examen CFE (Certified Fraud Examiner), prisé des enquêteurs spécialisés en fraude. Six mois plus tard, GPT-4 le réussissait, mieux que la majorité des humains. Pour Alexandre Stora, co-fondateur d’Alphaguard, c’est ce saut de performance qui a tout déclenché. Sa conviction : si un modèle généraliste franchit cette barre, un système spécialisé peut transformer en profondeur la lutte contre la criminalité financière. Alphaguard, sélectionnée par la DINUM et la DGE pour le catalogue national des solutions IA du secteur public, et hébergée sur infrastructure SecNumCloud, incarne une approche aussi ambitieuse que rigoureuse : souveraine par conviction, agentique par design.

Comment est née l’idée d’appliquer l’IA générative à la lutte contre la criminalité financière et au KYC ?

Tout est partie d’une observation. Fin 2022, nous avons testé ChatGPT 3.5 sur le CFE, le Certified Fraud Examiner, l’examen de référence que passent les enquêteurs spécialisés en fraude. Il échouait systématiquement. Six mois plus tard, début 2023, GPT-4 le réussissait, et il faisait mieux que beaucoup de candidats humains. Dès lors, si un modèle généraliste, sans aucune spécialisation, franchit cette barre, alors un système encadré, spécialisé, connecté aux bonnes sources de données peut aller infiniment plus loin. Nous suivons d’ailleurs en continu ce benchmark, et les modèles continuent de progresser. C’est à partir de cette réalité que nous avons bâti Alphaguard.

En quoi votre approche par agents IA diffère-t-elle des solutions de compliance traditionnelles ?

Les solutions traditionnelles reposent sur des règles figées : si un cas est inconnu, le système bloque ou génère un faux positif. Nos agents IA, eux, raisonnent. Ils peuvent gérer des situations inédites comme le ferait un analyste humain expérimenté, en croisant des indices, en contextualisant, en formulant un jugement.

La deuxième différence, c’est l’entraînement. Les modèles traditionnels exigent des milliers d’exemples étiquetés pour être opérationnels. Les grands modèles de langage sont déjà pré-entraînés sur des volumes massifs de données. Autrement dit, ils sont performants dès le jour 1, sans historique interne massif à constituer.

Troisième différence, et c’est peut-être la plus décisive : le traitement de la donnée non structurée. Nos agents ingèrent nativement des PDF, des e-mails, des documents multi-formats et multi-langues. Ils comprennent l’intention d’un document, même si les mots-clés exacts n’y figurent pas. Les systèmes traditionnels ne savent tout simplement pas faire ça.

« Un modèle généraliste réussit l’examen des enquêteurs certifiés en fraude. Un système spécialisé peut aller infiniment plus loin ».

Alphaguard a été sélectionnée par la DINUM et la DGE pour intégrer le catalogue national des solutions IA pour le secteur public. Qu’est-ce que cela représente pour vous ?

C’est une reconnaissance importante, d’autant qu’Alphaguard est la plus jeune société présente dans ce catalogue. Concrètement, ce référencement crée un fast track pour l’achat public. Au lieu de traverser des cycles de décision interminables, les administrations peuvent nous sélectionner plus rapidement. Cela nous donne aussi de la visibilité et nous permet de participer aux réflexions autour de l’IA au sein des institutions. La DINUM et la DGE ont mis en avant des solutions souveraines, notamment celles hébergées sur des infrastructures certifiées SecNumCloud, comme Alphaguard. C’est un signal fort, même si le rythme d’adoption reste encore trop lent par rapport à ce qui se passe dans le privé et aux États-Unis.

Vos solutions sont hébergées sur l’infrastructure SecNumCloud d’Outscale. Était-ce une exigence dès le départ ou une réponse à la demande de vos clients ?

C’est arrivé dès les tout premiers jours, avec notre design partner, une grande administration publique. Dès les premières réunions avec leur équipe de sécurité informatique, le SecNumCloud était une exigence non négociable. Et franchement, ça ne nous a pas surpris. Nous travaillons sur des données de criminalité financière, des signalements de lanceurs d’alerte, des enquêtes internationales. Ces données ne peuvent pas être exposées à des lois extraterritoriales qui permettent théoriquement à des gouvernements étrangers d’y accéder. Le Cloud Act américain, c’est une réalité. Toute donnée hébergée par un fournisseur américain, où qu’elle soit dans le monde, peut théoriquement être requise par les autorités américaines. Sur des sujets aussi sensibles, c’est inacceptable.

La souveraineté des données est au cœur de votre discours. Est-ce un argument commercial ou une conviction profonde ?

Une conviction profonde, même si ça nous coûte plus cher. Sur Outscale ou Scaleway, nous sommes beaucoup moins subventionnés que sur AWS ou Azure. C’est un choix qui a un impact réel sur nos marges. Mais quand on traite des dossiers de fraude, des données d’enquête internationale ou des informations couvertes par des enjeux de souveraineté nationale, la question ne se pose pas. Ce contexte géopolitique tendu, ce regard de plus en plus critique sur les solutions technologiques américaines, tout cela renforce notre position. Et je pense que nous ne reviendrons pas en arrière.

Comment garantissez-vous la transparence algorithmique et la supervision humaine, notamment face aux exigences de l’AI Act ?

La détection de fraude n’est pas classée « haut risque » par l’AI Act européen, mais nous respectons d’ores et déjà les obligations de transparence prévues pour août 2026. Notre principe de base, c’est que l’IA est un outil d’aide à la décision, jamais le décideur final. Chaque observation produite par nos agents est accompagnée d’une explication : pourquoi ce flag, sur quelle base, avec quelles sources citées et vérifiables. Les analystes humains examinent les résultats et prennent la décision finale. Quand un résultat ne leur semble pas satisfaisant, ils peuvent le signaler. C’est le principe du human-in-the-loop, qui nous permet de réajuster en continu les modèles, les outils et les instructions. Nous surveillons également en permanence les biais et la fiabilité du système.  

Quels sont les signaux de fraude ou de blanchiment les plus difficiles à détecter pour vos clients aujourd’hui ?

La vraie question, c’est moins la détection que l’anticipation. Quand on détecte une fraude ou du blanchiment, c’est déjà trop tard. L’argent a circulé, le préjudice est constitué, et les coûts de remédiation explosent. L’enjeu est de mettre en place des niveaux de contrôle beaucoup plus poussés en amont, à savoir dès l’entrée en relation et tout au long du cycle de vie du client ou du projet. Pas seulement vérifier une identité au jour J, mais croiser en continu des signaux faibles qui, pris isolément, paraissent anodins.

Un changement de dirigeant, une adresse partagée avec une entité sanctionnée, une incohérence entre un contrat et un rapport de consultant, un pic de plaintes couplé à une dégradation financière, etc., c’est dans le croisement de ces signaux éparpillés que se cachent les risques réels. Or, un analyste humain ne peut pas surveiller en continu des milliers de tiers sur des dizaines de sources. Nos benchmarks le montrent concrètement : notre IA identifie ces signaux en moyenne trois mois  avant que les systèmes opérationnels traditionnels ne les signalent. C’est un changement de posture, de réactif à préventif.

« Quand on détecte une fraude, c’est déjà trop tard. L’IA identifie les signaux d’alerte jusqu’à trois mois à l’avance ».

Comment convainquez-vous des institutions financières, souvent très prudentes, d’intégrer l’IA dans leurs processus critiques ?

Par la preuve, avant tout. Nous réalisons des exercices de back testing sur des données historiques réelles. Nous mesurons la performance de l’IA sur des cas passés, et les résultats parlent d’eux-mêmes avec notamment une réduction significative des faux positifs, et surtout, une anticipation des risques que les systèmes en place n’avaient pas détectés. Le ROI se mesure en pertes évitées, pas seulement en gains de productivité.

Ensuite, l’approche human-in-the-loop est clé pour rassurer les directions conformité et les régulateurs. L’IA assiste, l’humain décide. Chaque raisonnement est auditable, chaque décision est traçable. Enfin, notre infrastructure souveraine et nos certifications répondent directement aux exigences des RSSI et des DPO.

Où en est la maturité des organisations publiques françaises sur ces sujets ?

L’intérêt est réel et croissant, notamment parce que les contraintes budgétaires rendent l’automatisation très attractive. Mais le passage à l’action reste lent. Le problème, c’est que l’innovation la plus forte vient de jeunes acteurs et rappelons que GPT-4, c’était il y a seulement trois ans. Les organisations publiques n’ont pas toujours les critères d’éligibilité ou la culture pour travailler avec ces acteurs. Les budgets importants partent encore trop souvent vers des opérateurs américains, parfois sans que la question de la souveraineté soit même posée. L’initiative DINUM/DGE va dans le bon sens, mais le rythme est encore trop lent face à l’hyper-croissance de l’IA dans le privé et aux États-Unis. Il faut aller plus vite. C’est urgent.

Faire confiance à l’IA pour détecter des crimes financiers, n’est-ce pas un paradoxe, quand on sait que l’IA peut elle-même être manipulée ?

Non, et l’histoire de la fraude le démontre. La fraude a toujours reposé sur la manipulation des êtres humains. L’ingénierie sociale exploite nos biais cognitifs, notre tendance à faire confiance. Les machines, elles, n’ont pas ces biais-là.

L’IA réduit aussi le coût d’un crime sophistiqué. Au fur et à mesure que les criminels l’utiliseront pour perfectionner leurs schémas, nous changerons d’échelle, les volumes, la complexité et la vitesse des attaques vont exploser. Face à cette réalité, le choix d’utiliser l’IA pour détecter les crimes financiers ne sera plus simplement une option. Ce sera le seul choix possible. Aucune équipe humaine ne pourra tenir le rythme sans cette technologie.

Cet été, nous publierons d’ailleurs un papier scientifique qui documentera de façon rigoureuse la performance des grands modèles comparée à notre solution sur des cas réels. Tout simplement, parce que la conviction doit toujours être étayée par la preuve.


Sur le même sujet