
Récupérez quatre fois plus de rétrofacturations et prévenez jusqu'à 90 % des rétrofacturations à venir, grâce à l'IA et à un réseau mondial de 15 000 commerçants.
Agentic Commerce révolutionne la manière dont la fraude, les problèmes d'identité et les rétrofacturations se produisent. Ben Herut analyse les tendances réelles que les commerçants observent déjà, explique pourquoi les outils anti-fraude traditionnels ne sont plus à la hauteur et montre comment l'analyse post-achat permet de prévenir les pertes dans un environnement d'achat piloté par l'IA.
Les agents IA n'influencent pas seulement les achats, mais commencent également à en effectuer eux-mêmes. À mesure que ces systèmes automatisés prennent en charge une part croissante du processus d'achat, de nouveaux défis apparaissent pour les commerçants en matière de détection de la fraude, de compréhension des intentions des clients et de prévention des rétrofacturations.
Je constate cette évolution au quotidien. Les données relatives aux contestations révèlent une tendance à la hausse : de plus en plus de clients contestent des prélèvements résultant de décisions automatisées qu’ils ne comprennent pas pleinement ou auxquelles ils ne s’attendaient pas. Grâce à mon travail de mentorat auprès des équipes chargées de la lutte contre la fraude, à ma participation au comité de lutte contre la fraude du MRC et à ma collaboration quotidienne avec les services opérationnels des commerçants, j’observe comment les clients comme les fraudeurs s’adaptent à cette nouvelle façon de faire ses achats.
Ce guide se concentre sur les problèmes qui apparaissent déjà dans les files d'attente des litiges, plutôt que sur des prévisions concernant un avenir lointain. Ces cas montrent à quelle vitesse les achats guidés par des agents façonnent le risque post-achat.
Les outils traditionnels de lutte contre la fraude partent du principe qu'un être humain est à l'origine de chaque action. Cette hypothèse commence à s'effriter dès lors que l'acheteur est un agent autonome.
Au début de cette section, j'ai inséré la citation suivante issue du secteur, car elle illustre clairement cette évolution :
« Les agents IA ne sont pas de simples assistants : ils deviennent des décideurs dans le domaine du commerce, et l'infrastructure de paiement conçue pour les humains doit être repensée. » — Visa
À mesure que les agents acquièrent davantage de contrôle, bon nombre des indicateurs traditionnels perdent de leur fiabilité. Les empreintes numériques des appareils, les modèles de profil comportemental, les signaux de friction et les chemins de navigation reposent sur des comportements humains. Les agents agissent désormais de manière prévisible et « cohérente avec le fonctionnement des machines », ce que les systèmes existants ne sont pas en mesure de traiter.
Il devient alors beaucoup plus difficile de vérifier l'intention. Parfois, le client s'attendait à ce que l'agent agisse, mais pas de la manière précise dont il l'a fait. Parfois, l'agent a agi en se fondant sur une logique qu'il avait apprise et que le client avait négligée ou oubliée. Les fraudeurs tirent parti de ce manque de clarté. Parallèlement, des clients de bonne foi contestent des frais en raison de leur propre confusion, et non d'un abus délibéré.
Le risque va bien au-delà de la fraude. On constate un décalage croissant entre les attentes des clients et les décisions prises par leur agent.
Chez les commerçants qui ont recours à des achats pilotés par des agents, plusieurs tendances se dégagent. Celles-ci apparaissent dans les rapports de litiges, les fils de discussion du service client et les analyses de fraude, illustrant à quel point le commerce piloté par des agents modifie rapidement la structure des risques post-achat. Cette évolution va également dans le sens des récentes conclusions de Money20/20, qui montrent comment les achats pilotés par l'IA modifient déjà la fraude et les intentions des clients.
Voici quelques exemples :
A. Achats effectués par l'IA dont le client ne se souvient pas
De nombreux commerçants sont déjà confrontés à des litiges concernant des commandes qui ont été techniquement autorisées, mais qui n'ont pas été demandées sciemment par le client. Un agent peut commander à nouveau des articles en se basant sur le comportement passé, la disponibilité ou l'analyse des préférences. Pourtant, il se peut que le client ne se souvienne pas avoir donné son accord ou qu'il ne remarque jamais le processus automatisé qui s'exécute en arrière-plan.
Lorsque le débit apparaît, le client a instinctivement tendance à nier toute implication. Même si la commande est légitime, le commerçant ne peut pas facilement prouver l'intention, car ce n'est pas l'homme qui a effectué la transaction. C'est l'Agent qui l'a fait.
Dans la plupart des cas, toute confusion entraîne directement un rejet de débit.
B. Erreurs commises par des tiers
Les agents sont conçus pour optimiser, et non pour interpréter le contexte humain. Il peut leur arriver de choisir un produit légèrement différent de celui attendu, de sélectionner un commerçant auquel le client ne ferait pas appel en temps normal, ou d'acheter une quantité erronée, en fonction de la manière dont ils ont analysé la demande ou les données.
Au lieu de contacter le service client, de nombreux clients s'adressent directement à leur émetteur lorsque le choix de l'agent ne correspond pas à leurs attentes. Le litige devient alors pour le client un moyen de corriger ce qu'il considère comme une erreur, même si la transaction était techniquement valide du point de vue de l'agent.
C. Utilisation abusive des API d'automatisation
Les fraudeurs ont désormais compris que le trafic automatisé s'intègre nettement mieux que le trafic humain ou manuel. En imitant les comportements des agents ou en exploitant les points d'accès à l'automatisation, ils peuvent générer des transactions qui semblent structurées, cohérentes et à faible risque aux yeux des systèmes de détection de fraude traditionnels.
Comme ces flux contournent de nombreux indicateurs humains, l'activité semble normale au commerçant et conforme à une automatisation légitime. Ce n'est qu'une fois la contestation déposée que le schéma se révèle être artificiel. Cette approche gagne en popularité car elle exploite les failles créées par les flux de travail gérés par des agents.
D. Les faux positifs à l'origine de futurs rejets de paiement
Certains commerçants sont confrontés à des litiges qui trouvent leur origine dans des frictions au sein même du système de lutte contre la fraude, plutôt que dans la fraude elle-même.
Les processus gérés par un agent déclenchent parfois des règles de détection de fraude, nécessitent une vérification supplémentaire ou sont refusés. Le client se retrouve alors perplexe et frustré par la procédure, surtout lorsque l'agent a géré le processus « à l'abri des regards ». Plus tard, lorsqu'un prélèvement légitime apparaît, le client le conteste simplement parce que sa confiance dans le processus a déjà été ébranlée.
Ces situations sont tout à fait évitables, mais elles montrent à quel point le comportement de l'agent et les attentes humaines peuvent facilement se décaler.
La plupart des systèmes et outils de lutte contre la fraude liée au prépaiement ont été développés à une époque où un intervenant humain participait à chaque étape du parcours client. Le commerce piloté par des agents bouleverse ce modèle, ce qui signifie que certains des outils les plus performants de la pile technologique d'un commerçant ne fonctionnent plus comme prévu.
Les modèles de risque basés sur les appareils perdent tout leur sens.
Les modèles traditionnels s'appuient largement sur les caractéristiques des appareils pour identifier les comportements suspects. Lorsque l'« acheteur » est un agent évoluant au sein de serveurs ou d'environnements cloud, les attributs de l'appareil ne correspondent plus à l'identité ou à l'intention d'un être humain. Cela supprime un point d'ancrage majeur de la logique actuelle de détection des fraudes.
Les règles de Velocity commencent à classer de manière erronée les flux automatisés.
Les agents travaillent souvent selon des horaires ou des boucles logiques qui se répètent à des intervalles prévisibles. Les règles de vélocité traditionnelles (par exemple, celles basées sur l'heure exacte de l'activité) sont conçues pour signaler les comportements humains répétitifs. Elles signalent à tort l'activité normale des agents, générant ainsi des faux positifs qui entraînent des frictions, des pertes de revenus et des litiges en aval.
L'analyse comportementale ne permet pas d'interpréter les schémas non humains.
Les modèles qui s'appuient sur les mouvements de la souris, le défilement, les temps de pause ou la vitesse entre les actions perdent de leur efficacité, car les agents ne respectent pas les normes d'interaction humaines. Ce qui peut paraître suspect dans un contexte humain peut s'avérer tout à fait légitime lorsqu'un agent exécute le processus.
La vérification manuelle devient ingérable.
Les transactions automatisées augmentent le volume tout en réduisant la visibilité. Les dossiers qui nécessitaient auparavant quelques minutes d'analyse ne fournissent désormais plus les indications humaines sur lesquelles s'appuient les vérificateurs. La vérification manuelle ne peut pas s'adapter au rythme de l'automatisation, et même lorsque les équipes tentent de le faire, les résultats sont inégaux car les indications sous-jacentes sont incomplètes.
C'est lors des litiges que le fossé se creuse le plus.
Même lorsqu'un commerçant sait qu'une transaction est légitime, il devient nettement plus difficile de prouver l'intention. Les émetteurs exigent des preuves démontrant un lien clair entre le client et l'achat. Dans le commerce par procuration, une partie de cette démarche est déléguée. Sans nouveaux types de données justificatives, les commerçants perdent des litiges simplement parce que les preuves ne permettent pas de trancher le différend.
Les systèmes hérités ne tombent pas en panne parce qu'ils sont défaillants. Ils tombent en panne parce qu'ils n'ont jamais été conçus pour des environnements où ce sont des agents, et non des humains, qui se chargent d'une grande partie du parcours d'achat.
À mesure que le commerce assisté par des agents prend de l'ampleur, les signaux les plus pertinents apparaissent souvent après la transaction, et non avant. Les contrôles préalables à l'achat ont été conçus pour tenir compte du comportement humain et des difficultés rencontrées lorsque l'intention est partagée entre un humain et un agent. Dans ce contexte, pour prévenir les pertes, il est nécessaire de disposer d'une meilleure visibilité sur des éléments qui ne se précisent qu'une fois la commande passée.
Les données post-achat comblent les lacunes laissées par les systèmes traditionnels. Elles permettent de répondre à des questions qui ne peuvent être résolues au moment du paiement, notamment :
Ces signaux fournissent un contexte que les outils d'avant-vente ne peuvent pas offrir. Ils permettent de déterminer quand un agent a agi en dehors des attentes du client, quand l'automatisation est utilisée à mauvais escient et quand un schéma récurrent risque de déboucher sur un litige.
Jusqu'à présent, dans de nombreux cas, la seule méthode fiable permettant de cerner suffisamment bien l'intention d'un client pour intervenir avant que celui-ci ne se voie impliqué consistait à analyser les transactions après l'achat. Cela permet aux commerçants de prendre contact avec le client, de vérifier les informations, de corriger les erreurs ou d'annuler les commandes avant qu'elles ne donnent lieu à des rétrofacturations et, dans le cas des biens physiques, avant que les produits ne soient expédiés.
Bien que ce guide ne porte pas spécifiquement sur les produits, il est important de reconnaître que les commerçants ont besoin d'outils qui tiennent compte des réalités des achats effectués par des agents. L'automatisation crée des lacunes que les systèmes anti-fraude traditionnels n'ont jamais été conçus pour combler, et de nombreux commerçants recherchent des moyens concrets de combler ces lacunes sans alourdir les processus ni multiplier les tâches manuelles.
Chargeflow Prevent a été conçu en tenant compte de cet environnement. Il utilise une évaluation post-achat, des informations au niveau du réseau, ainsi que la reconnaissance d'identité et d'agent pour aider les commerçants à déterminer quand une transaction est susceptible de donner lieu à un litige. Ces signaux fournissent des informations contextuelles sur le comportement derrière une commande, y compris des schémas qui n'apparaissent jamais lors du paiement.
Cette approche favorise le passage d'une modélisation de la fraude centrée sur l'humain à une évaluation des risques centrée sur l'agent. Elle aide les commerçants à distinguer l'automatisation légitime des abus, à détecter les premiers signes de confusion ou d'achats involontaires, et à intervenir avant qu'un prélèvement ne donne lieu à un rejet de débit.
Mon objectif n'est pas de promouvoir une solution particulière, mais de souligner que les commerçants ont désormais besoin de mesures préventives adaptées à l'évolution du commerce. Les transactions pilotées par des agents exigent un autre type de visibilité, et des outils tels que Chargeflow Prevent sont conçus pour offrir cette visibilité de manière concrète et exploitable.

Récupérez quatre fois plus de rétrofacturations et prévenez jusqu'à 90 % des rétrofacturations à venir, grâce à l'IA et à un réseau mondial de 15 000 commerçants.