Faut-il laisser l’IA décider de ce que vos clients peuvent acheter ? Un enjeu stratégique pour les marketplaces

Partager sur

DSA, faux positifs, sur-modération : comment les marketplaces trouvent le bon équilibre entre IA et jugement humain.

Le point de vue de Stéphanie Akriche, responsable des ventes internationales chez Armatis.

Sommaire :

Chaque marketplace qui atteint un certain volume se heurte au même point de bascule : l’automatisation n’est plus seulement un levier d’efficacité, elle devient une décision de gouvernance. Et toute décision de gouvernance a des conséquences.

Entre un système qui laisse passer trop de contenus et un autre qui bloque excessivement, la véritable question n’est pas de savoir s’il faut automatiser, mais comment le faire sans dégrader ce que l’on cherche à protéger. Sur les plateformes accompagnées par Armatis, une modération mal calibrée ne génère pas uniquement un risque de non-conformité : elle fragilise la confiance des vendeurs, détériore l’expérience des acheteurs et appauvrit progressivement la profondeur du catalogue.

Sommaire :

Quand la conformité crée de nouveaux risques

Le Digital Services Act (DSA), applicable depuis février 2024 à toutes les plateformes opérant en Europe, pose un cadre clair : les contenus illégaux doivent être supprimés rapidement, les mécanismes de recours doivent être transparents, et les très grandes plateformes (plus de 45 millions d’utilisateurs mensuels) doivent réaliser des audits indépendants et des analyses de risques.

La conséquence est immédiate : aucune marketplace ne peut fonctionner à grande échelle sans automatisation significative. Examiner manuellement des centaines de milliers d’annonces quotidiennes n’est tout simplement pas viable. Mais les travaux de la Commission européenne à l’origine du DSA sont clairs : les systèmes automatisés ne savent pas encore contextualiser, interpréter les différences culturelles ou gérer l’ambiguïté avec fiabilité.

Résultat : des outils de modération très performants sur les cas évidents, mais structurellement limités dès qu’il s’agit de situations plus complexes.

Le coût réel des faux positifs

Lorsqu’un algorithme devient trop restrictif, les conséquences sont concrètes. Des vendeurs légitimes sont bloqués. Des produits conformes sont retirés. Un fournisseur présent depuis plusieurs années peut recevoir une suspension automatique pour un simple ustensile de cuisine identifié comme « contenu suspect ».

Selon des recherches relayées par Automates Intelligents, certains systèmes de modération par IA bannissent jusqu’à 40% d’utilisateurs innocents — un niveau que aucune marketplace ne peut absorber sans impact. Réduction du catalogue, churn des vendeurs, perte de confiance et expérience d’achat dégradée : le sur-blocage est un risque aussi stratégique que le sous-contrôle.

Une plateforme qui bloque systématiquement des contenus légitimes ne protège pas son environnement réglementaire : elle fragilise son propre écosystème.

Pourquoi l’IA seule ne suffit pas

Les algorithmes détectent des patterns, pas des intentions. Ils excellent à grande échelle, mais échouent fréquemment à comprendre le contexte. Les recherches académiques convergent : les dispositifs les plus fiables sont hybrides, combinant la puissance de l’IA et la finesse du jugement humain.

En résumé : l’IA détecte, l’humain comprend.

Stéphanie Akriche,Head of International Sales : « Certains cas nécessitent absolument une intervention humaine : les décisions d’arbitrage délicates ou présentant un conflit entre différentes règles, l’adaptation à un contexte culturel (pour les marketplaces multilingues notamment), les dénonciations et remontées utilisateurs sur une fraude potentielle. Selon leur nature, l’intervention humaine s’avère nécessaire dans 5 à 10 % des cas examinés. »

Ces 5 à 10% ne sont pas un échec de l’automatisation : ce sont les décisions les plus critiques.

Vers un modèle optimal : la modération symbiotique

Les dispositifs les plus performants reposent sur trois niveaux complémentaires

1. Prévention intelligente (avant la publication)

Les plateformes les plus avancées agissent en amont : lignes directrices claires, contrôles automatisés avant mise en ligne, suggestions intelligentes, formations ciblées. Dans bien des cas, jusqu’à 60 % des contenus problématiques peuvent être évités avant publication, simplement en outillant mieux les vendeurs et en détectant un volume inhabituel de mises en ligne pour qu’un humain vérifie s’il s’agit d’un catalogue légitime ou d’une tentative de flooding.

2. Détection hybride (pendant la publication)

Un dispositif robuste répartit les rôles : IA seule pour les contenus manifestement illicites, IA avec alerte humaine pour les cas incertains réévalués en moins de deux heures, expert humain pour les arbitrages sensibles ou nécessitant une contextualisation sectorielle. Les études européennes le rappellent : une supervision humaine reste indispensable pour gérer les ambiguïtés et corriger les biais structurels des modèles.

3. Transparence et recours (après la décision)

Le DSA impose désormais une explication claire des décisions, un droit d’appel effectif et une documentation transparente des pratiques de modération. Les marketplaces les plus matures vont plus loin : elles publient leurs indicateurs, y compris les taux de faux positifs, et communiquent proactivement sur leur gouvernance.

Le futur : une modération prédictive

Stéphanie Akriche, Head of International Sales : « D’ici 2027, les outils d’IA intègreront des capacités beaucoup plus fines de compréhension du contexte. L’humain continuera d’intervenir, mais de façon moins volumique et plus stratégique. Il devra superviser, arbitrer et garantir l’équité des décisions prises par l’IA. Il deviendra architecte du système de confiance. Cela est d’autant plus vrai dans l’univers du CX où nos offres devront inclure un audit des modèles, une gestion des biais des outils et un arbitrage juste des cas sensibles. Les principaux défis seront d’identifier et d’anticiper des fraudes de plus en plus sophistiquées, d’assurer la transparence exigée par les régulateurs et de maintenir l’équilibre entre performance économique et protection des utilisateurs. »

Les plateformes entrent dans une nouvelle ère. L’enjeu n’est plus seulement de supprimer les contenus problématiques, mais d’anticiper les risques grâce à l’analyse des comportements vendeurs, la détection de signaux faibles et l’identification proactive des anomalies. Les outils de demain ne remplaceront pas les modérateurs humains : ils renforceront leur capacité à anticiper, prioriser et décider avec discernement.

Conclusion : mieux modérer

En 2026, les marketplaces gagnantes ne seront pas celles qui modèrent le plus, ni le plus vite, mais celles qui modèrent le mieux. L’intelligence artificielle est un formidable accélérateur, mais sans l’intelligence humaine pour l’orienter, la contextualiser et la corriger, elle reste un outil incomplet.

L’avenir ne se joue pas dans l’opposition IA versus humain, mais dans leur complémentarité : l’IA pour la vitesse et l’échelle, l’humain pour le discernement et le jugement. Les deux, ensemble, pour la confiance.

Armatis accompagne les marketplaces dans la conception et l’exploitation de dispositifs de modération de contenus et de Trust & Safety alliant performance technologique et expertise humaine. Pour les acteurs du retail et e-commerce, nous intervenons sur l’ensemble de la chaîne : prévention de la fraude, conformité DSA, gestion des cas sensibles et pilotage de la qualité. Découvrez nos expertises.

Sources

Automates Intelligents : https://automatesintelligents.com/cette-ia-de-moderation-bannit-40-dutilisateurs-innocents-et-inquiete-les-experts/

Commission Européenne, Digital Services Act : https://commission.europa.eu/news-and-media/news/digital-services-act-keeping-us-safe-online-2025-09-22_en 

AI4Media, Factsheet AI and Content Moderation : https://www.ai4media.eu/wp-content/uploads/2023/12/Factsheet_AI-and-ContentModeration.pdf

Partager sur

Votre marketplace est-elle prête pour le DSA ?

Armatis accompagne les acteurs des marketplaces sur toute la chaîne de modération : prévention des faux positifs, conformité DSA, gestion des cas sensibles et arbitrage humain. Depuis plus de 35 ans, aux côtés des plateformes qui refusent de choisir entre performance et confiance.

Armatis est l’un des principaux prestataires européens de services d’externalisation (BPO) dans le domaine de l’expérience client. Depuis plus de 35 ans, il accompagne les grandes entreprises et les PME dans la gestion et la transformation de leur service client. Présent en France, en Tunisie, au Portugal, en Pologne, à Madagascar et en Allemagne, le groupe allie une expertise sectorielle, une présence européenne multi-sites et une intégration technologique de pointe pour répondre aux exigences des marchés européens et internationaux.

Vous avez besoin d'un partenaire d'externalisation ?

Contactez nos équipes pour échanger sur vos enjeux.

Black Friday, fêtes, soldes ou pics imprévus : Armatis vous aide à gérer les volumes critiques, adapter vos ressources et préserver la qualité client.

Rejoignez les leaders qui font confiance à notre expertise multilingue et technologique.