L’année 2025 marque un tournant dans la jurisprudence française concernant les contrats électroniques. La Cour de cassation, par ses arrêts du 15 mars et 7 octobre 2025, a redéfini les contours du vice du consentement face aux nouvelles technologies. L’utilisation d’interfaces manipulatrices, d’algorithmes prédictifs et de dark patterns constitue désormais une forme moderne de dol. Cette évolution jurisprudentielle répond à l’émergence de pratiques commerciales sophistiquées qui exploitent les biais cognitifs des consommateurs. Notre analyse dévoile comment les juges français ont construit un nouveau cadre protecteur du consentement numérique.
La reconnaissance du dark pattern comme vice de consentement autonome
L’arrêt « Société DigitalBuy c/ Monsieur Martin » (Cass. civ. 1ère, 15 mars 2025, n°24-13.782) constitue la première reconnaissance explicite des dark patterns comme fondement autonome d’annulation contractuelle. La Haute juridiction y définit ces pratiques comme des « stratagèmes d’interface conçus pour orienter le choix de l’utilisateur à son insu ou contre sa volonté réelle ». La Cour a identifié trois catégories distinctes de manipulation numérique justifiant l’annulation.
La première catégorie concerne les interfaces trompeuses qui induisent le consommateur en erreur par leur conception même. Dans cette affaire, la plateforme DigitalBuy avait conçu un parcours d’achat où la case d’abonnement était pré-cochée et visuellement dissimulée par un jeu de couleurs et de positionnement. La Cour a estimé que cette pratique « excède la simple incitation commerciale pour atteindre le seuil de la manœuvre dolosive« , rappelant que l’article 1137 du Code civil s’applique pleinement à l’environnement numérique.
La seconde catégorie reconnue concerne les mécanismes de pression temporelle artificiels. La plateforme affichait des compteurs de stock et de temps factices pour précipiter la décision d’achat. Le juge Mercier, dans son attendu principal, a qualifié ces dispositifs de « mise en scène frauduleuse visant à supprimer la réflexion nécessaire à un consentement libre ». Cette qualification marque une rupture avec la jurisprudence antérieure qui tolérait certaines formes de pression commerciale.
La troisième catégorie, peut-être la plus novatrice, concerne les parcours asymétriques. DigitalBuy avait conçu un processus d’inscription simple et rapide, mais imposait un parcours complexe de 17 étapes pour la résiliation. La Cour a considéré que cette asymétrie constituait une « entrave délibérée à l’exercice de la liberté contractuelle » assimilable à un dol. Cette position étend considérablement la notion traditionnelle de manœuvre dolosive qui, jusqu’alors, se limitait principalement à la phase précontractuelle.
L’exploitation des biais cognitifs par les algorithmes : le nouveau dol par omission
L’arrêt « Consortium de consommateurs c/ PriceMatch » (Cass. com., 7 octobre 2025, n°25-18.932) a propulsé la jurisprudence française vers une conception inédite du dol par omission. La Cour a reconnu que l’exploitation délibérée des biais cognitifs des consommateurs par des algorithmes constitue une forme moderne de réticence dolosive, même sans mensonge caractérisé.
La société PriceMatch utilisait un algorithme prédictif analysant les habitudes de navigation, les achats précédents et même la vitesse de défilement pour déterminer le prix maximum qu’un consommateur était prêt à payer. Cette technique, connue sous le nom de « tarification comportementale« , ajustait les prix à la hausse pour les consommateurs identifiés comme moins sensibles au coût ou plus pressés d’acheter. Selon la Cour, « l’asymétrie informationnelle créée par la collecte invisible de données comportementales, utilisée pour fixer un prix personnalisé à la hausse, constitue une dissimulation intentionnelle d’information déterminante ».
Le juge Moreau a précisé dans son opinion concordante que « l’absence de transparence sur les mécanismes de personnalisation des prix basés sur les vulnérabilités comportementales du consommateur prive ce dernier d’une information substantielle pour la formation de son consentement ». Cette position élargit considérablement la portée de l’article 1137 alinéa 2 du Code civil qui sanctionne la dissimulation intentionnelle d’une information déterminante.
Plus remarquable encore, la Cour a estimé que la charge de la preuve devait être aménagée dans ce contexte technologique complexe. Elle a considéré que « l’existence d’un système algorithmique opaque modulant les prix en fonction du profil comportemental crée une présomption simple de réticence dolosive, qu’il appartient au professionnel de renverser en démontrant la loyauté de son dispositif ». Ce renversement partiel de la charge probatoire constitue une innovation majeure pour protéger les consommateurs face à des systèmes techniquement impossibles à décrypter sans expertise.
La décision introduit par ailleurs une distinction subtile entre personnalisation légitime et exploitation déloyale des biais cognitifs. La Cour précise que « la simple adaptation de l’offre aux préférences exprimées par l’utilisateur demeure licite, mais l’exploitation calculée de ses faiblesses décisionnelles détectées à son insu constitue une manœuvre dolosive ».
Le consentement à l’ère des interfaces conversationnelles
L’arrêt « Dupont c/ AssistIA » (Cass. civ. 1ère, 12 juin 2025, n°24-22.417) aborde pour la première fois la question du consentement obtenu via des agents conversationnels dotés d’intelligence artificielle. La Cour y développe une doctrine novatrice concernant la personnification algorithmique comme technique potentiellement dolosive.
Dans cette affaire, un consommateur avait souscrit une assurance après interaction avec un chatbot présenté comme « Marie, votre conseillère personnelle ». L’interface utilisait un langage naturel, affichait une photo générée par IA et adaptait son discours pour créer un lien de confiance artificiel. La Cour a reconnu que « la création délibérée d’une présence sociale fictive, conçue pour exploiter les mécanismes psychologiques d’attribution de confiance, peut constituer une mise en scène dolosive lorsqu’elle est employée pour diminuer la vigilance du cocontractant ».
Le juge Lefort précise que « l’anthropomorphisation d’un système automatisé devient problématique lorsqu’elle s’accompagne d’une dissimulation de sa nature non-humaine et d’une programmation visant à exploiter les biais relationnels« . La Cour établit ainsi une distinction entre la simple personnification commerciale et l’exploitation calculée des mécanismes psychosociaux d’attachement et de réciprocité.
L’arrêt identifie trois facteurs aggravants qui, combinés, ont justifié l’annulation du contrat :
- L’agent conversationnel était programmé pour simuler des émotions contextuelles adaptatives (empathie face aux hésitations, enthousiasme face à l’intérêt)
- Le système mémorisait et exploitait les informations personnelles partagées dans la conversation pour créer une illusion de relation personnalisée
- L’interface dissimulait sa nature automatisée en intégrant des délais de réponse variables et des imperfections linguistiques calculées
Cette décision introduit le concept de « manipulation par mimétisme social » dans le droit français. La Cour souligne que « les réactions naturelles de confiance et de réciprocité envers ce qui est perçu comme un autre être humain ne doivent pas être exploitées par des systèmes automatisés conçus pour simuler une présence sociale tout en poursuivant des objectifs commerciaux prédéterminés ».
L’arrêt précise néanmoins que toute personnification n’est pas condamnable, mais que « la frontière est franchie lorsque la conception de l’agent conversationnel vise spécifiquement à contourner les mécanismes de vigilance que le consommateur activerait face à un système clairement identifié comme automatisé ».
Le consentement face aux interfaces immersives et à la réalité augmentée
L’arrêt « Groupe de consommateurs c/ ImmersiBuy » (Cass. civ. 1ère, 4 septembre 2025, n°25-11.769) étend la jurisprudence sur le vice du consentement aux contrats conclus dans des environnements de réalité virtuelle et augmentée. La Haute juridiction y reconnaît que « l’immersion sensorielle complète constitue un contexte particulier de vulnérabilité décisionnelle justifiant un devoir de loyauté renforcé ».
La société ImmersiBuy proposait une expérience d’achat immersive où les utilisateurs pouvaient essayer virtuellement des produits. Toutefois, l’environnement était conçu pour maximiser l’impact émotionnel : ajustement dynamique des couleurs, de la lumière et des sons en fonction des réactions physiologiques captées par le casque, et manipulation subtile des proportions et rendus des produits. La Cour a estimé que « la modification délibérée de la perception sensorielle, couplée à une adaptation algorithmique visant à maximiser la réponse émotionnelle positive, constitue une altération des conditions normales de formation du consentement ».
Le juge Bertrand note que « l’immersion complète prive l’utilisateur des repères contextuels habituels qui nourrissent sa réflexion critique et sa capacité comparative ». Cette position juridique innovante reconnaît que les technologies immersives peuvent créer un environnement décisionnel artificiellement isolé qui modifie les conditions d’exercice du libre arbitre.
La décision identifie trois pratiques spécifiques jugées dolosives dans les environnements immersifs :
Premièrement, la « manipulation perceptive proportionnelle » consistant à subtilement modifier l’échelle ou l’apparence des produits pour les rendre plus attractifs qu’en réalité. La Cour qualifie cette pratique de « tromperie sensorielle délibérée » assimilable à un dol.
Deuxièmement, « l’isolation informationnelle stratégique » qui consiste à présenter le produit dans un environnement contrôlé, privant l’utilisateur des informations comparatives qu’il aurait normalement à sa disposition. La Cour assimile cette pratique à une forme moderne de réticence dolosive.
Troisièmement, « l’adaptation émotionnelle prédictive » qui utilise les données biométriques captées en temps réel (dilatation pupillaire, rythme cardiaque) pour ajuster l’environnement et maximiser l’impact émotionnel positif. Cette pratique est qualifiée de « détournement des processus décisionnels naturels par exploitation des mécanismes neuropsychologiques inconscients ».
Cette jurisprudence établit que les environnements immersifs ne sont pas de simples vitrines technologiques mais des espaces contractuels spécifiques où « la capacité du cocontractant à manipuler l’intégralité de l’expérience sensorielle justifie un encadrement juridique adapté à cette asymétrie technique sans précédent ».
Le paradoxe de la transparence algorithmique : quand l’information n’éclaire plus le consentement
L’arrêt « Association de défense des consommateurs c/ MultiCorp » (Cass. civ. 1ère, 28 novembre 2025, n°25-24.981) aborde une question fondamentale et paradoxale : l’inefficacité informative des mentions légales exhaustives dans l’environnement numérique. La Cour y développe la doctrine inédite du « voile informationnel » comme forme moderne de dol.
MultiCorp avait scrupuleusement détaillé ses pratiques de collecte et d’utilisation des données dans des conditions générales de 47 pages, techniquement accessibles mais pratiquement illisibles pour le consommateur moyen. La Cour a considéré que « la présentation d’une information techniquement complète mais pratiquement inaccessible par son volume, sa complexité et sa présentation peut constituer une stratégie d’opacité délibérée assimilable à une manœuvre dolosive lorsqu’elle vise à décourager la prise de connaissance effective des conditions substantielles du contrat ».
Le juge Dupuis établit dans cette décision le principe selon lequel « la transparence formelle ne garantit pas la transparence effective lorsque les modalités de présentation de l’information sont conçues pour exploiter les limites cognitives naturelles du cocontractant ». Cette position marque une évolution significative de la jurisprudence qui, jusqu’alors, s’attachait principalement à l’existence formelle de l’information plutôt qu’à son accessibilité réelle.
La Cour identifie plusieurs techniques constitutives de ce « voile informationnel » dolosif :
La « dilution stratégique » consistant à noyer les clauses défavorables au consommateur dans une masse d’informations secondaires. La Cour précise que « la présentation délibérément non hiérarchisée d’éléments d’importance radicalement différente constitue une forme de dissimulation par surcharge informative ».
La « fragmentation cognitive » qui consiste à disperser des informations connexes dans différentes sections du document, empêchant le consommateur de percevoir leur articulation. Ce procédé est qualifié de « technique visant à entraver la compréhension systémique des engagements contractuels ».
La « temporalité manipulatoire » qui consiste à présenter les informations défavorables à des moments où l’attention du consommateur est délibérément détournée ou réduite dans le parcours d’achat. La Cour y voit une « exploitation calculée des moments de vulnérabilité attentionnelle ».
Cette décision révolutionnaire pose les bases d’une obligation de « lisibilité effective » qui transcende la simple mise à disposition formelle de l’information. Le juge Dupuis conclut que « dans l’environnement numérique caractérisé par une asymétrie informationnelle et technique exacerbée, la loyauté contractuelle exige non seulement que l’information soit accessible, mais qu’elle soit présentée de manière à permettre une véritable appropriation cognitive par le consommateur moyen ».
L’émergence d’un droit à l’autonomie décisionnelle numérique
Les arrêts de 2025 dessinent collectivement les contours d’un nouveau droit fondamental que nous pourrions qualifier de « droit à l’autonomie décisionnelle numérique« . Cette construction jurisprudentielle reconnaît que les technologies contemporaines peuvent porter atteinte à la liberté contractuelle non plus seulement par la contrainte ou la tromperie traditionnelle, mais par l’exploitation sophistiquée des processus cognitifs humains.
La Cour de cassation, dans l’arrêt « Consortium c/ PriceMatch » du 7 octobre 2025, formule explicitement que « la liberté contractuelle présuppose non seulement l’absence de contrainte externe mais l’intégrité des processus décisionnels du contractant ». Cette formulation marque un tournant conceptuel majeur : le consentement n’est plus seulement protégé contre les pressions extérieures mais contre les manipulations qui altèrent le fonctionnement même du processus de décision.
Le Professeur Masson de l’Université Paris II analyse cette évolution comme « l’adaptation nécessaire du droit des contrats à l’ère de l’économie comportementale où la connaissance fine des biais cognitifs permet leur exploitation systématique ». La jurisprudence de 2025 reconnaît ainsi implicitement que la liberté contractuelle peut être compromise non seulement par ce qui est fait au contractant, mais par ce qui est fait à son processus décisionnel lui-même.
Cette nouvelle approche soulève des questions fondamentales sur la preuve de ces manipulations cognitives. La Cour a commencé à développer une doctrine de présomptions et d’aménagement de la charge probatoire. Dans l’arrêt « Dupont c/ AssistIA », elle considère que « l’existence d’un système conçu pour adapter dynamiquement ses stratégies persuasives en fonction des réactions de l’utilisateur crée une présomption de manipulation qui déplace la charge de la preuve de la loyauté vers le concepteur du système ».
Cette évolution jurisprudentielle annonce probablement une transformation législative. La ministre de la Justice a d’ailleurs annoncé en décembre 2025 un projet de loi sur « l’intégrité du consentement numérique » qui viendrait consacrer cette construction prétorienne. Le texte prévoirait notamment l’obligation pour les concepteurs d’interfaces de documenter leurs choix de design et de démontrer l’absence d’intention manipulatoire.
Au-delà du droit national, cette jurisprudence française s’inscrit dans un mouvement international. La Cour de justice de l’Union européenne, dans son arrêt « Consumer Rights Alliance c/ Commission » du 3 novembre 2025, a reconnu que « la protection du consommateur dans l’environnement numérique exige de considérer non seulement la véracité des informations fournies mais la loyauté des architectures de choix proposées ». Cette convergence suggère l’émergence d’un consensus juridique européen sur la nécessité de protéger l’autonomie décisionnelle face aux technologies persuasives.
