900 millions d’utilisateurs actifs par semaine. C’est le chiffre qu’OpenAI avance pour ChatGPT en avril 2026. Parmi eux, une part croissante tape des requêtes produit : “meilleure imprimante 3D 2026”, “crème solaire bio bébé”, “chaussures trail imperméables femme”. Et derrière chaque requête, un pipeline technique décide quels sites méritent d’être cités dans la réponse.
Sur les 12 derniers mois, les sessions e-commerce provenant de ChatGPT ont bondi de 1 079 % (Visibility Labs, 94 sites). Le chiffre est spectaculaire, mais il part de quasi-rien : une étude académique portant sur 973 sites montre que ChatGPT représente encore environ 0,2 % des sessions e-commerce, tout en captant plus de 90 % du trafic issu des LLMs (Kaiser et Schulze, 2026). C’est un canal naissant, mais c’est celui qui croît le plus vite. Et les sites qui s’y positionnent maintenant prennent de l’avance.
Ce qui suit couvre le fonctionnement interne de ChatGPT Search, les blocages techniques courants et les corrections par CMS.
Comment ChatGPT Search explore le web (architecture web.run)
ChatGPT Search ne fonctionne pas comme un moteur classique. Le modèle envoie des requêtes, récupère des pages, les lit, et synthétise une réponse. Tout ce processus passe par un outil interne nommé web.run.
Les 12 opérations du pipeline web.run
Le monitoring de l’architecture révèle 12 opérations distinctes : search_query, open, find, click, screenshot, product_query, plus des widgets spécialisés (sport, finance, météo). Avant GPT-5.3, ces commandes passaient sous forme de texte chaîné (des “pipes”). Depuis, le format est du JSON structuré.
Conséquence directe : le modèle est plus précis dans ses requêtes, mais aussi plus sélectif. Le JSON structuré permet à GPT-5.3 de filtrer plus vite et de citer moins de sources. Sur 14 semaines de monitoring (400 prompts/jour), le passage de GPT-5.2 à GPT-5.3 Instant a réduit de 20 % le nombre de domaines cités par réponse (de 19,1 à 15,2 en moyenne). Moins de places, plus de concurrence.
Pour un e-commerçant, le point clé est product_query. Cette opération cible les requêtes produit et déclenche un traitement différent des requêtes informationnelles. Votre fiche produit n’est pas évaluée comme un article de blog. Elle est traitée comme une entité commerce avec des attributs attendus : prix, disponibilité, avis, spécifications.
Fan-outs et browse_rewritten_queries : ce que ça change pour les produits
GPT-5.4 pousse la logique encore plus loin avec 5 à 10 rounds de recherche par réponse (contre 2-3 pour GPT-5.3). Mais le mécanisme le plus intéressant pour le e-commerce est browse_rewritten_queries, un fan-out non documenté apparu avec GPT-5.3 Instant et spécifique aux requêtes produit.
Prenons une requête concrète : “meilleure imprimante 3D 2026”. Le modèle exécute d’abord un fan-out de réécriture pour construire une liste de produits, puis lance un fan-out shopping par produit individuel. Il ne se contente pas de chercher une seule fois. Il reformule et segmente la requête, puis compare les résultats entre eux.
Votre fiche produit a donc plusieurs occasions d’être trouvée, mais seulement si elle est techniquement accessible et sémantiquement riche. Une page produit minimaliste (titre + prix + bouton “Ajouter au panier”) passe à travers les mailles du filet. C’est le même problème que pour les grilles produit Google qui prennent le dessus sur les résultats organiques : la richesse des données produit détermine la visibilité, quel que soit le canal.
ChatGPT-User : le crawler qui ne dort jamais
Il y a deux robots OpenAI, et la confusion entre les deux coûte de la visibilité à beaucoup de sites. OAI-SearchBot construit l’index de recherche. ChatGPT-User récupère les pages en temps réel quand un utilisateur pose une question.
Ce qui frappe dans les données de crawl, c’est l’agressivité de ChatGPT-User. Sur une analyse de 24,4 millions de requêtes couvrant 69 sites pendant 55 jours (Alli AI, Search Engine Journal), ChatGPT-User crawle 3,6 fois plus que Googlebot. Avec un taux de succès de 99,99 % et un temps de réponse moyen de 11 ms, contre 96,3 % et 84 ms pour Googlebot. Le crawler d’OpenAI est rapide et exigeant. Et il revient souvent.
Identifier ChatGPT-User dans vos logs serveur
Dans vos logs Apache ou Nginx, filtrez sur la chaîne ChatGPT-User. Ce que vous cherchez :
- Fréquence des requêtes : si vous voyez 0 hit, votre site est probablement bloqué ou invisible.
- Pages visitées : le crawler cible-t-il vos fiches produit ou seulement votre page d’accueil ?
- Codes de réponse : des 403, 429 ou 503 en masse signalent un blocage actif (WAF, rate limiting, Cloudflare en mode strict).
Un client dans les accessoires outdoor avait un taux de blocage de 78 % sur ChatGPT-User à cause d’une règle Cloudflare trop agressive sur les bots non-Google. Après correction, ses pages produit ont commencé à apparaître dans les réponses ChatGPT sous 72 heures.
Robots.txt et crawl budget IA : les erreurs fréquentes
Trois configurations que je vois régulièrement sur les boutiques Shopify et WooCommerce :
-
Un
Disallow: /pourUser-agent: *dans le robots.txt envoie un signal de blocage à ChatGPT-User. En pratique, OpenAI indique que ce crawler, agissant à la demande d’un utilisateur, ne respecte pas toujours le robots.txt. Le blocage réel passe par le WAF ou le rate limiting. Mais le signal reste négatif. -
Certains e-commerçants bloquent
GPTBot(le crawler d’entraînement, pas de recherche) et bloquent aussiChatGPT-Userpar association, sans réaliser que ce sont deux agents distincts. -
ChatGPT-User utilise le sitemap pour découvrir les URLs. Si votre sitemap n’est pas déclaré dans le robots.txt ou s’il ne contient pas vos fiches produit, le crawler ne sait pas où aller.
Un trafic faible en volume, fort en conversion
Les e-commerçants qui commencent à mesurer le trafic ChatGPT découvrent un profil inhabituel. Le volume reste marginal, mais le comportement est différent du trafic organique classique.
Le taux de conversion du trafic ChatGPT atteint 1,81 %, contre 1,39 % pour l’organique non-brandé, soit 31 % de plus (Visibility Labs, 94 sites). L’utilisateur qui arrive via ChatGPT a déjà filtré et comparé. Il est plus avancé dans sa décision d’achat.
Mais le panier moyen est 14,3 % inférieur ($204 contre $238 en organique) d’après Kaiser et Schulze. Une hypothèse : le modèle oriente vers le meilleur rapport qualité-prix plutôt que vers le premium. Pour un site positionné sur la valeur, c’est un avantage. Pour une marque premium, il faudra travailler la visibilité paramétrique pour que le modèle comprenne le positionnement prix. C’est un facteur que nous avions documenté dans notre analyse du GEO e-commerce.
Visibilité paramétrique vs dynamique : le piège des sites e-commerce
Deux types de visibilité coexistent. La paramétrique : ce que le modèle sait de votre site via son entraînement. C’est stable, lent à construire, comparable au E-E-A-T des moteurs classiques. La dynamique : ce qu’il récupère en temps réel via web.run. Volatile, rapide, plus proche du SEO technique traditionnel.
Le piège pour les sites e-commerce : ils dépendent presque entièrement de la visibilité dynamique (prix, stock, fiches produit) mais n’investissent pas dans la visibilité paramétrique (contenu éditorial, guides d’achat, pages comparatives). Le modèle ne les connaît pas assez pour les chercher en temps réel.
Reddit bénéficie d’une exemption des limites copyright, ce qui lui donne un avantage structurel. Sur des requêtes produit, les threads “best X for Y” sont souvent cités en priorité. L’enjeu est le même que pour la priorisation SEO vs GEO : choisir les pages qui méritent d’être visibles plutôt que tout indexer en espérant que ça passe.
Données structurées : le double canal que vous sous-exploitez
Google, Microsoft et OpenAI ont tous confirmé publiquement que le schema markup aide les LLMs à interpréter les pages web (BrightEdge, Search Engine Journal). ChatGPT utilise concrètement les schemas FAQPage et Article pour formuler ses réponses, et Organization pour l’attribution des sources.
Des traces Google (paramètres strlid) apparaissent dans les URLs produits récupérés par ChatGPT Search. Le backend s’appuie sur des fournisseurs de recherche tiers. Vos données structurées alimentent un double canal : Google d’abord, puis ChatGPT via Google. Un schema Product incomplet vous pénalise deux fois.
Et le modèle fait confiance aux données structurées quand elles sont cohérentes avec le contenu textuel. Un schema Product qui annonce 29,90 EUR alors que le texte visible affiche 39,90 EUR crée un signal de contradiction qui pénalise la citation.
Les balises à prioriser au-delà du minimum (name, price, availability) : brand pour désambiguïser les produits similaires, sku et gtin pour les identifiants que le modèle croise avec ses données paramétriques, aggregateRating pour la confiance, mainEntityOfPage pour signaler la source canonique. L’enjeu est le même que pour le commerce agentique et les UCP : fournir aux agents IA des données structurées complètes, pas juste le minimum.
Checklist par CMS : Shopify et WooCommerce
Shopify
Le robots.txt est partiellement géré par Shopify. Depuis 2024, vous pouvez le personnaliser via robots.txt.liquid dans votre thème. Vérifiez que ni ChatGPT-User ni GPTBot ne sont bloqués. Certaines apps de sécurité (Rewind, Locksmith) ajoutent des règles sans prévenir.
Le sitemap auto-généré inclut les produits actifs mais exclut brouillons et archivés. Le piège : les variantes ne sont pas dans le sitemap. Si vous avez un produit avec 15 variantes de couleur, seule la page principale est indexable.
Les données structurées Product sont intégrées nativement dans les thèmes récents (Dawn, Sense, Craft). Mais les champs aggregateRating, brand et sku sont souvent vides si vous ne les remplissez pas. Or ce sont les attributs que product_query exploite.
Le rendu est hybride : Shopify sert du HTML statique via Liquid, ce qui est bon. Mais les apps tierces (reviews, upsell, bundles) injectent du contenu via JS côté client. Auditez chaque app.
WooCommerce
Le robots.txt est sous votre contrôle total. Vérifiez qu’il ne bloque pas les URLs /product/ et qu’il déclare votre sitemap. Les données structurées dépendent de votre plugin SEO : Rank Math gère mieux les variantes que Yoast (chaque variation a son propre schema avec prix et disponibilité).
Le rendu côté serveur dépend de votre stack. Un WooCommerce classique avec Storefront sert du HTML statique. Un WooCommerce headless avec une façade React/Next.js nécessite du SSR correctement configuré, sinon ChatGPT-User ne voit rien. Le test : désactivez JavaScript dans votre navigateur. Ce que vous voyez, c’est ce que le crawler voit.
Demain : le zero-click commerce
McKinsey estime à 1 000 milliards de dollars le shopping agentique aux US dans les cinq prochaines années (Practical Ecommerce). La direction est claire : zero-click et instant checkout. L’utilisateur décrit ce qu’il veut, l’agent compare et achète. Sans jamais visiter votre site.
Les sites e-commerce qui ne traitent pas la visibilité IA comme un canal technique à part entière vont perdre du terrain trimestre après trimestre. Les données structurées et l’accessibilité crawler ne sont plus des “nice to have”. C’est l’infrastructure de base pour exister dans une réponse générée.
Vous ne savez pas si ChatGPT Search voit vos fiches produit ? Demandez un audit de visibilité IA.
L'analyse en deux voix
Deux consultants discutent de ce sujet — données, cas terrain, implications business.
Lire la version texte
Voix 1 : Bonjour à tous et bienvenue. Aujourd'hui, on va plonger dans un sujet qui est en train de bousculer littéralement toutes nos stratégies d'acquisition : l'impact de ChatGPT Search sur le e-commerce. On est en avril 2026, OpenAI revendique 900 millions d'utilisateurs actifs par semaine, et on voit très clairement dans nos audits que l'intention de recherche évolue. Les gens ne cherchent plus juste du code ou du texte, ils tapent des requêtes transactionnelles hyper précises comme « meilleure imprimante 3D 2026 » ou « chaussures de trail imperméables femme ».
Voix 2 : Exactement. Et le changement de paradigme pour nous, praticiens, c'est que derrière chaque requête de ce type, il y a un pipeline technique complètement différent de celui de Google qui décide si la fiche produit de notre client mérite d'être citée ou non. D'ailleurs, les chiffres d'acquisition qu'on commence à remonter de nos dashboards sont assez fous. J'ai regardé une étude récente de Visibility Labs menée sur 94 sites e-commerce : sur les 12 derniers mois, les sessions e-commerce provenant de ChatGPT ont fait un bond de 1 079 %.
Voix 1 : C'est un chiffre spectaculaire, mais il faut quand même le remettre dans son contexte business. Si on regarde l'étude de Kaiser et Schulze qui porte sur près de 1 000 sites, ChatGPT ne représente encore qu'environ 0,2 % du trafic global des sessions e-commerce. Par contre — et c'est là que c'est stratégique — ça capte plus de 90 % de tout le trafic qui provient des LLMs. C'est un canal qui est jeune, mais qui a la croissance la plus violente qu'on ait vue depuis des années.
Voix 2 : C'est clair. Et la question que me posent tous les directeurs e-commerce en ce moment, c'est : « Comment je fais pour que mes produits sortent là-dedans ? ». Et pour y répondre, il faut vraiment qu'on rentre dans le moteur, dans la façon dont ChatGPT explore le web. Parce que ça ne fonctionne pas du tout comme un Googlebot classique. Tout passe par leur architecture interne, le fameux web.run.
Voix 1 : Exact. Quand on monitore l'architecture de web.run, on identifie 12 opérations distinctes. Il y a le search_query, le click, le screenshot, etc. Mais avant l'arrivée de GPT-5.3, ces requêtes étaient envoyées sous forme de texte chaîné, un peu brouillon. Maintenant, tout passe en JSON structuré. Le modèle est devenu clinique, beaucoup plus sélectif. D'ailleurs, sur 14 semaines de monitoring intensif, on a remarqué qu'avec le passage de GPT-5.2 à GPT-5.3 Instant, le nombre de domaines cités dans les réponses a chuté de 20 %. On est passés d'environ 19 domaines cités à 15 en moyenne.
Voix 2 : Ce qui veut dire concrètement que la compétition s'est durcie. Si tu perds 20 % de « places » disponibles, tu as intérêt à être techniquement irréprochable. Et pour nos clients e-commerçants, la commande vitale à comprendre dans web.run, c'est product_query. C'est la commande qui s'active quand le modèle détecte une intention d'achat. À ce moment-là, le modèle ne lit plus la page comme un simple article de blog. Il cherche une entité commerciale. Il s'attend à trouver un prix, une dispo, des avis, des spécifications techniques.
Voix 1 : C'est là que GPT-5.4 a vraiment mis un coup d'accélérateur. On est passés à 5 ou 10 rounds de recherche par réponse, contre 2 ou 3 avec GPT-5.3. Et le vrai game changer pour nous, c'est ce mécanisme non documenté qui est apparu : le browse_rewritten_queries. Concrètement, pour une requête « meilleure imprimante 3D 2026 », l'IA fait d'abord un fan-out, une réécriture multiple de la requête pour sourcer une liste de produits, puis elle lance un fan-out shopping ciblé sur chaque produit individuel pour comparer les prix et les dispos.
Voix 2 : Ce qui me ramène à une réalité très terre-à-terre : les pages produits minimalistes, c'est terminé. Si tu as juste un titre, un prix, une petite ligne de description et un bouton « Ajouter au panier », l'IA passe complètement à travers. La fiche a beau être techniquement accessible, sémantiquement elle est vide, donc elle est ignorée. Mais le pire, c'est quand la fiche produit est riche, mais que le crawler de ChatGPT se casse les dents dessus. Et là, on a un vrai sujet d'infrastructure réseau.
Voix 1 : Tu parles de la confusion entre les différents bots d'OpenAI, j'imagine ?
Voix 2 : Exactement. Je vois ça tout le temps dans mes audits techniques. Il y a OAI-SearchBot, qui construit l'index global, et il y a ChatGPT-User. Et c'est ce dernier qui nous intéresse pour le e-commerce. C'est le crawler qui part récupérer les pages en temps réel à la seconde où l'utilisateur pose sa question. Si tu regardes les données de l'étude Alli AI sur 24 millions de requêtes, ChatGPT-User crawle 3,6 fois plus que Googlebot. Avec un taux de succès de 99,99 % et un temps de réponse exigé de 11 millisecondes. Il est ultra agressif, ultra rapide.
Voix 1 : C'est énorme, 11 millisecondes… Et le problème, c'est que face à un bot aussi agressif, les pares-feux paniquent. J'ai eu le cas précis le mois dernier avec un client qui vend des accessoires outdoor. Ses ventes générées par l'IA étaient à zéro. On va fouiller dans ses logs Nginx, on filtre sur la chaîne ChatGPT-User, et là on découvre un taux de blocage de 78 % ! Son WAF Cloudflare était configuré en mode strict et dégommait tous les bots qui n'avaient pas l'étiquette Googlebot.
Voix 2 : Et comment ça s'est traduit sur son chiffre d'affaires ?
Voix 1 : On a corrigé la règle Cloudflare pour laisser passer ChatGPT-User. En moins de 72 heures, ses fiches produits ont commencé à remonter dans les réponses de ChatGPT sur des requêtes concurrentielles. 72 heures ! Avec Google, pour désindexer un blocage et regagner ses positions, ça peut prendre des semaines.
Voix 2 : C'est fou cette réactivité. Mais outre Cloudflare et les WAF, il y a aussi le bon vieux robots.txt qui pose problème. Sur Shopify ou WooCommerce, je vois systématiquement trois grosses erreurs. La première, c'est le classique Disallow: / pour le User-agent: *. Même si OpenAI dit que ChatGPT-User — agissant pour un humain — peut parfois contourner le robots.txt, en réalité ça envoie un signal hyper négatif. La deuxième erreur, c'est le marchand qui a voulu bloquer GPTBot pour éviter que son contenu serve à entraîner l'IA, et qui, sans le savoir, a bloqué ChatGPT-User par association.
Voix 1 : Ce qui est suicidaire pour le commerce. Tu refuses d'apparaître dans les recommandations d'achat… Et la troisième erreur que je vois tout le temps, c'est sur les sitemaps. ChatGPT-User s'en sert énormément pour découvrir les URLs profondes. Si ton sitemap n'est pas déclaré dans le robots.txt, ou s'il n'inclut pas tes produits actifs, le crawler est aveugle.
Voix 2 : Sur Shopify, c'est un enfer. Le robots.txt est modifiable depuis 2024 via le robots.txt.liquid, mais tu as des applications de sécurité, genre Rewind ou Locksmith, qui viennent te rajouter des règles de blocage sans te prévenir. Et parlons du sitemap auto-généré de Shopify : il te met bien les produits actifs, mais si tu as un produit avec 15 variantes de couleurs, seule l'URL parente est indexable. ChatGPT-User ne verra jamais la déclinaison exacte que l'utilisateur cherche.
Voix 1 : Sur WooCommerce, tu as un peu plus la main, mais ça dépend des plugins. Typiquement, un Rank Math gère beaucoup mieux les variantes qu'un Yoast, parce qu'il crée un schema pour chaque variation avec son propre prix et sa propre disponibilité. D'ailleurs, attention aux sites WooCommerce qui passent en headless avec du React ou du Next.js. Si le Server-Side Rendering est mal configuré, ChatGPT-User arrive sur une page blanche. Le test est simple pour ceux qui nous écoutent : désactivez le JavaScript dans votre navigateur Chrome. Si votre page produit disparaît, c'est exactement ce que le crawler d'OpenAI voit.
Voix 2 : Absolument. Mais imaginons que la technique soit propre. Le bot passe, il lit la page. Parlons ROI et business. Parce qu'il y a un vrai paradoxe avec ce trafic IA, et c'est ce qui surprend le plus nos clients. Le trafic est faible, mais la conversion est stratosphérique.
Voix 1 : Les données de Visibility Labs le prouvent : le taux de conversion du trafic issu de ChatGPT tape les 1,81 %, contre 1,39 % pour le trafic organique traditionnel non-brandé. C'est une hausse de 31 % du taux de conversion. Pourquoi ? Parce que l'outil a fait tout le travail de friction en amont. L'utilisateur qui clique sur le lien sortant de ChatGPT a déjà posé ses questions, comparé les specs, filtré ses choix. Il arrive sur la boutique, il est prêt à sortir la carte bleue.
Voix 2 : Oui, +31 % de conversion, c'est magnifique. Mais attention au revers de la médaille. L'étude de Kaiser et Schulze pointe un chiffre qui fait grincer des dents les marques haut de gamme : le panier moyen baisse de 14,3 %. Il tombe à 204 dollars contre 238 en organique SEO. L'IA n'est pas ton vendeur en boutique qui va te faire de l'upsell émotionnel. Elle est ultra-rationnelle, elle cherche le meilleur rapport qualité-prix. Si tu vends du premium, l'IA va souvent te court-circuiter au profit d'une alternative moins chère.
Voix 1 : C'est là qu'intervient la notion de visibilité paramétrique. Les e-commerçants font tous la même erreur. Ils misent tout sur la visibilité dynamique — le crawl en temps réel du prix et du stock via web.run. Mais ils ne nourrissent pas la visibilité paramétrique, c'est-à-dire ce que le modèle a appris pendant son entraînement général. Si tu as une marque premium, il faut produire des guides d'achats poussés, des comparatifs éditoriaux. Sinon, l'IA ne connaît pas la valeur ajoutée de ton produit, et elle juge uniquement sur le prix facial.
Voix 2 : C'est d'ailleurs pour ça que Reddit cartonne autant dans les réponses produit. Ils ont une exemption sur le copyright, l'IA avale tous les threads de type « quel est le meilleur produit pour X », et ça ressort en priorité. Mais au niveau de la fiche produit pure, il y a un levier d'optimisation massif qu'on sous-exploite complètement : les données structurées. Et là, il y a un concept de « double canal » qu'il faut que tout le monde comprenne.
Voix 1 : Le fameux double canal Google vers ChatGPT. BrightEdge a bien mis en évidence, confirmant les dires d'OpenAI, que le schema markup est le langage natif pour aider les LLMs. Mais ce qui est fascinant, c'est de voir dans nos logs des paramètres strlid — des paramètres de tracking Google — dans les URLs récupérées par ChatGPT Search. Ça prouve que le backend de ChatGPT s'appuie en partie sur l'index de Google en temps réel.
Voix 2 : Donc, si ton Schema Product est cassé, tu te fais pénaliser deux fois. Tu disparais de Google Shopping, et par ricochet, tu disparais des réponses de ChatGPT. Et le truc qui tue les conversions, c'est la contradiction de données. Tu as un vieux script sur ton thème qui affiche un prix à 29,90 EUR dans le code JSON-LD, mais côté front-end, ton équipe marketing a passé le prix à 39,90 EUR. ChatGPT lit ça, détecte une incohérence, et au lieu de te citer, il te dégage de sa réponse par manque de fiabilité.
Voix 1 : C'est mortel. Au-delà des balises obligatoires comme le name, le price, et l'availability, dans mes audits, j'oblige systématiquement l'intégration de quatre balises. Un, la balise brand, pour désambiguïser si tu vends des revendeurs. Deux et trois, les balises sku et gtin. C'est fondamental car c'est avec ces codes-barres universels que le LLM fait le pont entre ton site en temps réel et ce qu'il a appris dans sa base de données paramétrique. Et quatre, la balise aggregateRating pour importer la preuve sociale. Sur les thèmes Shopify récents comme Dawn ou Sense, c'est natif, mais si tu ne remplis pas le champ côté back-office, la balise sort vide dans le code.
Voix 2 : C'est pour ça qu'il faut auditer son code source, et pas juste regarder l'interface de son CMS. Au final, tout ce qu'on vient de se dire sur web.run, sur le paramétrage du WAF, sur le schema.org… Ce n'est plus du « nice to have » technique. C'est l'infrastructure de survie de demain.
Voix 1 : Complètement. Je lisais le rapport de McKinsey la semaine dernière. Ils estiment le marché du shopping agentique — le zero-click commerce — à 1 000 milliards de dollars aux États-Unis dans les cinq prochaines années. La trajectoire est limpide : l'utilisateur va juste dicter ce qu'il veut à son agent IA, l'agent va lire nos fiches produits en une fraction de seconde, comparer les prix, et valider l'achat instantané via un instant checkout. Sans que le client final n'ait jamais vu le design de notre site marchand.
Voix 2 : Voilà. Le site web de demain n'est plus une vitrine pour les humains, c'est une API géante pour les LLMs. Ceux qui ne traitent pas la visibilité IA comme un vrai canal d'acquisition technique autonome vont juste se faire effacer du marché, trimestre après trimestre. Les fondations, c'est maintenant qu'elles se posent.