Le problème du retour sur investissement du trafic IA que personne ne mesure correctement

Les moteurs de recherche ont été conçus pour faire plusieurs choses à la fois : classer un champ d’options, diriger l’utilisateur vers l’une d’entre elles et garder l’humain à l’intérieur de la décision afin que le moteur ne soit jamais propriétaire du choix. Cette dernière partie n’était pas un accident. C’était l’architecture de la responsabilité. De grands modèles de langage ont été construits sans rien de tout cela. Ils ont été conçus pour répondre directement à la question, ce qui est un travail totalement différent, et les choix de conception qui en découlent changent à quoi ressemble la visibilité, à quoi ressemble le risque et quel est le mot Retour sur investissement Cela peut honnêtement signifier que la chose qui vous envoie du trafic n’a jamais été conçue pour envoyer du trafic en premier lieu.

Deux systèmes, deux emplois

La description de poste d’un moteur de recherche est longue. Il explore le Web, l’indexe, classe un pool de résultats candidats par rapport à une requête, les présente sous forme de liste classée, puis attend que l’humain prenne une décision en matière de clic. Le SERP lui-même évolue vers la rétention depuis des années maintenant, avec des galeries, des extraits enrichis, des boîtes de réponses, des cartes locales, des carrousels vidéo et des aperçus de l’IA, tous superposés à des fonctionnalités qui maintiennent l’utilisateur sur la page plus longtemps et en acheminent moins vers des sites tiers. Mais le contrat sous-jacent était toujours le même. Le moteur offre des options. L’utilisateur en sélectionne un. L’utilisateur possède le choix.

Un LLM n’offre pas d’options. Cela produit une réponse. La citation, lorsqu’elle apparaît, ne fonctionne pas comme un instrument de routage. Il s’agit plutôt d’un artefact de mise à la terre produit par un pipeline de récupération, ou dans certains cadres, d’une couverture de confiance, ou des deux à la fois. Quelle que soit la lecture que vous préférez, aucune d’entre elles ne décrit un système conçu pour envoyer du trafic ailleurs. Le système a été conçu pour résoudre la question sur place.

Cette distinction se trouve sous chaque conversation métrique dans cet espace. Lorsque les praticiens demandent quel est le taux de référencement LLM, à quoi ressemble le numéro de trafic attribué, quel est le clic provenant d’une réponse d’IA, ils posent des questions qui supposent un mécanisme de routage qui ne fait pas réellement partie de l’architecture. Quel que soit le trafic qui transite, c’est un sous-produit, pas un objectif de conception, et confondre les deux est la première erreur dans presque toutes les conversations sur le retour sur investissement de la visibilité de l’IA.

La surface de responsabilité déplacée

L’humain dans la décision du clic était le bouclier du SERP. Si le lien sélectionné par l’utilisateur menait à un endroit nuisible, trompeur ou diffamatoire, le moteur pourrait pointer vers la liste des options et vers la propre agence de l’utilisateur pour en choisir une. Le moteur n’avait pas publié la réclamation. Il avait fait apparaître 10 sources candidates, l’utilisateur en avait choisi une, et ce qui s’est passé ensuite n’était pas la sortie éditoriale du moteur. Ce n’est pas une petite fonctionnalité. C’est la raison pour laquelle les protections de l’article 230 ont été structurées de cette manière, et pourquoi le classement algorithmique a traditionnellement été traité comme autre chose que le discours direct.

Les LLM n’ont pas de bouclier équivalent derrière lequel se tenir. Le système produit la réponse directement, de sa propre voix, sans champ d’options ni source sélectionnée par l’utilisateur. La surface de responsabilité que le SERP a été conçu pour décharger correspond au modèle produisant le résultat, et les affaires qui ont déjà été portées devant les tribunaux commencent à esquisser les bords de cette surface.

Walters contre OpenAI a été rejeté par jugement sommaire en mai 2025, et la décision s’est fortement appuyée sur les avertissements d’OpenAI et sur un lecteur averti qui savait raisonnablement que le chatbot pouvait halluciner. Cette lecture protège les chatbots grand public à usage général dans un type de cas très spécifique. Il ne protège pas tous les produits qui utilisent un modèle de langage. Dans une autre affaire, Air Canada a été tenue responsable des fausses déclarations de son chatbot de service client concernant sa propre politique tarifaire en cas de deuil, car un client pouvait raisonnablement compter sur l’agent d’assistance d’une compagnie aérienne pour obtenir des informations précises sur les politiques de cette compagnie aérienne. La confiance raisonnable est le terme juridique clé, et plus le chatbot apparaît spécialisé et faisant autorité, plus la défense de non-responsabilité devient difficile à faire valoir.

Le litige actif trace toujours la frontière. OpenAI fait actuellement face à plusieurs poursuites judiciaires liées à des allégations selon lesquelles ChatGPT aurait poussé les utilisateurs au suicide ou à des délires nuisibles, dont plusieurs impliquant des mineurs. L’affaire des droits d’auteur du New York Times contre OpenAI a été autorisée à se poursuivre par un juge fédéral en mars 2025, et Anthropic a réglé avec les auteurs de livres en août 2025 pour une somme estimée à plusieurs milliards. Les plaintes européennes relatives au RGPD continuent de transiter par Noyb. Battle contre Microsoft est toujours en direct. Aucun de ces résultats n’est réglé, et certains seront rejetés pour les mêmes motifs de non-responsabilité qui ont résolu Walters. Le fait n’est pas que les opérateurs LLM perdront chaque cas. Le fait est que la surface de responsabilité appartient désormais au système qui produit le résultat, que le plaignant individuel gagne ou perde, et que chaque marque construite contre un LLM hérite d’une version de cette surface lorsqu’elle utilise le résultat du système dans son propre travail en contact avec le client.

Le problème du dénominateur

L’argument le plus courant contre l’investissement dans le travail de visibilité de l’IA semble décisif jusqu’à ce que vous examiniez attentivement ce qu’il mesure. L’argument est grossier : ChatGPT et les autres envoient une infime partie du trafic de référence, quelque part dans la fourchette inférieure à un chiffre du total entrant, alors pourquoi réaffecter le budget à un canal qui fait à peine bouger l’aiguille ? L’étude de Conductor évalue la part combinée des références de l’IA à environ 1 % du trafic des éditeurs. Ce chiffre est réel. En première lecture, cela semble clore proprement la question du retour sur investissement.

Cela ne ferme rien. Le problème est le dénominateur.

Alors que la part de l’IA dans le trafic reste à peu près stable, le volume absolu du trafic généré par la recherche s’est effondré dans la plupart des catégories d’éditeurs. Les données de Similarweb montrent que le trafic organique vers les éditeurs de presse est passé d’environ 2,3 milliards de visites mensuelles à la mi-2024 à moins de 1,7 milliard en mai 2025, soit une perte de plus de 600 millions de visites en moins d’un an. Le trafic de recherche de Business Insider a chuté de 55 % entre avril 2022 et avril 2025, le HuffPost a perdu environ la moitié de ses références de recherche et le New York Times a vu la part de recherche de son trafic sur ordinateur et mobile passer de 44 % à 37 %. Les recherches sans clic sont passées de 56 % à 69 % entre mai 2024 et mai 2025, à mesure que les aperçus de l’IA se développaient dans l’ensemble du SERP. Une enquête de l’Institut Reuters menée fin 2025 auprès de 280 dirigeants des médias a révélé qu’ils s’attendaient à une nouvelle baisse de 43 % en moyenne au cours des trois prochaines années.

Dans ce contexte, une part stable en pourcentage d’un gâteau qui rétrécit n’est pas stable. C’est une perte. Les sceptiques qui pointent du doigt le chiffre de 1 % mesurent la part relative d’une base de trafic qui se contracte en dessous d’eux, et ils traitent une baisse absolue comme s’il s’agissait d’un état stable. La vraie question n’est pas de savoir si les LLM envoient encore un trafic significatif. La vraie question est de savoir si le canal qui envoyait un trafic significatif fait toujours ce qu’il faisait, et la réponse est visiblement non. Le dénominateur évolue et tout calcul de retour sur investissement ancré à l’ancien dénominateur est un calcul de l’environnement précédent, pas de l’environnement actuel.

Ce que disent les milliards

Si les arguments relatifs à l’intention de conception, à la responsabilité et au dénominateur laissent encore place au doute, le dernier endroit où il faut examiner est la préférence révélée. Que font réellement de leur capital les entreprises disposant des données internes les plus complètes sur le comportement des utilisateurs ?

La réponse est sans ambiguïté. Les cinq plus grands fournisseurs américains d’infrastructures cloud et d’IA ont engagé entre 660 et 690 milliards de dollars en dépenses d’investissement en 2026, soit presque le double des niveaux de 2025. Alphabet à lui seul prévoit entre 175 et 185 milliards pour 2026, soit plus du double de ses dépenses de 2025 de 91 milliards. Microsoft, Amazon, Meta et Oracle affichent tous des courbes tout aussi agressives. Le chiffre qui compte le plus, et qui désamorce le contre-argument habituel, vient des stratèges de crédit de Bank of America, qui estiment que les investissements en IA atteindront 94 % des flux de trésorerie d’exploitation en 2025 et 2026, contre 76 % en 2024.

Ce n’est pas la forme d’une couverture défensive. Une couverture est une fraction du flux de trésorerie, déployée pour éviter d’être pris au dépourvu si le pari d’un concurrent s’avère payant. Les entreprises ne placent pas 94 % de leurs flux de trésorerie d’exploitation dans une catégorie pendant deux années consécutives, à moins que les dirigeants ne croient sincèrement que cette catégorie constitue l’entreprise. Et ces équipes de direction ont accès à des données que le reste d’entre nous n’avons pas. Ils peuvent voir à l’intérieur de leurs propres produits, leurs propres changements de comportement d’utilisateur, leurs propres analyses de cohortes, leurs propres conversations de pipeline d’entreprise. Ils sont légalement tenus de déployer le capital des actionnaires d’une manière qui reflète ce qu’ils voient réellement, et ils le déploient vers une architecture qui produit des réponses directes plutôt que des listes d’options classées. Pour croire que la recherche telle que nous la connaissions reste la référence, vous devez croire que des dizaines de PDG, de conseils d’administration et d’équipes de direction disposant de décennies de données uniquement internes lisent mal leurs propres chiffres, tandis qu’une industrie externe ne disposant d’aucune de ces données lit correctement le marché. Cela ne fait pas de crayon.

L’aspect comportement humain de l’équation fait valoir le même point dans un registre différent. Chaque technologie permettant d’économiser du travail qui a jamais été introduite a remodelé le statu quo plus rapidement que ne le prédisaient ses sceptiques, car l’efficacité cognitive n’est pas une préférence. Il s’agit d’un comportement de survie, inhérent à de longues périodes où les calories étaient rares et où les raccourcis étaient importants. Lorsqu’un nouvel outil apparaît et facilite considérablement certaines tâches, son adoption n’est pas une question de savoir si. Il s’agit de savoir à quelle vitesse et sur quelle courbe. ChatGPT compte désormais environ 900 millions d’utilisateurs actifs hebdomadaires, contre 200 millions 18 mois plus tôt, et la catégorie complète dépasse le milliard d’utilisateurs actifs sur toutes les plateformes. Le comportement a déjà changé. L’argent a déjà été transféré. La seule chose qui n’a pas complètement changé est le cadre de mesure que la plupart des praticiens utilisent encore pour évaluer le canal.

Ce qui ramène la question à celle qui mérite réellement d’être posée. Que faites-vous s’il n’y a pas de retour sur investissement selon l’ancienne définition et que vous ne pouvez toujours pas ignorer le canal ? La réponse honnête est que les marques devront investir dans un travail de visibilité dont le retour ne s’exprime pas en clics ou en trafic de référencement, car les clics et le trafic de référencement sont des artefacts de la conception précédente. Être la source citée, la source fondée, la source fiable à l’intérieur de la réponse représente un type de visibilité différent, et elle nécessitera un type de mesure différent. Les équipes qui découvrent cela en premier ne le feront pas parce qu’elles ont trouvé un cas de retour sur investissement qui a convaincu leur directeur financier. Ils le feront parce qu’ils ont examiné les courbes d’investissement, les courbes de comportement et les courbes de responsabilité, et ont conclu que le canal est l’avenir, que le tableur sache ou non comment l’évaluer.

Si cela arrive quelque part dans votre travail, ou si cela se lit mal d’où vous êtes assis, j’aimerais en entendre parler. Le changement qui se produit actuellement est trop important pour le point de vue d’un seul praticien, et le meilleur signal que je reçois vient des conversations qui commencent après la fin de l’article.

Plus de ressources :


Cet article a été initialement publié sur Duane Forrester Decodes.


Journal