Jan-Willem Bobbink a partagé son point de vue sur X, selon lequel les trackers de visibilité IA brisent discrètement les analyses des marques qui les paient pour les suivre. Il est temps que nous nous concentrions davantage sur ce problème, car il entraîne un désalignement, des erreurs de reporting et une mauvaise utilisation des ressources et du budget marketing dans le but d’être plus visible dans l’IA.
Jan-Willem aborde la question du manque d’attribution dans les boucles RAG. Lorsqu’un tracker déclenche une invite, et que cette invite déclenche une récupération, la marque paie essentiellement un outil pour générer sa propre visibilité IA, et elle commence à rendre compte d’elle-même.
C’est ce qu’on appelle les ouroboros, un mot que vous verrez probablement apparaître de plus en plus dans l’industrie du référencement à mesure que nous décrivons l’IA/LLM.
L’effet ouroboros de la façon dont l’IA commence à se citer elle-même, quelque chose que Pedro Dias a abordé récemment.
Un grand nombre d’outils de visibilité de l’IA ont reçu des financements importants ces derniers mois, et certains d’entre eux facturent aux marques des dizaines de milliers de dollars pour « suivre » la visibilité, mais cet effet de boucle commence à devenir une réalité, et la façon dont les outils tiers suivent la visibilité de l’IA aura un effet d’entraînement.
Un exemple que je rappelle souvent est la baisse des citations produites par ChatGPT lors de la sortie du modèle 5.0 en août 2025.
Un certain nombre d’outils offrant une visibilité à ChatGPT ont vu les graphiques diminuer, non pas parce que les sites Web avaient violé les politiques anti-spam ou que leurs tactiques à court terme avaient fait leur chemin, mais à cause de la façon dont les outils suivaient les citations et que le modèle produisait moins. Il ne s’agit pas d’une mesure de visibilité, mais d’une version remaniée du suivi des classements, et ces graphiques peuvent coûter des contrats aux fournisseurs, informer de manière incorrecte les dépenses budgétaires et créer une fausse panique (ou une fausse célébration).
Les dangers de l’effet observateur
En physique, l’effet observateur indique que le fait de surveiller un phénomène le modifie. Cela se produit en temps réel pour l’industrie du référencement.
La plupart des trackers LLM utilisent un navigateur sans tête ou une API spécialisée. Lorsque Perplexity ou ChatGPT « recherche » de nouvelles informations pour répondre à l’invite de votre tracker, elles n’atteignent pas seulement votre page d’accueil ; il effectue une récupération RAG et peut accéder à plusieurs URL.
Étant donné que ces robots alternent souvent les adresses IP/proxy ou utilisent des en-têtes « furtifs » pour éviter d’être bloqués par des murs anti-scraping, ils ressemblent à des explorations de découverte organiques légitimes. C’est ainsi que fonctionnent un certain nombre d’outils de suivi des classements depuis plusieurs années.
Pour cette raison, vous pourriez signaler à un client ou à d’autres parties prenantes que « l’intérêt de l’IA pour nos pages de produits a augmenté de 40 % », alors qu’en réalité, 35 % de cette somme provenait simplement de votre propre outil de suivi actualisant son cache, ou d’autres outils de suivi vous recherchant en tant que concurrent de leur marque.
Le bruit du suivi de l’IA est pire que le bruit du suivi du classement
Comme l’a noté Jan-Willem, nous avions l’habitude d’ignorer le bruit du suivi de classement dans Google Search Console, car les impressions étaient une mesure « douce ». Mais les données des fichiers journaux sont des données concrètes utilisées pour l’infrastructure, pour comprendre comment les robots accèdent à votre site Web (analyse des fichiers journaux du serveur) et maintenant, à l’ère de l’IA, pour comprendre comment les plateformes d’IA interagissent avec votre site.
Lorsque vous présentez un rapport à votre client, à vos pairs ou à votre directeur marketing, vous essayez de prouver votre préférence de marque dans un vaste modèle linguistique. Si vos données sont polluées par votre propre suivi (et celui d’autres personnes), vous risquez une stratégie de « faux positif ».
Vous pouvez doubler le contenu qui n’est pas réellement populaire auprès des vrais utilisateurs d’IA, mais qui est simplement le contenu que votre outil de suivi déclenche le plus souvent.
Que faire maintenant
Jusqu’à ce qu’un fournisseur crée l’API « Clean Log » réclamée par Jan-Willem, vous devez traiter les fichiers journaux avec scepticisme.
Exécutez vos outils de suivi sur un environnement de test « silencieux » ou sur un ensemble spécifique d’URL sacrificielles pour mesurer le « bruit de fond » créé par l’outil lui-même.
Recherchez des modèles spécifiques (empreintes digitales de l’agent utilisateur) dans les journaux qui correspondent aux temps d’analyse de votre outil. Même si les IP alternent, le timing montre souvent des modèles qui peuvent être facilement identifiés.
Et arrêtez de signaler le « total des récupérations d’IA » comme mesure de réussite. Concentrez-vous sur la fréquence à laquelle votre marque est mentionnée par rapport à vos concurrents, qui est une mesure dérivée des résultats du LLM, et non des journaux de votre serveur.
Plus de ressources :