Une nouvelle analyse de 858 457 sites hébergés sur la plateforme Duda montre comment les robots d’exploration IA interagissent avec les sites Web à grande échelle. Les données offrent une vision plus claire de la croissance de l’activité d’exploration et de ce que les référenceurs et les entreprises devraient faire pour augmenter le trafic provenant de la recherche IA.
L’exploration de l’IA a déjà atteint son échelle
L’exploration par l’IA se développe rapidement, avec de plus en plus de demandes liées à des réponses en temps réel et la plupart de cette activité provenant d’un seul fournisseur. Les données créent un modèle qui montre quels sites sont explorés et, plus important encore, pourquoi.
Croissance d’une année sur l’autre des références LLM
Le trafic de référence LLM a fortement augmenté au cours de la dernière année, plusieurs plates-formes affichant des gains significatifs à partir de points de départ très différents.
Modèles de trafic de référence IA
- Total des références LLM : 93 484 à 161 469 (+72,7 %)
- ChatGPT : 81 652 à 136 095 (+66,7 %)
- Claude : 106 à 2 488 (croissance 23x)
- Copilote : 22 à 9 560 (à partir de près de zéro)
- Perplexité : 11 533 à 13 157 (+14,1%)
La croissance n’est pas uniforme, mais dans l’ensemble, le trafic de référencement provenant des systèmes d’IA augmente. Cela fait de la découverte générée par l’IA une source de trafic croissante, et non marginale.
Les robots d’exploration récupèrent de plus en plus de contenu pour trouver des réponses
Les robots d’exploration IA ne sont plus utilisés principalement à des fins d’indexation, la plupart des activités étant désormais liées à la récupération de contenu en temps réel afin de générer des réponses pour les utilisateurs.
La plupart des analyses se font désormais en réponse aux requêtes des utilisateurs plutôt qu’en vue de créer un index, ce qui modifie la manière dont le contenu est accédé et utilisé.
- Récupération d’utilisateurs (réponses en temps réel) : 56,9 % de toutes les activités des robots, pilotées presque entièrement par ChatGPT
- Formation (apprentissage de modèles) : 28,8 %, répartie entre GPTBot et d’autres robots d’exploration de modèles
- Découverte (indexation de contenu) : 14,3 %, répartie sur plusieurs systèmes
- Volume de récupération des utilisateurs ChatGPT : ~ 39,8 millions de visites
Les tendances sont largement influencées par ChatGPT, qui est responsable de presque toutes les activités de récupération en temps réel. Cela signifie que l’évolution vers une exploration basée sur les réponses n’est pas uniformément répartie, mais concentrée sur une seule plate-forme qui détermine la manière dont le contenu est accessible. Cette tendance pourrait changer avec le nouveau robot d’exploration Google-Agent de Google.
Concentration du marché dans l’exploration de l’IA
L’activité des robots d’exploration d’IA est fortement concentrée, OpenAI étant responsable de la grande majorité des requêtes, reflétant sa position de principal outil sur lequel les utilisateurs s’appuient pour trouver et récupérer des informations.
- OpenAI : 55,8 millions de visites (81,0%)
- Anthropique (Claude) : 11,5 millions (16,6%)
- Perplexité : 1,3 million (1,8%)
- Google (Gémeaux) : 380 000 (0,6 %)
La plupart des activités d’exploration de l’IA proviennent d’OpenAI, ce qui correspond au rôle de ChatGPT en tant qu’outil principal de recherche et de récupération d’informations. Claude suit avec une part beaucoup plus petite, suggérant un modèle d’utilisation différent, tandis que le reste du marché représente une part minime de l’activité des robots d’exploration.
Échelle et ce que cela signifie réellement
L’exploration par l’IA fonctionne déjà sur une grande partie du Web, atteignant des centaines de milliers de sites et générant des dizaines de millions de requêtes en un seul mois.
Plus de la moitié de tous les sites de l’ensemble de données ont reçu au moins une visite d’un robot d’exploration IA, ce qui montre que cette activité ne se limite pas à un petit sous-ensemble de sites Web.
- Total des sites analysés : 858 457
- Sites avec au moins une visite de robot d’IA : 506 910 (59 %)
- Visites totales des robots d’exploration d’IA (février 2026) : 68,9 millions
L’exploration par l’IA n’est pas limitée aux sites très médiatisés ou à fort trafic. Il est déjà répandu, avec une activité constante sur la majorité du Web.
La relation entre l’exploration et le trafic réel
Les sites qui permettent aux systèmes d’IA de les explorer de manière cohérente affichent un engagement plus fort sur plusieurs mesures.
Ce que montrent réellement les données est :
- Les sites qui permettent l’exploration par l’IA reçoivent beaucoup plus de trafic humain
- Les sites à plus fort trafic sont plus susceptibles d’être explorés
Les sites qui permettent l’exploration par les systèmes d’IA reçoivent beaucoup plus de trafic humain, avec une moyenne de 527,7 sessions contre 164,9 pour les sites qui ne sont pas explorés. Cela n’établit pas de lien de causalité, mais montre un alignement clair entre les sites qui attirent des visiteurs humains et la fréquence à laquelle les systèmes d’IA les revisitent.
- Trafic humain moyen (explorer par l’IA ou non) : 527,7 contre 164,9 (3,2 fois plus élevé)
- Moyenne des formulaires remplis : 4,17 contre 1,57 (2,7 x plus élevé)
- Clic-to-call moyen : 8,62 contre 3,46 (2,5 x plus élevé)
- Sites avec plus de 10 000 sessions : taux d’exploration de 90,5 %
Les systèmes d’IA ne découvrent pas les sites faibles ou inactifs et ne les relèvent pas. Ils reviennent sur des sites qui attirent déjà des visiteurs humains. Pour les spécialistes du marketing, cela détourne l’attention de la tentative de « se faire explorer » et se concentre sur la création d’une véritable demande d’audience, puisque la visibilité dans les systèmes d’IA semble la suivre.
Qu’est-ce qui est en corrélation avec plus d’exploration
L’étude a comparé les sites qui incluent des intégrations tierces spécifiques, des fonctionnalités structurées et une profondeur de contenu avec ceux qui n’en incluent pas et a identifié ceux qui importaient le plus pour l’activité et les références des robots d’exploration de l’IA.
Sur l’ensemble de l’ensemble de données, 59 % des sites ont reçu au moins une visite d’un robot d’exploration d’IA en février 2026. Les sites qui sont explorés le plus souvent ont tendance à combiner trois types de signaux : les intégrations externes, les données commerciales structurées et la profondeur du contenu.
1. Intégrations externes
Ces intégrations connectent le site à des systèmes externes qui valident et distribuent les informations commerciales.
- Intégration Yext : Taux d’exploration de 97,1 % contre ~58 % sans (+38,9 pp)
- Intégrations des avis : Taux d’exploration de 89,8 % contre 58,8 % sans, 376,9 visites moyennes du robot d’exploration
Les sites connectés à des systèmes de données et d’évaluation externes sont explorés de plus en plus fréquemment, ce qui indique que les systèmes d’IA s’appuient sur ces intégrations comme signaux indiquant qu’une entreprise est réelle, vérifiable et mérite d’être revisitée.
2. Fonctionnalités du site structuré et données commerciales
Ceux-ci sont intégrés au site et aident les systèmes d’IA à comprendre et à vérifier l’identité de l’entreprise.
- Synchronisation du profil d’entreprise Google : taux d’exploration de 92,8 % contre 58,9 % sans, 415,6 visites d’exploration moyennes
- Schéma local : 72,3% vs 55,2% (+17,1pp), 22,3% d’adoption
- Pages dynamiques : 69,4 % contre 58,2 % (+11,2 pp)
- Commerce électronique : 54,2 % contre 59,2 % (-5,0 pp)
Les sites qui définissent clairement leur identité commerciale et structurent leurs informations de manière lisible par machine sont explorés plus souvent, ce qui montre que les systèmes d’IA privilégient les sites dont ils peuvent facilement interpréter, vérifier et extraire des informations.
3. Profondeur du contenu (volume de données utilisables)
Les sites avec plus de contenu offrent davantage de possibilités aux systèmes d’IA de récupérer, référencer et réutiliser des informations dans les réponses.
- Sites avec plus de 50 articles de blog : 1 373,7 visites moyennes par les robots contre 41,6 sans blog (~ 33 fois plus élevé)
Les sites avec plus de contenu sont explorés beaucoup plus souvent, ce qui indique que les systèmes d’IA peuvent revenir à des sources offrant une plus grande quantité d’informations utilisables sur lesquelles s’appuyer pour générer des réponses.
Complétude du schéma d’entreprise local = plus d’exploration
Cette partie de la recherche se concentre spécifiquement sur le schéma commercial local, en comparant la manière dont l’intégralité de la mise en œuvre du schéma pour communiquer les détails de l’entreprise est liée à l’activité des robots d’exploration de l’IA. Les champs mesurés incluent le nom de l’entreprise, le numéro de téléphone, l’adresse, les horaires et les profils sociaux.
- Aucun champ de schéma local : taux d’exploration de 55,2 %
- 10 à 11 champs de schéma complétés : taux d’exploration de 82 %
- Les sites dotés d’un schéma local plus complet affichent un taux d’exploration plus élevé de 26,8 points de pourcentage (82 % contre 55,2 %).
Les sites qui fournissent des informations commerciales locales plus complètes sous forme structurée sont explorés plus souvent et reçoivent davantage de visites d’exploration. À mesure que davantage de ces champs sont remplis, le taux d’exploration et la fréquence d’exploration augmentent.
Les données montrent que des données commerciales locales clairement définies permettent aux systèmes d’IA d’identifier, de vérifier, puis de revoir plus facilement toutes les conditions préalables pour recevoir du trafic provenant de la recherche d’IA.
Points à retenir
L’exploration par l’IA est une méthode parallèle de découverte de contenu et la recherche montre des modèles clairs pour les sites visités le plus souvent par les robots d’exploration.
- L’exploration par l’IA fonctionne parallèlement à la recherche traditionnelle, modifiant la manière dont le contenu est accédé et réutilisé
- Les sites dotés de signaux locaux structurés, d’un contenu plus approfondi et d’un schéma plus complet sont explorés plus souvent
- Plusieurs signaux de renforcement apparaissent ensemble sur les mêmes sites, et non de manière isolée
- Les données montrent une direction, pas une causalité, mais les modèles sont cohérents
Les données montrent que les sites qui permettent aux robots d’exploration IA de les indexer et de les revisiter facilement ont tendance à mieux fonctionner. Il est intéressant de noter que les sites qui présentent des informations claires, structurées et vérifiables, tout en continuant à susciter une réelle demande d’audience, sont plus susceptibles d’être revisités par les systèmes d’IA et de bénéficier du trafic généré par la recherche par l’IA.
Lire la recherche : Une étude de Duda révèle que les sites Web optimisés par l’IA génèrent 320 % de trafic en plus vers les entreprises locales