John Mueller de Google a proposé une solution simple à un utilisateur de Reddit qui accusait « l’IA » de Google d’être responsable d’une note dans les SERP indiquant que le site Web était en panne depuis début 2026.
Le Redditor n’a pas créé d’article sur Reddit, il a simplement créé un lien vers son article de blog accusant Google et l’IA. Cela a permis à Mueller d’accéder directement au site, d’identifier la cause comme étant liée à l’implémentation de JavaScript, puis de leur indiquer clairement que ce n’était pas la faute de Google.
Redditor blâme l’IA de Google
Le billet de blog du Redditor blâme Google, en titrant l’article avec une salade de mots à la mode en informatique qui complique à l’excès et (sans le savoir) déforme le problème réel.
Le titre de l’article est :
« Google pourrait penser que votre site Web est en panne
Comment l’agrégation Cross-page AI peut introduire de nouveaux vecteurs de responsabilité.
Cette partie sur « l’agrégation d’IA sur plusieurs pages » et les « vecteurs de responsabilité » fait sourciller car aucun de ces termes n’est un terme de l’art établi en informatique.
Le terme « pages croisées » est probablement une référence au Query Fan-Out de Google, où une question sur le mode AI de Google est transformée en plusieurs requêtes qui sont ensuite envoyées à la recherche classique de Google.
Concernant les « vecteurs de responsabilité », un vecteur est une chose réelle qui est discutée en référencement et qui fait partie du traitement du langage naturel (NLP). Mais le « vecteur de responsabilité » n’en fait pas partie.
Le billet de blog de Redditor admet qu’ils ne savent pas si Google est capable de détecter si un site est en panne ou non :
» À ma connaissance, Google n’a pas de capacité particulière pour détecter si les sites Web sont en activité ou en panne. Et même si mon service interne tombait en panne, Google ne serait pas en mesure de le détecter puisqu’il se trouve derrière un mur de connexion. «
Et ils ne semblent peut-être pas savoir comment fonctionnent RAG ou Query Fan-Out, ni peut-être comment fonctionnent les systèmes d’IA de Google. L’auteur semble considérer comme une découverte que Google fait référence à de nouvelles informations au lieu de connaissances paramétriques (informations du LLM obtenues lors de la formation).
Ils écrivent que la réponse de l’IA de Google indique que le site Web a indiqué qu’il était hors ligne depuis 2026. :
« … la formulation dit que le site Web a indiqué plutôt que les personnes indiquées ; bien qu’à l’ère de l’incertitude des LLM, cette distinction ne signifie peut-être plus grand-chose.
… il mentionne clairement la période début 2026. Étant donné que le site Web n’existait pas avant la mi-2025, cela suggère en fait que Google dispose d’informations relativement récentes ; mais encore une fois, les LLM ! »
Un peu plus loin dans le billet de blog, le Redditor admet qu’il ne sait pas pourquoi Google dit que le site Web est hors ligne.
Ils ont expliqué avoir mis en œuvre une solution « shot in the dark » en supprimant une fenêtre contextuelle. Ils pensaient à tort que c’était la fenêtre contextuelle qui était à l’origine du problème, ce qui souligne l’importance d’être certain de la cause des problèmes avant d’apporter des modifications dans l’espoir que cela les résoudra.
Le Redditor a déclaré qu’il ne savait pas comment Google résumait les informations sur un site en réponse à une requête sur le site, et a exprimé son inquiétude quant au fait qu’il pensait qu’il était possible que Google récupère des informations non pertinentes, puis les affiche comme réponse.
Ils écrivent :
« …nous ne savons pas exactement comment Google rassemble la combinaison de pages qu’il utilise pour générer des réponses LLM.
Ceci est problématique car tout ce qui se trouve sur vos pages Web peut désormais influencer des réponses sans rapport.
… L’IA de Google pourrait saisir tout cela et le présenter comme la réponse.
Je ne reproche pas à l’auteur de ne pas savoir comment fonctionne la recherche Google AI, je suis presque certain que ce n’est pas largement connu. Il est facile d’avoir l’impression qu’il s’agit d’une IA qui répond à des questions.
Mais ce qui se passe essentiellement, c’est que la recherche IA est basée sur la recherche classique, l’IA synthétisant le contenu qu’elle trouve en ligne en une réponse en langage naturel. C’est comme poser une question à quelqu’un, il la recherche sur Google, puis il explique la réponse à partir de ce qu’il a appris en lisant les pages du site Web.
John Mueller de Google explique ce qui se passe
Mueller a répondu au message Reddit de la personne de manière neutre et polie, montrant pourquoi la faute réside dans la mise en œuvre de Redditor.
Mueller a expliqué :
« Est-ce votre site ? Je vous recommande de ne pas utiliser JS pour modifier le texte de votre page de « non disponible » à « disponible » et de simplement charger tout ce morceau à partir de JS. De cette façon, si un client n’exécute pas votre JS, il n’obtiendra pas d’informations trompeuses.
Ceci est similaire à la façon dont Google ne recommande pas d’utiliser JS pour modifier une balise méta robots de « noindex » à « veuillez considérer mon excellent travail de balisage HTML pour l’inclusion » (il n’y a pas de balise méta robots « index », vous pouvez donc être créatif).
La réponse de Mueller explique que le site s’appuie sur JavaScript pour remplacer le texte d’espace réservé qui est brièvement diffusé avant le chargement de la page, ce qui ne fonctionne que pour les visiteurs dont les navigateurs exécutent réellement ce script.
Ce qui s’est passé ici, c’est que Google a lu le texte d’espace réservé que la page Web montrait comme contenu indexé. Google a vu le contenu original servi avec le message « non disponible » et l’a traité comme le contenu.
Mueller a expliqué que l’approche la plus sûre consiste à avoir dès le départ les informations correctes présentes dans le code HTML de base de la page, afin que les utilisateurs et les moteurs de recherche reçoivent le même contenu.
Points à retenir
Il y a ici plusieurs points à retenir qui vont au-delà du problème technique sous-jacent au problème du Redditor. En tête de liste se trouve la manière dont ils ont essayé de deviner leur chemin vers une réponse.
Ils ne savaient vraiment pas comment fonctionnait la recherche Google AI, ce qui introduisait une série d’hypothèses qui compliquaient leur capacité à diagnostiquer le problème. Ensuite, ils ont mis en œuvre un « correctif » basé sur une estimation de ce qui, selon eux, était probablement à l’origine du problème.
Deviner est une approche des problèmes de référencement qui se justifie par l’opacité de Google, mais parfois il ne s’agit pas de Google, il s’agit d’un manque de connaissances dans le référencement lui-même et d’un signal indiquant que des tests et un diagnostic supplémentaires sont nécessaires.