Google dit que les téléchargements de sitemap GSC ne garantissent pas les rampes immédiates

John Mueller de Google a répondu à une question sur le nombre de sitemaps à télécharger, puis a déclaré qu'il n'y avait aucune garantie que l'une des URL sera rampée tout de suite.

Un membre de la communauté R / TechSeo sur Reddit a demandé s'il était suffisant pour télécharger le fichier de sitemap.xml principal, qui est ensuite lié aux sitemaps plus granulaires. Ce qui a suscité la question, c'est leur préoccupation quant à la modification des limaces de page de site Web (noms de fichiers d'URL).

Cette personne a demandé:

«J'ai soumis« sitemap.xml »à Google Search Console, est-ce suffisant ou ai-je également besoin de soumettre PageMap.xml et SiteMap-Misc.xml comme des entrées distinctes pour qu'il fonctionne?
J'ai récemment changé les limaces de page de mon site Web, combien de temps cela prendra-t-il à Google Search Console pour considérer le site de site »

Mueller a répondu que le téléchargement du fichier d'index du site (Sitemap.xml) était suffisant et que Google procédera à partir de là. Il a également partagé qu'il n'était pas nécessaire de télécharger les sitemaps granulaires individuels.

Ce qui était d'un intérêt particulier était que ses commentaires indiquant que le téléchargement de chantiers ne « garantissait » pas que toutes les URL seraient rampées et qu'il n'y a pas de temps fixe pour le moment où Googlebot ramperait les URL du site. Il a également suggéré d'utiliser l'outil d'inspection URL.

Il a partagé:

«Vous pouvez soumettre les individus, mais vous n'en avez pas vraiment besoin. De plus, les sitemaps ne garantissent pas que tout est recruté immédiatement + Il n'y a pas de temps spécifique pour Recrawling. Pour les pages individuelles, j'utiliserais l'outil d'inspecter URL et les soumettrais (en plus de sitemaps).»

Y a-t-il une valeur de téléchargement de tous les sitemaps?

Selon John Mueller, il suffit de télécharger le fichier du site d'index. Cependant, de notre côté de la console de recherche, je pense que la plupart des gens conviendraient qu'il est préférable de ne pas laisser au hasard que Google va ou non une URL. Pour cette raison, les SEO peuvent décider qu'il est rassurant d'aller de l'avant et de télécharger tous les sitemaps qui contiennent les URL modifiées.

L'outil d'inspection URL est une approche solide car elle permet aux réseaux SEO de demander ramper pour une URL spécifique. L'inconvénient de l'outil est que vous ne pouvez le demander que pour une URL à la fois. L'outil d'inspection URL de Google ne prend pas en charge les soumissions d'URL en vrac pour l'indexation.

Voir aussi: Bing recommande les balises LastMod pour l'indexation de la recherche AI