Google explique pourquoi le trafic de faible qualité n'a aucun impact sur les classements

Martin Splitt, de Google, a répondu à une question sur la fiabilité des sites Web et sur l'impact négatif que peuvent avoir les concurrents sur cette fiabilité. Il a expliqué comment Google évalue la fiabilité des sites et a expliqué pourquoi des facteurs tels que les liens et le trafic sur le site n'ont pas d'influence négative sur la perception de la fiabilité par Google.

Fiabilité

Les employés de Google, les articles de recherche et les brevets mentionnent la fiabilité des sites Web, mais Google n'utilise pas de véritable mesure de la confiance. Il a été confirmé il y a longtemps qu'il existe plusieurs signaux qui, ensemble, indiquent si un site peut être digne de confiance, mais il ne s'agit pas d'un algorithme de confiance, ce ne sont que des signaux.

Lorsque les employés de Google parlent de la fiabilité d'un site, il est probablement préférable de ne pas trop y réfléchir, ils parlent simplement de la fiabilité d'un site.

Un concurrent peut-il créer des signaux de confiance négatifs ?

La personne qui posait la question s'inquiétait d'un concurrent qui envoyait du trafic de robots vers son site dans le but, selon elle, de faire apparaître son site comme non fiable selon l'algorithme de Google.

Cela pourrait être une référence à une idée de référencement selon laquelle Google utilise des mesures de clics pour classer les pages Web, mais la plupart des articles de recherche sur les clics utilisent les clics pour valider les résultats de recherche, et non pour classer les pages Web, c'est généralement une question d'assurance qualité.

Voici la question qui a été posée :

« Dois-je m’inquiéter des acteurs malveillants qui tentent de faire passer mon site pour peu fiable en envoyant du spam ou du faux trafic vers mon site ? La fiabilité d’un site est binaire. »

Le terme binaire signifie que c'est ceci ou cela. Dans ce cas, la personne qui pose la question veut probablement dire qu'un site est soit digne de confiance, soit non digne de confiance, sans aucune zone grise entre les deux.

Martin Splitt a minimisé l'idée d'une qualité binaire en matière de fiabilité et a catégoriquement nié que le trafic puisse influencer la façon dont Google voit un site.

Il répondit :

« Ce n'est pas vraiment binaire et le simple fait d'envoyer du trafic provenant de sources douteuses vers un site ne sera pas « contaminé ».

Le « spam ou le faux trafic » n’est pas quelque chose qui peut influencer négativement la confiance.

Martin a expliqué que si un site est lui-même considéré comme spam, il sera considéré comme spam. Il a ensuite confirmé que les actions des autres sites en termes de liens ou de trafic n'ont aucun effet sur le fait qu'un site soit considéré comme spam ou non.

Il répondit :

« Si un site lui-même fait des choses louches, comme du spam, des logiciels malveillants, bien sûr, c'est un problème, mais personne ne peut choisir ou contrôler la provenance du trafic ou des liens, donc ce n'est pas quelque chose que Google Search examinera pour juger de la fiabilité d'un site Web. »

Le trafic des robots n'affecte pas la façon dont Google voit un site

Presque tous les sites Web sont confrontés à des niveaux élevés de robots pirates qui sondent le site à la recherche de vulnérabilités. Certains robots visitent à plusieurs reprises un site à la recherche de pages inexistantes. C'est l'état du Web, tous les sites en font l'expérience.

Ce que Martin a dit à propos de l'incapacité des tiers à faire apparaître un autre site comme non fiable est donc logique, surtout lorsqu'on comprend que tous les sites ont des liens entrants de faible qualité et un trafic de robots de faible qualité.

Regardez le podcast SEO Office Hours à 18:48 minutes :