La compression est-elle un mythe de SEO Google?

J'ai récemment rencontré un test de référencement qui a tenté de vérifier si le ratio de compression affecte les classements. Il semble qu'il y en ait peut-être qui croient que des ratios de compression plus élevés sont en corrélation avec les classements inférieurs. Comprendre la compressibilité dans le contexte du référencement nécessite de lire à la fois la source d'origine sur les ratios de compression et le document de recherche lui-même avant de tirer des conclusions pour savoir s'il s'agit ou non d'un mythe SEO.

Pages Web de compression des moteurs de recherche

La compressibilité, dans le contexte des moteurs de recherche, fait référence à la quantité de pages Web peut être compressée. Le rétrécissement d'un document dans un fichier zip est un exemple de compression. Les moteurs de recherche compressent les pages Web indexées car il économise de l'espace et entraîne un traitement plus rapide. C'est quelque chose que tous les moteurs de recherche font.

Sites Web et fournisseurs d'hôtes compressent les pages Web

La compression des pages Web est une bonne chose car elle aide à rechercher des robots de robots en cours d'exécution, ce qui envoie à son tour le signal à Googlebot qu'il ne va pas analyser le serveur et il est normal de saisir encore plus de pages pour l'indexation.

La compression accélère les sites Web, offrant aux visiteurs du site une expérience utilisateur de haute qualité. La plupart des hôtes Web permettent automatiquement la compression car il est bon pour les sites Web, les visiteurs du site et également bon pour les hôtes Web, car il enregistre les charges de bande passante. Tout le monde gagne avec la compression du site Web.

Des niveaux élevés de compression sont en corrélation avec le spam

Des chercheurs d'un moteur de recherche ont découvert que des pages Web hautement compressibles étaient en corrélation avec un contenu de faible qualité. L'étude a appelé Spam, putain de spam et statistiques: utiliser une analyse statistique pour localiser les pages Web de spam (PDF) a été réalisé en 2006 par deux des principaux chercheurs du monde, Marc Najork et Dennis Fetterly.

Najork travaille actuellement chez DeepMind en tant que chercheur distingué. Fetterly, ingénieur logiciel chez Google, est un auteur de nombreux articles de recherche importants liés à la recherche, à l'analyse de contenu et à d'autres sujets connexes. Ce document de recherche n'est pas n'importe quel document de recherche, il est important.

Ce que le document de recherche de 2006 montre, c'est que 70% des pages Web qui se compressent à un niveau de 4,0 ou plus avaient tendance à être des pages de faible qualité avec un niveau élevé d'utilisation des mots redondants. Le niveau de compression moyen des sites était d'environ 2,0.

Voici les moyennes des pages Web normales répertoriées par le document de recherche:

  • Ratio de compression de 2,0:
    Le rapport de compression le plus fréquente dans l'ensemble de données est de 2,0.
  • Ratio de compression de 2,1:
    La moitié des pages ont un rapport de compression inférieur à 2,1 et la moitié ont un rapport de compression au-dessus.
  • Ratio de compression de 2,11:
    En moyenne, le rapport de compression des pages analysées est de 2,11.

Ce serait un moyen de premier passage facile de filtrer le spam de contenu évident, il est donc logique qu'ils fassent cela pour éliminer le spam de contenu lourd. Mais le spam désherbant est plus compliqué que des solutions simples. Les moteurs de recherche utilisent plusieurs signaux car il se traduit par un niveau de précision plus élevé.

Les chercheurs de 2006 ont indiqué que 70% des sites avec un niveau de compression de 4,0 ou plus étaient du spam. Cela signifie que les 30% autres n'étaient pas des sites de spam. Il y a toujours des valeurs aberrantes dans les statistiques et que 30% des sites non-spam expliquent pourquoi les moteurs de recherche ont tendance à utiliser plus d'un signal.

Les moteurs de recherche utilisent-ils la compressibilité?

Il est raisonnable de supposer que les moteurs de recherche utilisent la compressibilité pour identifier le spam évident à main lourde. Mais il est également raisonnable de supposer que si les moteurs de recherche l'utilisent, ils l'utilisent avec d'autres signaux afin d'augmenter la précision des mesures. Personne ne sait avec certitude si Google utilise la compressibilité.

Impossible de déterminer si Google utilise la compression

Cet article concerne le fait qu'il n'y a aucun moyen de prouver qu'un rapport de compression est un mythe SEO ou non.

Voici pourquoi:

1. Si un site déclenchait le rapport de compression 4.0 plus les autres signaux de spam, ce qui se passerait, c'est que ces sites ne seraient pas dans les résultats de recherche.

2. Si ces sites ne sont pas dans les résultats de recherche, il n'y a aucun moyen de tester les résultats de recherche pour voir si Google utilise le rapport de compression comme signal de spam.

Il serait raisonnable de supposer que les sites avec des rapports de compression élevés de 4,0 ont été retirés. Mais nous ne le faisons pas savoir Ce n'est pas une certitude. Nous ne pouvons donc pas prouver qu'ils ont été supprimés.

La seule chose que nous savons, c'est qu'il y a ce document de recherche qui est rédigé par des scientifiques distingués.

La compressibilité est-elle un mythe SEO?

La compressibilité n'est peut-être pas un mythe SEO. Mais ce n'est probablement rien que les éditeurs ou les SEO devraient s'inquiéter tant qu'ils évitent les tactiques lourdes comme la farce des mots clés ou les pages de coupe-biscuits répétitives.

Google utilise la déshallon qui supprime les pages en double de leur index et consolide les signaux PageRank sur la page qu'ils choisissent d'être la page canonique (s'ils en choisissent un). La publication des pages en double ne déclenchera probablement aucun type de pénalité, y compris tout ce qui concerne les ratios de compression, car, comme cela a déjà été mentionné, les moteurs de recherche n'utilisent pas de signaux isolément.