Google minimise GEO – mais parlons des SERP Garbage AI

Danny Sullivan de Google et le podcast Search Off The Record de John Mueller ont offert des conseils aux référenceurs et aux éditeurs qui ont des questions sur le classement dans la recherche et le chat basés sur LLM, démystifiant le conseil couramment répété de « fragmenter votre contenu ». Mais ce n’est vraiment pas la conversation que les Googleurs devraient avoir en ce moment.

SEO et la prochaine génération de recherche

Google classait le contenu en fonction de la correspondance de mots clés et le PageRank était un moyen d’étendre ce paradigme en utilisant le texte d’ancrage des liens. L’introduction du Knowledge Graph en 2012 a été décrite comme une étape vers le classement des réponses en fonction des éléments (entités) du monde réel. Google a appelé cela un passage des chaînes aux choses.

Ce qui se passe aujourd’hui, c’est ce que Google appelait en 2012 « la prochaine génération de recherche, qui exploite l’intelligence collective du Web et comprend le monde un peu plus comme le font les gens ».

Ainsi, quand les gens disent que rien n’a changé avec le référencement, c’est vrai dans la mesure où l’infrastructure sous-jacente est toujours la recherche Google. Ce qui a changé, c’est que les réponses sont dans un format long qui répond à trois questions supplémentaires ou plus au-delà de la requête initiale de l’utilisateur.

La réponse à la question de savoir ce qui est différent dans le référencement pour l’IA est que le paradigme de l’optimisation d’un mot-clé pour un résultat de recherche est brisé, fragmenté par la diffusion des requêtes.

Danny Sullivan et John Mueller de Google ont tenté de proposer des conseils sur ce sur quoi les référenceurs devraient se concentrer. Est-ce qu’ils ont fait mouche ?

Comment écrire pour des réponses longues

Étant donné que Google propose des réponses longues de plusieurs paragraphes, est-il logique de créer un contenu organisé en petits morceaux ? Comment cela affecte-t-il la façon dont les humains lisent le contenu : l’aimeront-ils ou le quitteront-ils ?

De nombreux référenceurs recommandent aux éditeurs de diviser la page en « morceaux » en se basant sur l’intuition que l’IA comprend le contenu en morceaux, divisant la page en sections. Mais il s’agit d’une approche arbitraire qui ignore le fait qu’une page Web correctement structurée est déjà divisée en morceaux grâce à l’utilisation de titres et d’éléments HTML tels que des listes ordonnées et non ordonnées. Une page Web correctement balisée et formatée doit déjà être formatée selon une structure logique qu’un humain et une machine peuvent facilement comprendre. Euh… n’est-ce pas ?

Il n’est pas surprenant que Danny Sullivan de Google avertisse les référenceurs et les éditeurs de ne pas diviser leur contenu en morceaux.

Danny a dit :

« Pour aborder l’une des choses, vous savez, j’ai parlé des choses spécifiques que les gens aiment : « Quelle est la chose que je dois améliorer. » L’une des choses que je vois sans cesse dans certains conseils et orientations et que les gens essaient de comprendre que faire avec les LLM ou autre, c’est que cela transforme votre contenu en petits morceaux, parce que les LLM aiment les choses qui sont vraiment de petite taille, n’est-ce pas ?

Nous ne voulons donc pas que vous fassiez cela. J’en parlais à des ingénieurs. Nous ne voulons pas que vous fassiez cela. Nous ne le faisons vraiment pas. Nous ne voulons pas que les gens soient obligés de créer quoi que ce soit spécifiquement pour la recherche. Cela n’a jamais été là où nous en sommes et nous continuons à l’être. Nous ne voulons vraiment pas que vous pensiez que vous devez faire cela ou produire deux versions de votre contenu, une pour le LLM et une pour le net.

Danny a parlé du chunking avec certains ingénieurs de Google et ce qu’il a retenu de cette conversation est de recommander de ne pas le chunking. Le deuxième point à retenir est que leurs systèmes sont configurés pour accéder au contenu de la même manière que les lecteurs humains y accèdent et pour cette raison, il dit de créer le contenu pour les humains.

Évite de parler de références de recherche

Mais encore une fois, il évite de parler de ce que je pense être la facette la plus importante de la recherche par l’IA, la diffusion des requêtes et l’impact sur les références. La répartition des requêtes a un impact sur les références, car Google classe une poignée de pages pour plusieurs requêtes pour chaque requête effectuée par un utilisateur. Mais ce qui aggrave cette situation, comme vous le verrez plus loin, c’est que les sites classés par Google ne sont pas à la hauteur.

Concentrez-vous sur la situation dans son ensemble

Danny Sullivan discute ensuite des inconvénients de l’optimisation d’une machine, expliquant que les systèmes finissent par s’améliorer, ce qui signifie généralement que l’optimisation des machines cesse de fonctionner.

Il a expliqué :

« Et puis les systèmes s’améliorent, probablement de la même manière qu’ils essaient toujours de s’améliorer, pour récompenser le contenu écrit pour les humains. Tout ce que vous avez fait pour plaire à ce système LLM, qui a peut-être fonctionné ou non, pourrait ne pas durer sur le long terme. « 

… Encore une fois, vous devez prendre vos propres décisions. Mais je pense que ce que vous avez tendance à voir, c’est qu’au fil du temps, ces très petites choses spécifiques ne sont pas celles qui vous guident, mais vous savez, vous prenez vos propres décisions. Mais je pense aussi que beaucoup de gens qui travaillent dans le domaine du référencement depuis très longtemps verront cela et reconnaîtront que, vous savez, se concentrer sur ces objectifs fondamentaux, c’est ce qui vous fait avancer.

Parlons des résultats de recherche de Garbage AI

Je connais Danny Sullivan depuis longtemps et j’ai beaucoup de respect pour lui, je sais qu’il a les éditeurs en tête et qu’il veut vraiment qu’ils réussissent. Ce dont j’aurais aimé qu’il parle, c’est du déclin des opportunités de trafic pour les experts en la matière et des résultats de recherche apparemment arbitraires que Google fait constamment apparaître.

L’expertise en la matière manque

Google cache intentionnellement les publications d’experts dans les résultats de recherche, cachées dans l’onglet Plus. Afin de trouver du contenu expert, un utilisateur doit cliquer sur l’onglet Plus, puis sur l’onglet Actualités.

Comment Google cache les pages Web d’experts

Le mode IA de Google favorise les déchets et les sites manquant d’expertise

Cette recherche n’a pas été triée sur le volet pour afficher des résultats médiocres. C’est littéralement la seule recherche que j’ai effectuée en posant une question légitime sur le style d’un sweat-shirt.

Le mode AI de Google cite les pages suivantes :

1. Un blog Medium abandonné de 2018, qui n’avait que deux articles de blog, tous deux contenant des images cassées. Cela ne fait pas autorité.

2. Un article publié sur LinkedIn, un site de réseautage social d’entreprise. Encore une fois, cela ne fait pas autorité ni n’est digne de confiance. Qui consulte LinkedIn pour obtenir des conseils d’experts en matière de style ?

3. Un article sur les sweat-shirts publié sur le site d’un détaillant de baskets. Ni expert, ni faisant autorité. Qui va chez un détaillant de baskets pour lire des articles sur les sweat-shirts ?

Capture d’écran des résultats Garbage AI de Google

Google cache les bonnes choses dans l’onglet Plus > Actualités

Si Google avait consulté par défaut de véritables sites d’experts, il aurait pu créer un lien vers un article de GQ ou du New York Times, deux sites Web réputés. Au lieu de cela, Google masque les pages Web de haute qualité sous l’onglet Plus.

Capture d’écran des résultats de recherche cachés de haute qualité

GEO ou SEO – peu importe

Toute cette histoire de GEO ou d’AEO et le fait que ce soit uniquement du référencement n’a pas vraiment d’importance. Ce n’est qu’un tas de gestes de main et de fanfaronnades. Ce qui compte, c’est que Google ne classe plus les sites de haute qualité et que les sites de haute qualité dépérissent à cause du manque de trafic.

Je vois ces SERPs de mauvaise qualité toute la journée et c’est déprimant car il n’y a plus de joie de découvrir dans la recherche Google. À quand remonte la dernière fois que vous avez découvert un site vraiment sympa dont vous vouliez parler à quelqu’un ?

Des déchets sur des déchets, sur des déchets, sur encore des déchets. Google a besoin d’une réinitialisation.

Que diriez-vous que Google ramène la recherche originale et que nous puissions avoir tous les éléments Gemini ondulés à la main sous l’onglet Plus quelque part ?

Écoutez le podcast ici :