Les documents Robots.txt se développent, les liens profonds obtiennent des règles, l’UE intervient

Bienvenue dans le Pulse de la semaine : les mises à jour affectent la façon dont les liens profonds apparaissent dans vos extraits, la façon dont votre fichier robots.txt est analysé, le fonctionnement des fonctionnalités agentiques dans la recherche et la façon dont les règles de partage de données de l’UE s’appliquent aux chatbots IA.

Voici ce qui compte pour vous et votre travail.

Google répertorie les meilleures pratiques pour en savoir plus sur les liens profonds

Google a mis à jour sa documentation d’extraits de code avec une nouvelle section sur les liens profonds « En savoir plus » dans les résultats de recherche. La documentation répertorie trois bonnes pratiques qui peuvent augmenter la probabilité que ces liens apparaissent.

Faits marquants : Le contenu doit être immédiatement visible par un humain lors du chargement de la page, et le contenu caché derrière des sections extensibles ou des interfaces à onglets peut réduire la probabilité que ces liens apparaissent. Les sections doivent utiliser les titres H2 ou H3. Le texte de l’extrait doit correspondre au contenu qui apparaît sur la page, et les pages dont le contenu est chargé après un défilement ou une interaction peuvent réduire encore davantage la probabilité.

Pourquoi c’est important

Les trois pratiques constituent les premières directives spécifiques publiées par Google sur cette fonctionnalité. Les sites utilisant des sections FAQ extensibles, des zones de détails de produits à onglets ou du contenu déclenché par défilement pour les informations de base peuvent voir moins de liens profonds dans leurs extraits de code que les sites qui affichent le même contenu au chargement de la page.

Les conseils correspondent à un modèle que Google a appliqué à d’autres fonctionnalités de recherche. Le contenu qui s’affiche sans interaction de l’utilisateur est plus susceptible d’apparaître dans un affichage amélioré.

Slobodan Manić, fondateur de No Hacks, a fait une observation connexe sur LinkedIn :

« La documentation est structurée autour d’un comportement d’extrait (lire des liens plus profonds dans les résultats de recherche), mais le langage choisi par Google se lit comme une préférence générale. « Contenu immédiatement visible par un humain » est l’instruction structurelle, pas une astuce spécifique pour en savoir plus. « 

Le point de vue de Manić prolonge son entretien à mon humble avis du 16 avril avec la rédactrice en chef Shelley Walsh, dans laquelle il a soutenu que la plupart des sites Web sont structurellement défectueux pour les agents d’IA. Il affirme que les robots de recherche et les agents d’IA sont désormais confrontés au même problème structurel et que l’audit est le même pour les deux.

Pour les pages existantes, la question d’audit est de savoir si les informations clés sont contenues dans un élément cliquable pour développer. Si une page comporte déjà un lien profond « En savoir plus » pour une section, la structure de cette section sert de guide pour ce qui fonctionne. Pour les autres sections de la même page, reproduire cette structure peut également améliorer leurs chances.

Google décrit les conseils comme les meilleures pratiques qui peuvent « augmenter la probabilité » d’apparition de liens profonds. Cette couverture est importante car il ne s’agit pas d’une liste d’exigences, et le respect des trois ne peut pas garantir l’apparition des liens.

Lisez notre couverture complète : Google répertorie les meilleures pratiques pour en savoir plus sur les liens profonds

Google pourrait étendre sa liste de règles Robots.txt non prises en charge

Google peut ajouter des règles à sa documentation robots.txt sur la base de l’analyse des données réelles collectées via HTTP Archive. Gary Illyes et Martin Splitt ont décrit le projet sur le dernier podcast Search Off the Record.

Faits marquants : L’équipe de Google a analysé les règles les plus fréquemment non prises en charge dans les fichiers robots.txt sur des millions d’URL indexées par HTTP Archive. Illyes a déclaré que l’équipe prévoyait de documenter les 10 à 15 règles non prises en charge les plus utilisées au-delà de l’agent utilisateur, de l’autorisation, de l’interdiction et du plan du site. Il a également déclaré que l’analyseur pouvait étendre les fautes de frappe qu’il acceptait pour interdiction, bien qu’il ne se soit pas engagé sur un calendrier ou sur des fautes de frappe spécifiques au nom.

Pourquoi c’est important

Si Google documente davantage de directives non prises en charge, les sites utilisant des règles personnalisées ou tierces disposeront d’indications plus claires sur ce que Google ignore.

Toute personne gérant un fichier robots.txt avec des règles au-delà de l’agent utilisateur, de l’autorisation, de l’interdiction et du plan du site doit vérifier les directives qui n’ont jamais fonctionné pour Google. Les données de l’archive HTTP sont publiquement interrogeables sur BigQuery, de sorte que la même distribution utilisée par Google est disponible pour toute personne souhaitant l’examiner.

La tolérance aux fautes de frappe est la partie la plus spéculative. La formulation d’Illyes implique que l’analyseur accepte déjà certaines fautes d’orthographe de « disallow », et que d’autres pourraient être honorées au fil du temps. Vérifiez dès maintenant toutes les variantes orthographiques et corrigez-les, plutôt que de supposer qu’elles seront ignorées.

Lisez notre couverture complète : Google peut étendre la liste des règles Robots.txt non prises en charge

L’UE propose à Google de partager les données de recherche avec des concurrents et des chatbots IA

La Commission européenne a envoyé des conclusions préliminaires proposant que Google partage les données de recherche avec des moteurs de recherche concurrents dans l’UE et l’EEE, y compris des chatbots IA qui sont considérés comme des moteurs de recherche en ligne selon le DMA. Les mesures ne sont pas encore contraignantes, avec une consultation publique ouverte jusqu’au 1er mai et une décision finale attendue d’ici le 27 juillet.

Faits marquants : La proposition couvre quatre catégories de données partagées dans des conditions équitables, raisonnables et non discriminatoires. Les catégories sont les données de classement, de requête, de clic et d’affichage. L’éligibilité s’étend aux fournisseurs de chatbots IA qui répondent à la définition des moteurs de recherche en ligne du DMA. Si la Commission maintient son éligibilité jusqu’à la décision finale, les fournisseurs éligibles pourraient avoir accès aux données de recherche Google anonymisées selon les conditions proposées par la Commission.

Pourquoi c’est important

Cette proposition étend explicitement l’éligibilité au partage de données des moteurs de recherche aux chatbots IA dans le cadre du DMA. Si l’éligibilité survit à la consultation, la catégorie réglementaire de « moteur de recherche » inclut désormais des produits que la plupart des travaux de marketing de recherche ont traités comme une catégorie distincte.

Les conséquences varient selon l’endroit où vous opérez. Pour les sites optimisant leur visibilité dans l’UE/EEE, le changement pourrait élargir la portée des signaux de recherche anonymisés. Les produits d’IA concurrents de Google sur ce marché pourraient utiliser les données pour améliorer leurs systèmes de récupération et de classement, ce qui pourrait, à son tour, affecter le contenu qu’ils citent.

En dehors de l’UE, l’effet réglementaire direct est nul. La définition de la catégorie est une autre affaire. La manière dont la Commission établit la limite entre « chatbot IA » et « chatbot IA qualifié de moteur de recherche » sera probablement évoquée dans les procédures futures.

La question d’éligibilité est l’événement à surveiller jusqu’au 1er mai. Si la Commission restreint les critères des chatbots IA en réponse aux commentaires de la consultation, les implications resteront réglementaires. S’il tient le coup, cela créerait un précédent important quant à la manière dont la recherche IA est classée.

Lisez notre couverture complète : Google devra peut-être partager les données de recherche avec ses concurrents

Google ajoute de nouvelles fonctionnalités de recherche basées sur les tâches

Google a introduit de nouvelles fonctionnalités de recherche qui poursuivent son évolution vers l’achèvement des tâches. Les utilisateurs peuvent désormais suivre les baisses de prix des hôtels individuels via une nouvelle bascule dans la recherche, et Google ajoute la possibilité de lancer des agents IA directement depuis le mode IA.

Faits marquants : Le suivi des prix des hôtels est disponible dans le monde entier via une bascule dans la barre de recherche. Lorsque les prix baissent pour un hôtel suivi, Google envoie une alerte par e-mail. L’agent IA lancé depuis le mode AI permet aux utilisateurs de lancer des tâches gérées par l’IA dans l’interface de recherche. Rose Yao, chef de produit Google Search, a publié un article sur les fonctionnalités de X.

Pourquoi c’est important

Chaque fonctionnalité basée sur des tâches déplace un processus précédemment démarré sur un autre site vers la propre surface de Google. Le suivi des prix des hôtels existe au niveau de la ville depuis des mois. L’expansion vers des hôtels individuels ajoute un nouveau signal que les utilisateurs peuvent définir dans Google plutôt que sur les sites d’hôtels ou d’agrégateurs.

La visibilité des réservations directes dépend de l’appartenance à l’écosystème de Google. Les sites qui s’appuient sur des alertes de baisse de prix comme déclencheur de retour pour les utilisateurs peuvent voir une partie de cet engagement réaffectée à l’interface utilisateur de suivi de Google. Pour les marques hôtelières, cela augmente les enjeux pour garantir que les pages d’hôtel individuelles soient entièrement renseignées dans le profil d’entreprise Google et les flux d’hôtels.

Sur LinkedIn, Daniel Foley Carter a connecté la fonctionnalité à un modèle plus large :

« Les aperçus de l’IA de Google, le mode IA et maintenant les fonctionnalités intégrées pour SERP + SITE ne font que Google manger de plus en plus d’opportunités de trafic. Tout ce que Google nous a dit de ne pas faire, il le fait lui-même. SPAM / CONTENU DE FAIBLE VALEUR – ne résumez pas le contenu des autres – Google le fait. « 

Le lancement de l’agent IA est plus spéculatif. Google n’a pas publié de documentation détaillée expliquant quels types de tâches les utilisateurs peuvent déléguer ou comment les sources sont citées. La fonctionnalité confirme que la recherche agentique, décrite par Sundar Pichai comme « recherche en tant que gestionnaire d’agents », apparaît progressivement dans la recherche plutôt que sous la forme d’un lancement unique.

Lisez la couverture complète de Roger Montti : Google ajoute de nouvelles fonctionnalités de recherche basées sur les tâches

Thème de la semaine : les règles sont en train d’être écrites

Chaque histoire de cette semaine décrit quelque chose qui était auparavant implicite ou en cours.

Google a annoncé son intention d’élargir ce que couvre sa documentation robots.txt. La société a répertorié des pratiques spécifiques qui peuvent augmenter la probabilité d’apparition de liens profonds « En savoir plus ». La Commission européenne a proposé des mesures qui étendent l’éligibilité au partage de données des moteurs de recherche aux chatbots IA dans le cadre du DMA. Et les fonctionnalités basées sur les tâches décrites par Sundar Pichai dans les interviews sont déployées sous forme de boutons dans la barre de recherche.

Pour votre quotidien, le sol devient plus ferme. Moins de questions relèvent du jugement. Ce qui est admissible ou non, ce que Google prend en charge et ce qui compte comme moteur de recherche pour un régulateur sont tous écrits. Cela joue en votre faveur lorsque cela implique des critères d’audit plus clairs, et en défaveur lorsque « nous n’étions pas sûrs » n’est plus une réponse défendable.

Top des histoires de la semaine :

Plus de ressources :