Bienvenue dans le SEO Pulse de la semaine. Les mises à jour de cette semaine affectent la façon dont le mode IA personnalise les réponses, quels robots IA peuvent accéder à votre site et pourquoi votre choix de domaine est toujours important pour la visibilité de la recherche.
Voici ce qui compte pour vous et votre travail.
Google connecte Gmail et Photos au mode IA
Google déploie Personal Intelligence, une fonctionnalité qui connecte Gmail et Google Photos au mode IA dans la recherche, fournissant des réponses personnalisées basées sur les propres données des utilisateurs.
Faits marquants : La fonctionnalité est disponible pour les abonnés Google AI Pro et AI Ultra qui s’y inscrivent. Elle est lancée en tant qu’expérience Labs pour les utilisateurs éligibles aux États-Unis. Google affirme ne pas s’entraîner sur la boîte de réception Gmail ou la bibliothèque de photos des utilisateurs.
Pourquoi c’est important
Il s’agit de la fonctionnalité de contexte personnel promise par Google lors de l’I/O mais retardée jusqu’à présent. Nous avons couvert le retard en décembre lorsque Nick Fox, vice-président directeur de la connaissance et de l’information de Google, a déclaré que la fonctionnalité était « encore à venir » sans calendrier public.
Pour les 75 millions d’utilisateurs actifs quotidiens signalés par Fox en mode IA, cela pourrait réduire la quantité de contexte que vous devez saisir pour obtenir des réponses personnalisées. Les exemples de Google incluent des recommandations de voyage qui prennent en compte les réservations d’hôtel provenant de Gmail et des photos de voyages antérieures, ou des suggestions de manteaux qui tiennent compte des marques préférées et des conditions météorologiques à venir.
Les effets SEO dépendent de la manière dont cela modifie les modèles de requête. Si les utilisateurs comptent sur Google pour extraire le contexte de leurs e-mails et de leurs photos au lieu de le saisir, les requêtes peuvent devenir plus courtes et plus ambiguës. Cela rend plus difficile le ciblage des recherches à longue traîne avec des signaux d’intention explicites.
Ce que disent les gens
La première réaction sociale considère que Google fait passer le mode IA de « demander et répondre » à « connaît déjà votre contexte ». Robby Stein, vice-président des produits chez Google Search, l’a positionné comme une expérience de recherche plus personnelle pilotée par des connexions de données opt-in.
Sur LinkedIn, la discussion s’est rapidement déplacée vers les compromis entre confiance et confidentialité. Michele Curtis, spécialiste du marketing de contenu, a défini la personnalisation comme quelque chose qui ne fonctionne que lorsque la confiance passe avant tout.
Curtis a écrit :
« La personnalisation ne fonctionne que lorsque la confiance passe avant l’intelligence. »
Syed Shabih Haider, fondateur de Fluxxy AI, a soulevé des problèmes de sécurité concernant la connexion de plusieurs applications.
Haider a écrit :
« Intelligence personnelle… oui, les fonctionnalités/avantages semblent incroyables… mais je ne peux m’empêcher de m’interroger sur la sécurité des données. Une fois que toutes les applications sont connectées, le risque de violation devient extrêmement élevé… »
Lisez notre couverture complète : Google lance l’intelligence personnelle en mode IA
Les robots de formation IA perdent l’accès pendant que les robots de recherche se développent
Hostinger a analysé 66 milliards de requêtes de robots sur plus de 5 millions de sites Web et a découvert que les robots d’exploration IA suivent deux chemins différents. Les robots de formation perdent l’accès à mesure que de plus en plus de sites les bloquent. Les robots de recherche et assistants étendent leur portée.
Faits marquants : Hostinger rapporte une couverture de 55,67 % pour GPTBot et une couverture moyenne de 55,67 % pour OAI-SearchBot, mais leurs trajectoires diffèrent. GPTBot, qui collecte les données d’entraînement, a chuté de 84 % à 12 % sur la période de mesure. OAI-SearchBot, qui alimente la recherche ChatGPT, a atteint cette moyenne sans la même baisse. Googlebot a maintenu une couverture de 72 %. Le bot d’Apple a atteint 24,33%.
Pourquoi c’est important
Les données confirment ce que nous avons suivi au travers de plusieurs études au cours de la dernière année. BuzzStream a découvert que 79 % des principaux éditeurs de presse bloquent au moins un robot de formation. Le bilan de l’année de Cloudflare a montré que GPTBot, ClaudeBot et CCBot avaient le plus grand nombre de directives d’interdiction totale. Les données Hostinger chiffrent l’écart d’accès entre les robots de formation et de recherche.
La distinction est importante car ces robots servent des objectifs différents. Les robots de formation collectent des données pour créer des modèles, tandis que les robots de recherche récupèrent le contenu en temps réel lorsque les utilisateurs posent des questions. Le blocage des robots de formation vous exclut des futures mises à jour du modèle, et le blocage des robots de recherche signifie que vous n’apparaîtrez pas lorsque les outils d’IA tenteront de citer des sources.
Il est recommandé de vérifier les journaux de votre serveur pour voir ce qui arrive sur votre site, puis de prendre des décisions de blocage en fonction de vos objectifs.
Ce que disent les gens
Du côté pratique du référencement, le conseil le plus cohérent est de séparer la « formation » de la « recherche et récupération » dans les décisions de vos robots lorsque vous le pouvez. Aleyda Solís auparavant a résumé l’idée en bloquant GPTBot tout en autorisant OAI-SearchBot, afin que votre contenu puisse apparaître dans des expériences de recherche de style ChatGPT sans être utilisé pour la formation de modèles.
Solis a écrit :
« interdisez l’agent utilisateur ‘GPTbot’ mais autorisez ‘OAI-SearchBot' »
Dans le même temps, les développeurs et les opérateurs de sites continuent de mettre l’accent sur le coût du trafic des robots. Dans une discussion sur r/webdev, un intervenant a déclaré que les robots IA représentaient 95 % des requêtes avant le blocage et la limitation du débit.
Un commentateur dans r/webdev a écrit :
« 95 % des requêtes adressées à l’un de nos sites Web étaient des robots IA avant que je commence à les bloquer et à les limiter »
Lisez notre couverture complète : OpenAI Search Crawler atteint une couverture de 55 % dans l’étude Hostinger
Mueller : l’hébergement gratuit de sous-domaines rend le référencement plus difficile
John Mueller de Google a averti que les services d’hébergement de sous-domaines gratuits créent des problèmes de référencement, même lorsque les éditeurs font tout le reste correctement. Ce conseil fait suite à un message publié sur Reddit par un éditeur dont le site apparaît dans Google mais n’apparaît pas dans les résultats de recherche normaux.
Faits marquants : L’éditeur utilise Digitalplat Domains, un service de sous-domaines gratuit sur la liste des suffixes publics. Mueller a expliqué que les services de sous-domaines gratuits attirent le spam et le contenu nécessitant peu d’effort, ce qui rend plus difficile pour les moteurs de recherche d’évaluer la qualité d’un site individuel. Il a recommandé de créer du trafic direct grâce à la promotion et à l’engagement communautaire plutôt que d’attendre d’abord une visibilité dans les recherches.
Pourquoi c’est important
Les conseils de Mueller correspondent à un modèle que nous avons couvert au fil des ans. Gary Illyes de Google avait déjà mis en garde contre les TLD bon marché pour la même raison. Lorsqu’une extension de domaine est envahie par le spam, les moteurs de recherche peuvent avoir du mal à identifier les sites légitimes parmi le bruit.
L’hébergement gratuit de sous-domaines crée une version spécifique de ce problème. Même si la liste des suffixes publics est censée traiter ces sous-domaines comme des unités enregistrables distinctes, le signal du quartier peut toujours avoir de l’importance. Si la plupart des sous-domaines d’un hébergeur contiennent du spam, les systèmes de Google doivent redoubler d’efforts pour trouver le vôtre.
Cela affecte toute personne envisageant l’hébergement gratuit comme moyen de tester une idée avant d’acheter un vrai domaine. L’environnement de test lui-même devient partie intégrante de l’évaluation. Comme l’a écrit Mueller : « Être visible dans les résultats de recherche populaires n’est pas la première étape pour devenir une présence Web utile et populaire. »
Pour toute personne conseillant des clients ou construisant de nouveaux projets, l’investissement de domaine fait partie de la fondation SEO. Commencer avec un sous-domaine gratuit peut permettre d’économiser de l’argent au départ, mais cela ajoute des frictions à la visibilité qu’un domaine approprié évite.
Ce que disent les professionnels du référencement
La majeure partie du partage social ici consiste à considérer l’analogie du « quartier » de Mueller comme le principal point à retenir. Dans l’échange Reddit original, il a déclaré que publier sur des hébergeurs de sous-domaines gratuits peut signifier ouvrir une boutique parmi des « colocataires problématiques », ce qui rend plus difficile pour les systèmes de recherche de comprendre la valeur de votre site dans son contexte.
Mueller a écrit :
« ouvrir une boutique sur un site rempli de… « colocataires » potentiellement problématiques. »
Sur LinkedIn, l’histoire est diffusée pour rappeler plus largement que les décisions d’hébergement « bon marché ou gratuit » peuvent discrètement limiter les performances, même lorsque tout le reste semble correct. Fernando Paez V, spécialiste du marketing numérique, l’a dénoncé comme un problème de visibilité lié aux environnements riches en spam.
Paez V a écrit :
« Les services d’hébergement de sous-domaines gratuits… attirent le spam et rendent plus difficile l’obtention de visibilité pour les sites légitimes »
Lisez notre couverture complète : Mueller de Google : l’hébergement gratuit de sous-domaines rend le référencement plus difficile
Thème de la semaine : L’accès est le nouvel avantage
Les histoires de cette semaine partagent un élément commun. L’accès, qu’il s’agisse de données personnelles, de sites Web via des robots ou d’une évaluation équitable en choisissant le bon domaine, détermine les résultats avant toute optimisation.
L’intelligence personnelle donne au mode IA l’accès à vos e-mails et à vos photos, modifiant ainsi les types de requêtes qui doivent être effectuées. Les données Hostinger montrent que les robots de recherche obtiennent l’accès tandis que les robots d’entraînement sont verrouillés. L’avertissement de sous-domaine de Mueller nous rappelle que le choix du domaine détermine si les systèmes de Google donnent à votre contenu une évaluation équitable.
Le fil conducteur est que la visibilité dépend de plus en plus de ce que vous autorisez et de l’endroit où vous construisez. Bloquer les mauvais robots peut réduire vos chances d’être découvert ou cité dans les outils d’IA. S’appuyer sur un domaine contenant beaucoup de spam vous désavantage avant d’écrire un mot. Et les fonctionnalités d’IA de Google ont désormais accès à un contexte personnel auquel les éditeurs ne peuvent pas accéder ni observer.
Pour les praticiens, cela signifie que les décisions d’accès, les vôtres et celles des plateformes, façonnent les résultats plus que les gains d’optimisation progressifs. Passez en revue les autorisations de votre robot d’exploration et vos choix de domaine, et observez comment le contexte personnel en mode IA modifie les requêtes pour lesquelles vous essayez de vous classer.
Top des histoires de la semaine :
Plus de ressources :