Google recommande la prudence avec les réponses générées par l'IA

Gary Illyes, de Google, a mis en garde contre l'utilisation de modèles de langage volumineux (LLM), affirmant l'importance de vérifier les sources faisant autorité avant d'accepter les réponses d'un LLM. Sa réponse a été donnée dans le contexte d'une question, mais curieusement, il n'a pas publié de quelle question il s'agissait.

Moteurs de réponses LLM

D'après les propos de Gary Illyes, il est clair que le contexte de sa recommandation est l'utilisation de l'IA pour répondre aux requêtes. Cette déclaration fait suite à l'annonce par OpenAI de SearchGPT selon laquelle ils testent un prototype de moteur de recherche IA. Il se peut que sa déclaration ne soit pas liée à cette annonce et ne soit qu'une coïncidence.

Gary a d'abord expliqué comment les LLM élaborent des réponses aux questions et a mentionné comment une technique appelée « grounding » peut améliorer la précision des réponses générées par l'IA, mais elle n'est pas parfaite à 100 % et des erreurs peuvent toujours se glisser. Grounding est un moyen de connecter une base de données de faits, de connaissances et de pages Web à un LLM. L'objectif est de fonder les réponses générées par l'IA sur des faits faisant autorité.

Voici ce que Gary a posté :

« Sur la base de leurs données de formation, les LLM trouvent les mots, les expressions et les phrases les plus appropriés qui correspondent au contexte et au sens d'une invite.

Cela leur permet de générer des réponses pertinentes et cohérentes. Mais pas nécessairement exactes sur le plan factuel. VOUS, l'utilisateur de ces LLM, devez toujours valider les réponses en fonction de ce que vous savez sur le sujet sur lequel vous avez posé la question au LLM ou en fonction de lectures supplémentaires sur des ressources faisant autorité pour votre requête.

La mise à la terre peut aider à créer des réponses plus factuellement correctes, bien sûr, mais elle n'est pas parfaite ; elle ne remplace pas votre cerveau. Internet regorge de fausses informations intentionnelles et involontaires, et vous ne croiriez pas tout ce que vous lisez en ligne, alors pourquoi croiriez-vous les réponses de LLM ?

Hélas. Ce post est également en ligne et je suis peut-être titulaire d'un LLM. Eh, fais comme tu veux.

Contenu et réponses générés par l'IA

La publication LinkedIn de Gary rappelle que les LLM génèrent des réponses contextuellement pertinentes aux questions posées, mais que cette pertinence contextuelle n'est pas nécessairement factuellement exacte.

L'autorité et la fiabilité sont des qualités importantes du type de contenu que Google essaie de classer. Il est donc dans l'intérêt des éditeurs de vérifier systématiquement les faits sur le contenu, en particulier le contenu généré par l'IA, afin d'éviter de perdre par inadvertance leur autorité. La nécessité de vérifier les faits s'applique également à ceux qui utilisent l'IA générative pour obtenir des réponses.

Lisez la publication LinkedIn de Gary :

Je réponds à quelque chose de ma boîte de réception ici