Entrée de l’utilisateur
C’est donc là que l’utilisateur entre. C’est ici que vous saisissez votre requête, car vous essayez de trouver la meilleure paire de chaussures de course pour vous personnellement, et pas seulement ce que le navigateur de ChatGPT considère comme la meilleure paire de chaussures de course.
Compréhension du contexte
Alors ce qui se passe, c’est qu’il y a une compréhension du contexte qui se poursuit. Il analyse votre session de navigation actuelle, et il peut s’agir de plusieurs onglets.
Maintenant, juste pour que vous le sachiez, le modèle ne peut voir ce que vous parcourez qu’avec votre permission. Vous pouvez donc activer ou désactiver cette fonctionnalité dans l’Atlas de ChatGPT pour le moment.
Récupération d’informations
Ensuite, ce qui se passe, c’est qu’il y a une récupération d’informations. Si ChatGPT estime qu’il dispose déjà de suffisamment d’informations dans son contexte local, il peut les utiliser pour répondre directement à votre requête. Mais le plus souvent, il peut utiliser ses API de récupération afin de rechercher des informations plus récentes et à jour afin de vous donner une réponse plus complète et meilleure, spécifiquement à ce que vous avez demandé.
Raisonnement et génération de réponses
Ensuite, il passe au raisonnement et à la génération de réponses.
Le LLM fusionne plusieurs éléments : le contexte de la page de ce que vous avez consulté dans les onglets du navigateur dans ChatGPT Atlas, l’intention de l’utilisateur, ce qu’il pense que vous demandez réellement pour essayer de vous donner la réponse la plus pertinente pour vous, la récupération des sources fournies s’il devait utiliser l’API pour rechercher des réponses en direct sur Internet et la mémoire pertinente.
Ainsi, il peut examiner vos discussions et conversations passées que vous avez eues dans ChatGPT et décider si elles sont pertinentes à ajouter également à sa réponse.