Comment fonctionne un LLM : Du prompt à la réponse
par Aurélien Bardon
Dans l’article : Optimisation LLM : SEO, GEO et IA : On fait le point j’avais expliqué surtout comment ont été fabriqué les LLM, l’interface de Google et les impacts SEO.
Voici une analyse plus succincte et précise au moment où l’utilisateur envoie un prompt
- Pré Prompt : réglage du LLM (exemple : inclure de la diversité ethnique, interdire de conseiller comment se tu*er)
- Prompt de l’utilisateur
- Analyse du prompt : Le LLM cherche à comprendre ce que vous demandez. L’analyse utilise le contexte de la fenêtre de discussion & du compte !
- Fan-Out : Transformation du prompt utilisateur. Standardisation du prompt et potentiel découpage en plusieurs prompts standardiser.
- PDF : Prompt deserves Freshnes : le LLM analyse s’il peut utiliser uniquement ses connaissances (dataset) ou s’il doit aller chercher sur le WEB
- Crawl : Le LLM crawle des pages externes, utilise les moteurs de recherche (via API) pour trouver des contenus & faire une synthèse
- Réponse : Affiche la réponse et propose des suggestions pour affiner / creuser (utilise le contexte de la fenêtre de discussion & du compte pour répondre)
Il y a bien entendu un très grand nombre de contrôles.
Ici des exemples de module de chatGPT. Attention tous ces modules viennent de réponse IA. Aucune idée si cela est vrai ou faux.
PS : définition du Fan Out d’après chatGPT : « multiplication parallèle de chemins de calcul ou de requêtes internes, souvent utilisée pour explorer plusieurs réponses possibles avant d’en choisir ou d’en combiner une »
Aurélien Bardon
Dites STOP aux régressions SEO avec Oseox
Je vous recommande de lire également