Comment les Large Language Models (LLM) sélectionnent les marques ?
Le LLM ou Large Language Models est ce qui permet aux IA de répondre à vos demandes de façon textuelles. Cela permet donc qu’un humain puisse comprendre les IA.
Depuis que les LLM représentent une nouvelle habitude de recherche, il est nécessaire de comprendre la sélection des LLM pour les contenus. D’ici à 2026, 25% des recherches traditionnelles seront remplacées par des chatbots IA selon Gartner. Il est donc devenu primordial de bien prendre en compte comment il est possible d’être visible par eux.
Comment les LLM font leurs sélections ?
Pour que les marketeurs aient une influence sur les choix du LLM, il faut prendre en compte le processus de sélection de ceux-ci. Ce processus comporte différentes étapes importantes à comprendre avant d’y travailler.
1 – Détection du besoin
Quand un utilisateur envoie une question (appelée prompt*), le LLM commence par comprendre le sens de la demande. Il identifie ce que l’utilisateur cherche vraiment : une définition, une donnée chiffrée, une explication, etc. En fonction de ce besoin, il décide s’il peut répondre avec les informations déjà présentes dans sa mémoire interne, ou s’il doit aller chercher des données ailleurs.
2 -Recherche multi-sources
Par la suite, s’il a besoin de compléter ses connaissances, il lance une recherche via différentes sources. Il peut interroger des bases de données internes ou externes, consulter des sites web ou encore puiser dans des documents accessibles en ligne. L’objectif est de trouver les informations les plus pertinentes pour répondre à la question posée.
3 – Analyse sémantique
Une fois ces données collectées, le LLM les découpe en petits blocs de texte appelés chunks*. Il analyse ensuite leur sens, leur cohérence et leur pertinence par rapport à la question. Cette étape lui permet de filtrer les contenus inutiles ou redondants.
4 – Fusion des informations
Après cette analyse, il regroupe et compare les différentes sources. Il cherche à croiser les informations, à éliminer les contradictions et à construire une réponse cohérente et fiable. C’est à ce moment qu’il combine ses propres connaissances avec les données externes pour former une réponse complète.
5 – Sélection finale
Enfin, le LLM choisit les sources qu’il va utiliser dans sa réponse. Pour cela, il évalue la fiabilité et l’autorité de chaque source. Cette autorité dépend notamment de la réputation du site (référencement naturel, qualité des contenus, influence dans son domaine, etc.). En d’autres termes, plus un site est reconnu et bien classé, plus il a de chances d’être pris en compte par le LLM. Il fournit alors, par la suite, le message final à l’internaute en répondant à sa question (prompt).
*chunks : petits morceaux de texte que les LLM découpent à partir d’un contenu plus long pour analyser et comprendre l’information facilement.
*prompt : une instruction ou une série de données fournies à une IA, qui utilise ces informations pour générer des réponses ou des créations
Les 3 piliers fondamentaux du choix des LLM
Le LLM repose sur 3 piliers fondamentaux. Ils permettent d’identifier la visibilité d’un site.
Le premier est de comprendre la pertinence factuelle, ce qui signifie la capacité du contenu à répondre précisément à une question donnée. Les LLM analysent le texte pour vérifier s’il apporte une information claire, vérifiable et utile, notamment face à ce qu’on appelle le « fan-out ». C’est-à-dire la décomposition d’une grande question en plusieurs sous-questions. Si votre contenu apporte une réponse directe à l’une de ces sous-questions, il a plus de chances d’être sélectionné.
Le second pilier repose sur l’autorité et la crédibilité du site ou de l’auteur. Les LLM s’appuient sur les principes du E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness) définis par Google. En d’autres termes, ils évaluent qui parle. L’auteur est-il identifiable ? Est-il reconnu dans son domaine ? Le site est-il cité par d’autres sources fiables ? Plus un contenu démontre de l’expertise et de la légitimité, plus il inspire confiance au modèle.
Et enfin, le 3ème et dernier pilier repose sur la praticabilité, à savoir sa capacité à être compris, reformulé et exploité facilement par une IA. Un texte structuré, clair, bien organisé et rédigé dans un langage accessible est donc plus facile à interpréter et à réutiliser dans une réponse générée.
Source : Bulldozer, MasterClass de Jordan chenevier-truchet, Victor da silva et Benjamin André
Ces trois piliers sont donc étroitement liés. Ensemble, ils forment un équilibre nécessaire pour maximiser la visibilité et la réutilisation d’un contenu par les LLM. En les gardant à l’esprit, les entreprises peuvent mieux orienter leur stratégie et optimiser leur présence dans les réponses générées par IA.
L’enjeu des requêtes « informational » vs « transactionnal »
Comme nous avons pu le voir auparavant, le LLM ne va chercher des sources externes uniquement si nécessaire. Il ne va donc pas visiter le web à chaque demande.
Par exemple, si la demande (prompt) concerne des faits intemporels comme la capitale d’un pays, il utilise son savoir interne. Il trouve donc l’information directement dans sa base de données. Dès lors, il n’y a aucune chance d’être visible par le LLM sur ce genre de requête.
Le défi réside donc dans les requêtes qui ne relève pas des faits intemporels, mais qui nécessitent des données actuelles, fraîches, complexes ou de niche. On les appelle « single-search »* et « research »*. Dès lors, les sujets que vous abordez doivent apporter au LLM une valeur ajoutée dans votre contenu.
De plus, le LLM va prioriser des sites avec un bon ranking SEO. Le ranking SEO, ou positionnement SEO, correspond à la position qu’occupe une page ou un site internet dans les pages de résultats d’un outil de recherche (Bing, Google, etc.) Dès lors, votre position SEO traditionnelle sur ces micro-requêtes apportant donc des données que le LLM n’a pas. Il reste donc déterminant pour être vu par celui-ci.
*Single-search : requête ponctuelle cherchant une information précise, liée à l’actualité ou à un besoin immédiat.
*Research : requête exploratoire visant à comprendre un sujet en profondeur ou comparer plusieurs informations.
À l’ère de l’intelligence artificielle, comprendre comment les LLM sélectionnent les contenus devient un véritable enjeu de visibilité pour les marques. Les entreprises doivent désormais adapter leur stratégie SEO en intégrant les notions de pertinence, d’autorité et de praticabilité pour être reconnues par ces nouveaux moteurs de recherche intelligents. Plus qu’une évolution technologique, c’est une transformation profonde de la manière dont les contenus sont conçus, référencés et valorisés sur le web.
Envie d’en savoir plus ? Contactez le Groupe Aquitem.
Source de l’article: Bulldozer, MasterClass de Jordan Chenevier-truchet, Victor Da silva et Benjamin André.

