
Alors que ChatGPT, Perplexity, Gemini et autres grands modèles de langage (LLMs) gagnent en popularité, les marques n’ont qu’une crainte : disparaître des moteurs de recherche. En fournissant des réponses directement à l’internaute, ces IA génératives perturbent la stratégie SEO de nombreuses entreprises.
Mais pour répondre à l’internaute en toute transparence, les LLMs doivent fournir leurs sources. Et c’est là que l’optimisation de l’IA générative entre en jeu. Avec ce référencement naturel nouvelle génération, vous pouvez devenir visible sur n’importe quel moteur boosté à l’intelligence artificielle. Décryptage.
Se familiariser avec le traitement du langage naturel (TAL) et les grands modèles linguistiques (LLM) est une étape essentielle pour anticiper les évolutions en matière de référencement, de branding numérique et de stratégies de contenu. Une compréhension approfondie de ces technologies permet d’en exploiter pleinement le potentiel.
Les idées présentées ici s’appuient sur une décennie de travail en recherche sémantique, des études approfondies dans la littérature scientifique et l’analyse des brevets liés à l’IA générative.
Avant d’adopter des outils comme GEO (Generative Engine Optimization), il est essentiel de comprendre les fondations technologiques des LLM. De la même manière qu’il est indispensable de maîtriser les moteurs de recherche pour éviter des pratiques inefficaces, investir quelques heures dans l’apprentissage de ces concepts peut permettre de gagner du temps et des ressources en écartant des stratégies peu pertinentes.
Les modèles de langage comme GPT, Claude ou LLaMA incarnent une transformation majeure dans la manière dont l’IA générative et les moteurs de recherche traitent les requêtes.
Ils ne se contentent pas de chercher des correspondances textuelles, mais génèrent des réponses nuancées et contextuellement riches, grâce à leurs capacités avancées en compréhension et raisonnement linguistiques. Par exemple, des recherches comme « Large Search Model: Redefining Search Stack in the Era of LLMs » de Microsoft soulignent leur rôle dans la refonte des technologies de recherche.
Les LLM adoptent une approche unifiée pour traiter toutes les tâches liées à la recherche comme des problèmes de génération de texte. Cela leur permet :
Les données brutes sont transformées en jetons, les unités fondamentales des modèles. Ces jetons représentent divers types d’informations (mots, entités, images, etc.) selon l’application.
Les jetons sont convertis en vecteurs, une étape essentielle des modèles basés sur les transformateurs, comme la technologie de Google. Ces vecteurs, représentations numériques des jetons, capturent leurs attributs spécifiques et permettent de mesurer des relations sémantiques via des méthodes comme la similarité cosinus ou la distance euclidienne.
Cette approche basée sur les vecteurs et les transformateurs a révolutionné l’IA générative et reste un facteur clé de l’adoption massive des LLM aujourd’hui.

Le décodage est l’étape où le modèle interprète les probabilités associées à chaque prochain jeton possible (mot ou symbole). L’objectif est de produire une séquence fluide et naturelle.
Pour atteindre cet objectif, plusieurs méthodes sont utilisées :

Ces méthodes influencent le niveau de créativité du modèle. Par exemple, un modèle « strict » favorise les options les plus probables, produisant des réponses cohérentes et prévisibles, tandis qu’un modèle « plus flexible » explore des alternatives, générant des réponses variées.
Le choix de la méthode de décodage explique pourquoi une même invite peut produire des résultats différents. Avec une marge de créativité élargie, les modèles prennent en compte une gamme plus étendue de mots potentiels, ce qui favorise des réponses plus originales et nuancées.
Bien que les processus d’encodage et de décodage soient principalement associés au traitement du texte, ils s’appliquent également à d’autres formats comme l’audio et les visuels. Ces contenus sont d’abord convertis en jetons textuels avant d’être traités par les modèles.
Pour les applications GEO, cette capacité multimédia est moins pertinente. Cependant, la fenêtre contextuelle élargie des LLM permet de mieux comprendre les relations entre les entités principales et secondaires dans les phrases, enrichissant ainsi les résultats produits.
Les grands modèles linguistiques (LLM) doivent relever trois défis principaux :
Pour y remédier, la génération augmentée par récupération (RAG) s’impose comme une solution efficace.
RAG enrichit les LLM en leur fournissant des données spécifiques à chaque sujet, intégrées sous forme de documents ou de vecteurs représentant des relations sémantiques complexes (comme dans les graphiques de connaissances).
Cette approche permet :
RAG offre des opportunités pour les outils comme GEO, en facilitant l’accès à des sources pertinentes et en permettant une personnalisation des données utilisées.
Cependant, le défi reste de déterminer comment les plateformes sélectionnent et évaluent la qualité des sources, un facteur clé pour assurer la pertinence et la fiabilité des réponses.
Les modèles de récupération jouent un rôle fondamental dans les systèmes de génération augmentée par récupération (RAG), en agissant comme des « bibliothécaires spécialisés » capables d’identifier les informations pertinentes dans d’immenses ensembles de données.
Ces modèles utilisent des algorithmes avancés pour évaluer et sélectionner les données les plus utiles, intégrant des connaissances externes dans la génération de texte. Cela permet :
Les systèmes de récupération s’appuient sur plusieurs technologies, notamment :
Tous les systèmes d’IA n’intègrent pas des mécanismes de récupération sophistiqués, ce qui pose des défis pour l’optimisation des architectures RAG.
OpenAI a récemment introduit SearchGPT, combinant plusieurs technologies pour enrichir ses réponses :
Bien que ChatGPT montre des similitudes avec les classements de Bing pour certaines requêtes, son modèle utilise des sources diversifiées, garantissant une certaine indépendance dans ses réponses.
L’évaluation d’un système de génération augmentée par récupération (RAG) repose sur plusieurs métriques essentielles pour mesurer sa performance et sa fiabilité.
Dans les systèmes RAG, l’invite est transformée en requête en arrière-plan pour interroger efficacement les bases de données tout en préservant le contexte initial, ce qui améliore la précision et la pertinence des réponses.
Pour combler l’écart entre les deux, RAG adapte les invites complexes en requêtes tout en conservant le contexte critique, garantissant une récupération optimale des sources pertinentes.
Les objectifs du GEO (Global Entity Optimization) varient selon les ambitions des acteurs :
Bien que ces objectifs soient complémentaires, ils nécessitent des approches distinctes. Dans les deux cas, il est essentiel d’établir une présence solide parmi les sources privilégiées ou fréquemment consultées par les modèles linguistiques.
Chaque assistant d’IA utilise des critères spécifiques pour sélectionner et recommander des entités. Cela implique :
Pour les professionnels habitués à se concentrer sur Google, cela requiert un changement stratégique, intégrant une diversité de plateformes et un suivi constant des évolutions du marché.
Les systèmes d’IA utilisent des attributs contextuels pour structurer leurs réponses. Par exemple :
Exemple d’invite :
« J’ai 47 ans, je pèse 95 kg, je mesure 180 cm et je cours 3 fois par semaine sur 6 à 8 kilomètres. Quelles sont les meilleures chaussures de jogging pour moi ? »

Les produits ou services fréquemment associés à ces contextes bénéficient d’une probabilité accrue d’être mentionnés par les systèmes d’IA.
Des plateformes comme ChatGPT ou Perplexity démontrent comment les systèmes d’IA identifient et citent des contenus en fonction des requêtes :
Travailler en amont pour aligner son contenu sur les critères des assistants IA est donc crucial pour maximiser la visibilité et les mentions dans les réponses générées.
Copilot analyse des attributs comme l’âge et le poids pour contextualiser les réponses.
À partir des données fournies, il peut déduire un contexte de surpoids en s’appuyant sur les sources référencées.

Les sources citées proviennent exclusivement de contenus informatifs, tels que des tests, des critiques et des classements, plutôt que de pages de commerce électronique ou de fiches produits détaillées.
ChatGPT prend en compte des attributs comme la distance parcourue et le poids. En se basant sur les sources référencées, il en déduit un contexte de surpoids et de course longue distance.

Les sources citées proviennent exclusivement de contenus informatifs, tels que des tests, des critiques et des classements, plutôt que de pages de commerce en ligne, comme des fiches produits ou des catégories.
Perplexity prend en compte l’attribut du poids et en déduit un contexte de surpoids à partir des sources référencées.
Les sources incluent des contenus informatifs tels que des tests, des critiques, des classements, ainsi que des pages de commerce en ligne classiques.

Gemini ne fournit pas directement les sources dans ses résultats. Toutefois, une analyse plus approfondie montre qu’il prend également en compte les contextes d’âge et de poids.
Sortie Gemini – invitation pour les meilleures chaussures de course
Sources Gemini – invitation pour choisir les meilleures chaussures de course
Chaque LLM majeur recommande des produits différents, mais une chaussure est systématiquement suggérée par les quatre systèmes d’IA testés.

Chaque LLM majeur propose des produits différents, mais une chaussure est systématiquement recommandée par les quatre systèmes d’IA testés.

Tous les systèmes montrent une certaine créativité, en suggérant des produits différents lors de sessions variées. Copilot, Perplexity et ChatGPT privilégient des sources non commerciales, comme des sites de critiques ou des pages de tests, conformément à l’objectif de l’invite.
Claude, bien qu’il propose des modèles de chaussures, repose uniquement sur ses données d’entraînement initiales, sans accès à des données en temps réel ou à un système de récupération.

Chaque LLM a son propre processus de sélection des sources et du contenu, rendant le défi GEO plus complexe. Les recommandations sont influencées par la fréquence des cooccurrences et le contexte, ce qui augmente la probabilité de certains jetons lors du décodage.
GEO met l’accent sur le positionnement stratégique des produits, des marques et du contenu dans les ensembles de données utilisés pour entraîner les LLM. Comprendre en détail le processus de formation de ces modèles est crucial pour repérer les opportunités d’intégration.
Les éléments présentés ci-dessous proviennent d’études, de brevets, de publications scientifiques, de recherches sur l’EEAT et d’analyses personnelles. Les principales questions soulevées sont :
Des travaux récents, notamment sur la sélection des sources pour des outils comme AI Overviews, Perplexity et Copilot, mettent en lumière des recoupements significatifs dans les sources utilisées.
Par exemple, les analyses menées par Rich Sanger, Authoritas et Surfer montrent que les aperçus générés par Google AI affichent un chevauchement d’environ 50 % dans leur sélection de sources.

La marge de fluctuation dans les chevauchements des études reste importante. Début 2024, le taux de chevauchement s’élevait à environ 15 %, bien qu’il ait atteint jusqu’à 99 % dans certaines analyses.
Les systèmes de récupération semblent influencer près de 50 % des résultats des aperçus générés par l’IA, indiquant des expérimentations en cours visant à optimiser les performances. Ces observations corroborent les critiques sur la qualité variable des réponses produites par ces systèmes.
La sélection des sources utilisées dans les réponses IA révèle des opportunités stratégiques pour positionner des marques ou des produits de manière contextuellement pertinente. Cependant, il est crucial de distinguer entre :
L’examen du processus de formation des modèles éclaire ces distinctions. Par exemple, Gemini, le modèle multimodal de grande taille de Google, traite des données diversifiées, telles que du texte, des images, de l’audio, des vidéos et du code. Il utilise pour sa formation des documents Web, des livres, du code et du contenu multimédia, lui permettant de gérer des tâches complexes avec efficacité.
Enfin, les analyses des aperçus IA et des sources les plus souvent référencées offrent un aperçu précieux des indices et du Knowledge Graph utilisés par Google lors de la pré-formation des modèles. Cela ouvre la voie à des stratégies d’alignement pour inclure un contenu pertinent.

Dans le processus RAG, des sources spécialisées par domaine sont intégrées afin d’enrichir la pertinence contextuelle des réponses.
Une caractéristique majeure de Gemini réside dans l’utilisation d’une architecture de mélange d’experts (MoE). Contrairement aux transformateurs classiques, qui reposent sur un unique réseau neuronal, un modèle MoE est composé de réseaux « experts » plus petits et spécialisés. Ce modèle active de manière sélective les chemins experts les plus pertinents en fonction des données d’entrée, ce qui optimise l’efficacité et les performances du système. Il est probable que le processus RAG soit intégré dans cette architecture.
Développé par Google, Gemini passe par plusieurs étapes de formation, en utilisant des données publiques accessibles et des techniques avancées pour maximiser la pertinence et la précision du contenu généré :
Pré-formation
Comme d’autres grands modèles linguistiques (LLM), Gemini est d’abord pré-entraîné sur une variété de sources de données publiques. Google applique différents filtres pour assurer la qualité des données et éviter les contenus indésirables. Cette phase implique également une sélection souple de mots probables, permettant au modèle de générer des réponses plus créatives et adaptées au contexte.
Réglage fin supervisé (SFT)
Après la pré-formation, le modèle est affiné à l’aide d’exemples de haute qualité, soit créés par des experts, soit générés par d’autres modèles puis révisés par des spécialistes. Ce processus est similaire à l’apprentissage d’une bonne structure textuelle en observant des exemples de textes bien rédigés.
Apprentissage par renforcement à partir du feedback humain (RLHF)
Le modèle est ensuite perfectionné grâce à des évaluations humaines. Un système de récompense basé sur les préférences des utilisateurs aide Gemini à reconnaître et à apprendre les styles et types de contenu de réponse préférés.
Extensions et augmentation par récupération
Gemini peut rechercher des données externes, telles que celles provenant de Google Search, Maps, YouTube ou d’autres extensions spécifiques, afin d’enrichir les réponses avec des informations contextuelles actualisées. Par exemple, pour répondre à des questions sur la météo ou l’actualité, Gemini peut interroger directement Google Search pour trouver des informations fiables et récentes, puis les intégrer dans sa réponse.
Le modèle effectue un filtrage des résultats de recherche pour n’inclure que les informations les plus pertinentes en fonction du contexte de la requête. Par exemple, pour une question technique, il privilégiera des résultats scientifiques ou techniques plutôt que des informations générales disponibles sur le web.
Gemini combine les données récupérées avec ses connaissances internes pour générer une réponse optimisée. Ce processus comprend la création d’une réponse structurée de manière logique et lisible, après un examen final visant à garantir qu’elle respecte les normes de qualité de Google et ne contient pas de contenu inapproprié. Ce contrôle de qualité est renforcé par un classement qui privilégie les réponses les plus pertinentes. Le modèle présente ensuite à l’utilisateur la version la mieux classée.
Retours utilisateurs et optimisation continue
Google prend en compte en permanence les retours des utilisateurs et des experts pour affiner le modèle et corriger ses éventuelles faiblesses. Une possibilité envisagée est que les applications d’IA puissent accéder aux systèmes de recherche existants et intégrer leurs résultats.
Certaines études suggèrent qu’un bon classement dans les moteurs de recherche augmente la probabilité qu’une source soit citée dans les applications d’IA qui y sont connectées. Cependant, comme l’ont montré les analyses, les chevauchements actuels ne révèlent pas encore de lien clair entre les classements les plus élevés et les sources utilisées.
Un autre critère semble influencer le choix des sources : l’approche de Google privilégie le respect des normes de qualité lors de la sélection des sources pour la pré-formation et le processus RAG. De plus, l’utilisation de classificateurs est également citée comme un facteur déterminant dans ce processus.

Lors de la dénomination des classificateurs, un lien peut être établi avec le concept d’EEAT, où des classificateurs de qualité jouent également un rôle clé.
Les informations fournies par Google sur la post-formation mentionnent également l’utilisation d’EEAT pour classifier les sources en fonction de leur qualité.

La mention des évaluateurs fait référence au rôle des évaluateurs de qualité dans l’évaluation de l’EEAT.

Les classements dans la plupart des moteurs de recherche dépendent de la pertinence et de la qualité des informations, tant au niveau du document, du domaine que de l’auteur ou de l’entité source.

Les sources sont souvent choisies non seulement en fonction de leur pertinence, mais aussi en fonction de leur qualité au niveau du domaine et de l’entité source.
Cela peut s’expliquer par le fait que des requêtes plus complexes doivent être réécrites en arrière-plan pour générer des requêtes de recherche appropriées destinées à interroger les classements. Bien que la pertinence varie selon la requête, la qualité reste un critère constant.
Cette distinction aide à comprendre la faible corrélation entre les classements dans les moteurs de recherche et les sources référencées par l’IA générative, et pourquoi des sources de moindre rang peuvent parfois être incluses.
Pour évaluer la qualité, des moteurs de recherche comme Google et Bing utilisent des classificateurs, notamment le framework EEAT de Google. Google précise que l’EEAT peut varier en fonction du domaine, nécessitant ainsi des stratégies adaptées à chaque sujet, en particulier dans les stratégies GEO.
Les sources utilisées diffèrent selon le secteur ou le sujet, avec des plateformes comme Wikipédia, Reddit et Amazon jouant des rôles variés, comme l’indique une étude de BrightEdge.
Ainsi, les facteurs spécifiques à l’industrie et au sujet doivent être pris en compte dans les stratégies de positionnement.
Comme mentionné précédemment, il n’existe pas encore de preuve tangible concernant l’influence directe sur les résultats de l’IA générative. Les opérateurs des plateformes semblent eux-mêmes incertains quant à la manière de qualifier les sources choisies pendant le processus RAG.
Ces éléments soulignent l’importance d’identifier les domaines sur lesquels les efforts d’optimisation doivent se concentrer, en particulier en déterminant quelles sources sont suffisamment fiables et pertinentes pour être priorisées.
Le défi suivant est de comprendre comment vous positionner comme l’une de ces sources de référence.
Le document de recherche intitulé « GEO : Generative Engine Optimization » a introduit le concept de GEO, en explorant comment les résultats de l’IA générative peuvent être influencés et en identifiant les facteurs clés responsables de cette influence.
Selon l’étude, la visibilité et l’efficacité du GEO peuvent être optimisées par les éléments suivants :
Ces facteurs varient en fonction du domaine, ce qui suggère que l’intégration de personnalisation ciblée et spécifique à chaque secteur est essentielle pour augmenter la visibilité des pages Web.
Les mesures tactiques suivantes pour GEO et LLMO peuvent être dérivées de ce document :
Par ailleurs, certaines pratiques tactiques doivent être évitées :
D’après les recherches de BrightEdge, voici les considérations stratégiques à prendre en compte :
Les aperçus de l’IA et Perplexity privilégient des ensembles de domaines distincts en fonction du secteur.
Dans les domaines de la santé et de l’éducation, ces plateformes privilégient des sources fiables comme mayoclinic.org et coursera.com, ce qui en fait des cibles clés pour des stratégies SEO efficaces.
En revanche, dans les secteurs du commerce électronique et de la finance, Perplexity privilégie des sites comme reddit.com, yahoo.com et marketwatch.com. Adapter vos efforts SEO à ces préférences en utilisant les backlinks et les co-citations peut améliorer significativement les performances.
Les stratégies de recherche basées sur l’IA doivent être adaptées à chaque secteur.
Par exemple, la préférence de Perplexity pour reddit.com montre l’importance des informations communautaires dans le commerce électronique, tandis qu’AI Overviews privilégie des sites comme consumerreports.org et quora.com pour les critiques et les questions-réponses.
Les spécialistes du marketing et du référencement doivent aligner leurs stratégies de contenu sur ces tendances, en créant des critiques détaillées de produits ou en soutenant les forums de questions-réponses pour les marques de commerce électronique.
Les référenceurs doivent surveiller de près les sites préférés de Perplexity, notamment l’influence croissante de reddit.com pour le contenu communautaire.
Le partenariat de Google avec Reddit pourrait influencer les algorithmes de Perplexity, lui donnant davantage la priorité.
Les référenceurs doivent rester proactifs et ajuster leurs stratégies pour s’adapter aux évolutions des préférences de citation, assurant ainsi la pertinence et l’efficacité de leurs actions.
L’avenir de la GEO en particulier dans le cadre de la recherche alimentée par l’IA comme ChatGPT, marque une évolution importante pour les stratégies marketing des entreprises. Cela repose en grande partie sur la manière dont les comportements de recherche des consommateurs évoluent et sur la manière dont les entreprises exploitent les nouvelles technologies pour se positionner dans ces environnements.
Voici une synthèse des points clés de cette évolution et ce que cela signifie pour les marques :
Les entreprises doivent non seulement se concentrer sur le référencement traditionnel, mais aussi sur la cooccurrence de leur marque avec des entités et attributs pertinents dans des médias d’autorité. Pour réussir dans un monde dominé par l’IA générative, il sera crucial d’optimiser les relations dans des plateformes reconnues et d’investir dans la gestion de l’autorité numérique pour influencer la perception publique à grande échelle. 😊
Cela signifie que les marques devront adapter leurs stratégies pour s’assurer qu’elles sont bien positionnées à la fois dans les moteurs de recherche traditionnels et dans les résultats générés par l’IA, tout en anticipant une évolution rapide du paysage numérique.
L’optimisation SEO sur les LLMs consiste à se rendre visible sur les nouveaux moteurs de recherche.
Que ce soit ChatGPT, Perplexity, Microsoft Copilot ou Gemini, chaque grand modèle de langage utilise une base de données pour fournir des réponses à l’internaute. À quelques exceptions près, cette database est tout simplement constituée du vaste univers d’internet. Autrement dit, les LLMs puisent leurs connaissances depuis les centaines de milliers de sites présents sur le web. Parmi lesquels se trouve sans doute le vôtre.
Certains modèles de langage utilisent le contenu sans préciser la source à l’internaute. Mais par souci de transparence, ils sont de plus en plus nombreux à citer la provenance des informations transmises. Certains sites particulièrement pertinents parviennent ainsi à se rendre visibles sur les outils LLM. Les internautes qui souhaitent en savoir plus peuvent alors cliquer sur le lien du site et accéder à son contenu.
Mais pour cela, encore faut-il maîtriser l’optimisation SEO sur les LLMs.
Découvrez nos astuces pour vous faire démarquer et vous rendre visible sur les moteurs de recherche nouvelle génération.
Avant de s’engager dans l’optimisation de l’IA générative, il est essentiel de bien comprendre les technologies qui se cachent derrière les LLM. Cela vous permettra d’identifier le potentiel futur du référencement.
Ces assistants d’intelligence artificielle vont bien au-delà de la simple correspondance de texte. Autrement dit, ils ne se contentent pas d’extraire des informations à partir de documents existants. À la place, ils génèrent des réponses complètes, précises, pertinentes, nuancées et contextuellement riches.
Cela est possible grâce à leurs capacités de compréhension et de raisonnement linguistiques (traitement du langage naturel – NLP).

Attention toutefois : les LLM ne “comprennent” pas les requêtes des internautes, pas au sens humain du terme. Ils traitent les données de manière statistique.
En soi, les grands principes du SEO ne changent pas. Il faut toujours soigner la technique de son site internet, booster la popularité avec une stratégie de netlinking et produire du contenu de qualité.
Mais ici, les exigences de qualité sont encore plus élevées qu’avant. Le SEO sur les LLMs ne vont pas chercher des informations auprès de sites qui disent tous la même chose, avec des tournures de phrases différentes. À la place, les IA génératives veulent du contenu unique et précis, avec des exemples concrets, des chiffres, des infographies, des études de cas, des sources explicites…
Finalement, plus votre contenu est généraliste, moins il a de chances de répondre aux exigences de l’optimisation de l’IA générative.
Soucieux de la pertinence de leurs sources, les grands modèles de langage ne vont pas mettre en avant des sites inconnus aux bataillons. Ils privilégient les sites ayant déjà une certaine autorité et popularité. Cela passe évidemment par la stratégie de netlinking, mais plus seulement. Désormais, il faut définir une véritable identité de marque : pourquoi êtes-vous unique ?
Finalement, l’optimisation de l’IA générative va encore plus loin que le SEO traditionnel.
Attention, à l’heure actuelle, il n’existe pas encore de méthode d’optimisation de l’IA générative éprouvée et approuvée. D’ailleurs, en réponse à une même requête, chaque modèle présente différents résultats. Ce n’est donc pas une science exacte à 100 %.
Cela dit, ces grands principes maximisent vos chances d’apparaître sur les nouveaux moteurs de recherches.
À l’approche des achats de Noël, l’optimisation SEO pour les LLMs devient essentielle. Pour capter l’attention des consommateurs sur des plateformes comme SearchGPT, les marques doivent ajuster leurs stratégies SEO en intégrant des optimisations adaptées à l’IA générative. En se concentrant sur la qualité du contenu, les cooccurrences pertinentes et la visibilité sur des sources fiables, les entreprises pourront améliorer leur positionnement pendant cette période cruciale.
Pour beaucoup, les achats de Noël ne sont pas toujours une partie de plaisir. Alors quand un outil basé sur l’intelligence artificielle offre la possibilité de délivrer une liste d’idées adaptées à une demande relativement précise, incluant le budget fixé et des informations majeurs sur le receveur, il serait dommage de s’en priver. Si cette habitude n’est, pour le moment, pas adoptée par tous les offreurs, qui privilégient encore très majoritairement le moteur de recherche de Google, cela reste une tendance de plus en plus préoccupante pour les marques, qui voient un intérêt croissant à figurer parmi les premières options proposées par les plateformes.
Pour les annonceurs, il est donc important de suivre ses propres mentions au sein des plateformes de recherche basées sur l’IA, et de mettre en place une stratégie SEO efficace pour renforcer sa présence en ligne. Une mission bien plus complexe qu’elle ne peut l’être pour les moteurs de recherches. Sur des plateformes comme ChatGPT, la recherche est conversationnelle, ce qui rend les résultats plus contextuels et personnalisés, et donc, de fait, plus difficile à catégoriser.
Ainsi, des outils SEO ont récemment fait leur apparition afin de permettre aux marques d’obtenir des informations concernant leurs mentions au sein des conversations. C’est notamment le cas de Profound qui apparaît comme l’un des leaders sur ce marché. Cet outil parvient à générer plusieurs conversations en utilisant des variantes pour les exécuter plusieurs fois, de sorte à identifier les marques les mieux recommandées par les différentes plateformes. À travers cette technologie, les marques peuvent donc en savoir davantage sur leur propre visibilité au sein des réponses données par les plateformes et adapter votre stratégie SEO en fonction et cibler les mots-clés pertinents.
À partir d’une étude effectuée sur les vendeurs de jouets, le site Search Engine Land a dévoilé les quelques informations pertinentes révélées par Profound. L’outil d’analyse peut notamment fournir un classement de la visibilité des marques sur une même thématique, à travers les conversations générées sur les plateformes de recherches basées sur l’intelligence artificielle. Le pourcentage présenté correspond donc au taux de réponses de l’IA qui mentionnent la marque en question :

À noter que la visibilité de chaque marque peut être différente selon la plateforme, dans la mesure où les modèles utilisés ne sont pas les mêmes :

Il est également possible de déterminer la place de chaque marque concurrente pour chacun des différents thèmes fournis à Profound :

Mais alors, comment les marques citées plus haut sont-elles devenues des références dans leur domaine ? Tout est une question de SEO, il convient alors de s’intéresser aux sources utilisées par l’IA pour fournir ses réponses.
Par exemple, pour le sujet des jouets, ce sont principalement les contenus du site TinyBeans, destinés aux parents, qui a eu le plus d’influence dans les résultats. En d’autres termes, ce site est considéré comme l’autorité principale en matière de contenus liés aux jouets, d’après les différents modèles de recherches basés sur l’intelligence artificielle.

Parmi les quatre premiers résultats, on retrouve pas moins de trois éditeurs de contenus, à savoir TinyBeans, Forbes et Parents. À l’inverse, les contenus fournis par les plus grandes marques de ce marché, comme Lego ou Melissa & Doug n’apparaissent qu’au pied du top 10.
Si l’analyse effectuée sur l’outil Profound ne peut suffire pour tirer une conclusion définitive sur le fonctionnement du référencement, une tendance semble clairement se dessiner. Contrairement aux moteurs de recherches comme Google, qui favorisent la qualité du contenu fourni par la marque pour la mettre en avant sur les pages de résultats, c’est davantage le contenu tiers qui semble primer sur les plateformes SearchGPT.
Ainsi, pour qu’une marque soit performante dans les résultats délivrés par ces plateformes, il faut avant tout qu’elle soit mise en avant au sein des sources reconnues. En plus des préconisations SEO déjà évoquées, les marques ont donc tout intérêt à mettre en place des stratégies de relations publiques numériques, et travailler en collaboration avec des éditeurs de contenus de qualité, afin de prendre une longueur d’avance sur leurs concurrents.
Vous souhaitez vous rendre visible sur les moteurs d’IA générative, n’hésitez pas à contacter notre agence SEO pour optimiser votre site.