Sommaire
La chute du trafic organique constatée depuis plusieurs mois ne relève pas d’une simple évolution d’interface. Avec l’arrivée d’AI Overviews et d’AI Mode, Google transforme en profondeur sa logique de traitement des requêtes. Ce ne sont plus des pages qu’il classe, mais des passages qu’il sélectionne, compare, réinterprète et synthétise.
Dans un article publié sur Search Engine Land, Michael King analyse six brevets clés de Google pour comprendre ce basculement. Il y détaille les mécanismes à l’œuvre dans les réponses génératives, les systèmes de raisonnement intégrés aux LLMs, et les nouvelles logiques de citation.
Ce qui se joue dépasse le SEO traditionnel. Pour rester visible, il ne suffit plus d’être pertinent sur une requête : il faut être utilisable dans une chaîne de raisonnement. Voici les points essentiels à retenir.
La recherche devient probabiliste : comprendre le nouveau paradigme
Pendant des décennies, le fonctionnement de Google reposait sur une logique déterministe : une requête donnait lieu à un traitement prévisible, fondé sur des critères explicites comme la structure HTML, les backlinks ou les signaux utilisateur. Ce modèle, à la base du SEO traditionnel, permettait d’ajuster son contenu en connaissance de cause pour améliorer sa visibilité.
Avec l’arrivée de l’IA générative, cette mécanique est remplacée par une approche probabiliste. Google ne se contente plus d’extraire et d’afficher des résultats ; il synthétise une réponse à partir d’un ensemble de documents, souvent reformulés, combinés et contextualisés via des modèles de langage (LLMs). À contenu identique, le rendu peut varier selon le contexte, l’utilisateur ou même le « raisonnement » du système.
En clair : ce n’est plus seulement le contenu livré qui est évalué, mais sa capacité à alimenter une réponse générative, dans un environnement instable, opaque et fortement contextuel.
Comment fonctionnent AI Mode et AI Overviews selon les brevets
Les systèmes AI Mode et AI Overviews reposent sur des mécanismes similaires, décrits dans une série de brevets récemment analysés par Michael King. Ces documents permettent de mieux comprendre ce qui se joue derrière les nouvelles interfaces génératives de Google.
Six brevets sont particulièrement éclairants :
- Search with stateful chat : architecture principale d’AI Mode,
- Generative summaries for search results : base d’AI Overviews,
- Method for Text Ranking with Pairwise Ranking Prompting : comparaison de passages via raisonnement LLM,
- User Embedding Models for Personalization : personnalisation par représentation vectorielle des comportements utilisateur,
- Prompt-based query generation : génération de requêtes synthétiques élargies,
- Instruction fine-tuning : apprentissage du raisonnement étape par étape.
Ces brevets montrent que l’objectif n’est plus seulement de trouver les « meilleurs » contenus, mais de composer une réponse vérifiable et personnalisée, en s’appuyant sur une logique de raisonnement, de reformulation, et de comparaison passage par passage.
Comment fonctionne AI Mode
Le fonctionnement d’AI Mode s’appuie sur une chaîne de traitement en plusieurs étapes, décrite dans le brevet « Search with stateful chat ». Ce processus va bien au-delà du simple classement de documents : il repose sur la génération de requêtes dérivées, la sélection de passages, et leur traitement via des modèles spécialisés, jusqu’à la construction d’une réponse personnalisée.
1. Réception de la requête
Le système n’interprète pas la requête comme une demande figée, mais comme le point de départ d’un processus de génération. Elle déclenche l’ensemble des opérations, sans être l’unique critère de récupération de contenu.
Implication SEO : le contenu n’est plus évalué uniquement à partir de la requête exacte, mais en fonction de sa pertinence au sein d’un univers élargi de requêtes latentes.
2. Récupération du contexte
Google mobilise des éléments de contexte utilisateur : historique de recherche, localisation, appareil, données de compte (Gmail, Maps, etc.). Ces signaux permettent d’ancrer la requête dans un environnement personnel.
Implication SEO : deux utilisateurs peuvent voir des résultats très différents pour une même requête. Cela affaiblit le suivi classique des positions et renforce l’importance d’une présence cohérente à l’échelle du web.
3. Génération initiale via LLM
Un modèle de langage (type Gemini) interprète la requête et le contexte pour produire une première compréhension : intention, ambiguïtés, classification. C’est la base du raisonnement.
Implication SEO : un contenu peut être écarté s’il ne correspond pas à cette lecture d’intention, même s’il est pertinent sur le plan lexical.
4. Création de requêtes synthétiques
Le système génère plusieurs requêtes alternatives, qui traduisent différents angles de la demande : variantes, comparaisons, intentions implicites.
Implication SEO : il ne suffit plus de répondre à une requête principale. Il faut anticiper et couvrir un espace sémantique élargi, via des contenus connexes, structurés et bien liés.
5. Récupération des documents
Les contenus sont extraits non seulement en fonction de la requête initiale, mais aussi des requêtes synthétiques. Cela forme un corpus personnalisé, dense et multi-intentions.
Implication SEO : la visibilité dépend désormais d’un critère de pertinence sémantique, plus que d’un simple positionnement dans les SERP classiques.
Comment fonctionne AI Overviews
Les AI Overviews reprennent plusieurs des étapes vues dans AI Mode, mais dans un contexte plus contraint : celui des résultats de recherche traditionnels. Leur mission est de synthétiser une réponse rapide à partir de contenus déjà indexés, tout en conservant l’apparence d’une recherche classique.
Le brevet central ici est « Generative summaries for search results ». Il décrit un processus de construction en plusieurs phases, où la réponse générée vient s’intercaler entre la requête et les résultats sans remplacer totalement la page de résultats.
1. Génération de requêtes alternatives (fan-out)
Dès qu’une requête est identifiée comme « candidat Overview », Google génère en interne une série de requêtes dérivées, couvrant différentes interprétations de la demande.
Implication SEO : un contenu a plus de chances d’apparaître s’il couvre plusieurs angles autour d’un même sujet, dans un langage clair et structuré.
2. Récupération de passages (chunking)
Les documents sont découpés en passages (chunks), puis comparés aux requêtes synthétiques. Les passages les plus informatifs, explicites et vérifiables sont retenus.
Implication SEO : un article mal structuré ou trop verbeux risque d’être ignoré. Chaque paragraphe doit fonctionner comme une unité autonome, utile et bien contextualisée.
3. Classement des passages via Pairwise Ranking
Le brevet sur la comparaison par paires décrit un processus dans lequel deux passages sont comparés à la fois, pour décider lequel répond le mieux à l’intention. Ce système favorise la clarté, la précision et la valeur ajoutée.
Implication SEO : il ne s’agit pas de « faire mieux que tout le monde », mais d’être le plus utile possible pour une intention donnée. Cela valorise la rédaction spécialisée, la vulgarisation et les exemples concrets.
4. Génération de la synthèse
Les passages retenus sont réécrits, reformulés et fusionnés par un LLM pour produire un résumé unique, destiné à répondre directement à la requête. Des citations peuvent être ajoutées, mais elles ne sont pas systématiques.
Implication SEO : un contenu peut nourrir la réponse sans jamais être mentionné. La valeur d’un passage devient plus importante que celle d’un article entier.
Implications concrètes pour le SEO
L’émergence des systèmes génératifs de Google change la nature même de la visibilité organique. Le contenu n’est plus affiché pour être cliqué, il est analysé, sélectionné et reformulé pour être utilisé dans une réponse automatique. Cela appelle une révision profonde des stratégies de référencement.
Rédiger pour le raisonnement, pas seulement pour le positionnement
Les modèles utilisés par Google comparent les passages entre eux pour évaluer leur pertinence au sein d’un raisonnement. Il ne suffit donc plus d’être bien classé sur une requête : il faut que le contenu réponde à une intention spécifique de manière structurée, explicite et utile.
Conséquence : les contenus les plus performants sont ceux qui apportent une réponse claire à une question précise, dans un langage direct, sans ambiguïté.
Optimiser à l’échelle du passage, non plus seulement de la page
Les systèmes de chunking favorisent les unités textuelles autonomes. Un paragraphe bien construit, avec un énoncé clair, une justification et un exemple concret, a plus de chances d’être extrait et utilisé qu’un long bloc difficile à segmenter.
Conséquence : chaque sous-partie d’un contenu devient un objet SEO en soi. La logique de « scannabilité » rejoint ici la logique de « réutilisabilité ».
Travailler la vérifiabilité et la fiabilité
Pour éviter les hallucinations, les LLMs sont entraînés à citer des passages vérifiables. Un contenu sourcé, appuyé sur des données factuelles, ou structuré sous forme de tableaux et listes, est plus facilement exploitable dans une réponse.
Conséquence : les informations chiffrées, les sources explicites et les formats structurés sont à privilégier. Le style doit rester neutre, rigoureux et documenté.
Développer une stratégie multi-intentions
Une requête donnée peut donner lieu à plusieurs interprétations. Les contenus doivent donc couvrir plusieurs intentions latentes, via des FAQ, des sous-parties dédiées, ou des articles complémentaires bien liés.
Conséquence : il faut raisonner en grappes sémantiques, non en mots-clés isolés. Chaque contenu devient un maillon dans une cartographie plus large de la connaissance.
Mesurer autrement la performance
Avec la disparition progressive du clic et l’opacité des systèmes génératifs, les outils classiques de suivi SEO montrent leurs limites. Il devient nécessaire de suivre d’autres indicateurs : présence dans les réponses, fréquence de citation, réutilisation du contenu, ou même qualité perçue par les modèles.
Conséquence : le SEO s’éloigne d’une logique purement analytique pour rejoindre une démarche éditoriale qualitative, alignée sur les usages réels des moteurs.
Vers une nouvelle discipline : le relevance engineering
Face à cette évolution, Michael King défend une position claire : le SEO traditionnel ne suffit plus. Pour accompagner les transformations induites par l’IA générative, il propose de structurer une nouvelle approche, à la croisée de l’ingénierie de l’information, de la rédaction spécialisée et de l’analyse algorithmique : le relevance engineering.
Définition
Le relevance engineering consiste à concevoir, structurer et publier du contenu dans le but explicite d’être compris, sélectionné et utilisé par des systèmes génératifs pour construire une réponse fiable. Il ne s’agit plus uniquement de plaire à un algorithme de classement, mais de devenir un élément actif dans une chaîne de raisonnement automatisée.
Pourquoi un nouveau cadre ?
- Parce que les critères de visibilité ont changé : la pertinence ne se mesure plus uniquement au positionnement, mais à l’utilisabilité.
- Parce que les outils SEO actuels sont inadaptés à la logique des LLMs : ils mesurent l’indexation, pas la capacité à être réutilisé dans une réponse synthétique.
- Parce que les équipes marketing et produit doivent travailler ensemble : l’enjeu n’est plus de créer du contenu à la chaîne, mais de structurer une connaissance exploitable par des modèles.
Ce que cela implique concrètement
- Travailler chaque contenu comme une brique d’un écosystème raisonné,
- Définir des objectifs de performance en termes de citation, fiabilité, diversité des intentions couvertes,
- Développer une culture de la clarté éditoriale, orientée vers la reformulation automatique,
- Former les rédacteurs et stratèges SEO aux logiques d’IA : prompting, chunking, évaluation comparative, vérifiabilité.
Les points clés à retenir
Sur la transformation de la recherche :
- L’IA générative transforme la recherche en processus de raisonnement, pas en simple classement.
- La visibilité dépend de la capacité d’un passage à être compris, extrait et reformulé.
- Le positionnement perd de son importance face à l’utilisabilité réelle du contenu.
Sur les nouvelles exigences éditoriales :
- La rédaction doit viser la clarté, la vérifiabilité et la modularité des blocs de texte.
- Il faut raisonner en grappes sémantiques, non en mots-clés isolés.
- Chaque sous-partie d’un contenu devient un objet SEO en soi.
Sur l’évolution du métier :
- Les outils SEO traditionnels ne mesurent pas l’impact dans les réponses générées.
- La performance se joue désormais dans l’influence sur la réponse, pas dans le clic.
- Le SEO devient une discipline contributive au fonctionnement des modèles.
- Le relevance engineering offre un cadre pour concevoir des contenus IA-compatibles.