Sommaire
Google a expliqué qu’il était inutile de réécrire des pages en micro-blocs dans l’espoir de mieux ressortir dans les réponses IA.
Danny Sullivan l’a expliqué dans le podcast Search Off the Record. Google ne veut pas que les éditeurs “fabriquent” un format spécial pour les LLM, ni qu’ils maintiennent deux versions d’un même contenu.
Pour rappel, le chunking désigne le fait de découper un contenu en petits blocs autonomes, souvent pensés pour répondre vite à une question précise. Sur une page, ça se traduit par :
- une succession de mini-sections très courtes,
- avec des titres proches de requêtes,
- des réponses en quelques lignes, parfois répétitives,
- et peu de progression entre les parties.
À l’origine, cette logique sert la lisibilité et le scan quand elle est bien faite. Dans la version “optimisation LLM”, elle devient un format fabriqué pour que des moteurs de réponse extraient plus facilement des passages, au risque de transformer un article en liste de fragments plutôt qu’en démonstration construite.
Ce que Google a dit
Dans l’épisode, Sullivan part d’un conseil qui circule dans l’écosystème : découper le contenu en “bouchées” parce que les LLM aimeraient des réponses courtes. Et sa réponse est négative, avec la même ligne tenue par des ingénieurs qu’il dit avoir consultés.
Il ajoute un point important pour les arbitrages produit. Même si cette tactique apporte un gain dans certains cas, Google la présente comme non durable. L’idée est que les systèmes évoluent vers une valorisation du contenu écrit pour les humains, et que le contenu conçu pour “plaire” à un système précis risque de perdre cet avantage.
Le vrai sujet UX derrière le “chunking”
Le débat se trompe souvent de cible. Une page lisible n’est pas une page “hachée”. Le web a déjà ses standards de confort de lecture, et ils restent utiles dans un monde où la recherche mélange liens, réponses IA, carrousels, modules et extraits.
Du point de vue UX, le risque du “chunking” pensé LLM est double.
- Perte de continuité : l’utilisateur ne suit plus un raisonnement, il saute entre des fragments qui se ressemblent.
- Perte de confiance : une page qui ressemble à une suite de réponses isolées peut donner une impression d’optimisation plus que d’expertise.
Google vise précisément ce travers lorsqu’il dit ne pas vouloir que les créateurs façonnent du contenu pour Search ou pour les LLM.
Structurer pour les humains, sans tomber dans le format “spécial IA”
Google critique la structure dictée par un modèle. Ce que vous pouvez faire sans changer votre promesse éditoriale :
Une architecture d’information stable
- Un sujet par page, un angle clair, un périmètre annoncé dès le haut de page.
- Des sections qui répondent à des sous-questions réelles, dans un ordre logique.
- Des liens internes qui guident vers les approfondissements plutôt que des redites sur la même page.
Une lecture “scannable” qui garde du sens
- Titres et intertitres qui résument vraiment la section.
- Paragraphes qui respirent, sans couper les idées au milieu.
- Encadrés quand il y a un besoin de repère, pas pour multiplier des mini-réponses.
Un format “deux vitesses” seulement si l’utilisateur le demande
Résumé, points à retenir, FAQ, glossaire… Ce sont des aides à la lecture. Elles restent au service du lecteur, pas d’un système. Le problème, d’après Sullivan, est l’idée de produire une version “LLM” à côté d’une version “web”.
Ce que cette prise de parole change pour les équipes SEO et contenu
Elle ne vous interdit d’abord pas d’expérimenter. Globalement, on peut distinguer que si une modification améliore la compréhension, la navigation, la vérification, elle a une logique UX. Si elle rend le contenu plus artificiel pour un hypothétique “match” LLM, Google dit ne pas vouloir de cette direction.
Une check-list avant publication
- La page se lit-elle comme un article, pas comme une suite de fiches ?
- Les titres guident-ils la lecture, sans répéter la même idée ?
- Les définitions et rappels sont-ils regroupés ?
- Les ajouts “résumé” et “à retenir” apportent-ils une aide réelle ?
- Le contenu évite-t-il la duplication “version IA” versus “version web”, point explicitement visé par Sullivan.