Accueil Tendances SEO EEAT : une lecture « produit » du Web ouvert fin 2025

EEAT : une lecture « produit » du Web ouvert fin 2025

Google Forêt ville

Shaun Anderson (Searchable) défend une idée simple. Face à une production de contenus quasi infinie via l’IA générative, Google a besoin de signaux qui privilégient l’humain, la responsabilité et la fiabilité.

Il relie cette bascule au concept E-E-A-T (Expérience, Expertise, Autorité, Fiabilité – Trust en anglais) et à la fuite de documentation de l’API « Content Warehouse », dont il tire une grille de lecture très opérationnelle.

Le point de départ, un Web saturé

Anderson part d’un constat économique plus que SEO. Si le coût de production tombe à presque zéro, la valeur moyenne de l’information non vérifiée s’effondre. Il compare la situation à un « marché des citrons », où l’acheteur ne distingue plus le fiable du médiocre.

Dans ce cadre, Google doit défendre la confiance, sinon son produit s’abîme. C’est là qu’il place L’E-E-A-T, non comme une check-list cosmétique, mais comme un mécanisme de survie du web ouvert.

Côté Google, le cadre public reste plus prudent. L’E-E-A-T sert d’outil d’évaluation dans les Quality Rater Guidelines, et Google explique que ses systèmes cherchent des signaux qui « ressemblent » à l’expérience, l’expertise, l’autorité et la fiabilité.

La fuite « Content Warehouse », ou le passage du concept au signal

Le cœur du papier d’Anderson tient dans le lien qu’il fait avec la fuite de documentation associée au « Content Warehouse API ». Cela représente plus de 2 500 pages de doc et 14 014 attributs.

L’auteur rappelle que la fuite montre des proxys, donc des variables techniques qui tentent d’approximer des notions proches de E-E-A-T. Il cite notamment contentEffort et originalContentScore pour l’effort et l’originalité, ou des éléments liés à la réputation et à la confiance comme authorReputationScore, spamBrain, scamness et des scores de qualité.

Sa thèse ne dit pas « EEAT est un score unique ». Elle dit plutôt que l’agrégation de nombreux signaux peut produire un effet E-E-A-T.

Il faut garder une nuance utile. Une variable dans une doc ne prouve pas à elle seule un poids, ni un usage uniforme. Elle indique qu’un concept a existé dans un système, à un endroit, à un moment. L’intérêt est ailleurs. Elle donne des indices sur ce que Google tente de mesurer.

Montgolfière, « sacs de sable » et « hélium », une métaphore UX

Shaun Anderson compare un site à une montgolfière. Certains signaux agissent comme des sacs de sable. Ils alourdissent le site et limitent sa visibilité. Il parle ici de spam, d’arnaques, de pages dupliquées ou de contenus fabriqués sans valeur ajoutée.

À l’inverse, d’autres signaux servent d’hélium. Ils donnent de la portance. Anderson y range l’effort éditorial, l’originalité, des preuves d’expérience et la réputation de celles et ceux qui publient.

Cette façon de voir rejoint la ligne officielle de Google sur « l’abus de contenu à grande échelle ». Google explique qu’il cible des pages produites en volume quand l’objectif principal reste d’influencer le classement, peu importe la méthode de création. Le sujet n’est pas “l’IA” en soi. Le sujet, c’est la production industrielle de pages qui n’apportent pas d’aide réelle aux utilisateurs.

PageRank contre confiance, la logique du veto

Pour Anderson, PageRank reste une base. Les liens comptent, ils donnent de l’autorité. Mais il estime que cela ne suffit plus. Il ajoute une couche de confiance qui peut neutraliser le reste. Un site peut avoir de bons liens et rester limité si Google repère des signaux de faible fiabilité, une identité peu claire, une réputation contestée, ou des pratiques proches du spam.

Cette idée s’inscrit aussi dans le cadre des consignes utilisées par les évaluateurs de qualité de Google, les Quality Rater Guidelines. Le document insiste sur la fiabilité, surtout sur les sujets dits YMYL (ceux qui touchent à l’argent, la santé, la sécurité ou des décisions importantes). Les pages trompeuses, risquées ou difficilement attribuables y sont jugées très défavorablement, ce qui éclaire la logique d’un « plafond » même quand l’autorité par les liens existe.

Firefly, la partie la plus spéculative

Le texte insiste sur un module nommé QualityCopiaFireflySiteSignal. Anderson y voit un outil probable de rétrogradation, donc un tri agressif qui isole des « signaux brillants » et relègue le reste. D’autres billets techniques recensent ce module dans la fuite, mais l’interprétation sur son rôle exact reste une hypothèse d’auteur.

La valeur pratique, elle, est nette. Le SEO « hygiène » ne suffit plus. Corriger les erreurs, nettoyer des liens, optimiser la vitesse, tout cela évite de perdre, mais ne crée pas forcément de gain si le site ne produit pas de preuves d’expérience, de méthode et de responsabilité éditoriale.

L’« humain augmenté », un usage de l’IA qui passe

Anderson ne dit pas « pas d’IA ». Il dit « pas d’IA sans supervision ». Il défend une production où l’IA accélère, mais où un humain porte la ligne éditoriale, les choix, les vérifications et assume publiquement la signature. Sur le plan UX, cela revient à rendre visibles les garanties.

Quelques implications simples pour une équipe éditoriale et produit

  • Des pages auteur solides, traçables, avec périmètre d’expertise, historique et politique de correction.
  • Des contenus qui apportent de la donnée ou de l’observation, pas une reformulation. Google le cite lui-même dans ses recommandations « helpful content ».
  • Des preuves d’expérience quand le sujet s’y prête, tests, photos, protocoles, limites et sources.
  • Un site qui inspire confiance dans l’usage, mentions claires, service client si e-commerce, informations de contact, sécurité et design qui évite les signaux de tromperie.

Marques et réputation, un avantage structurel

Anderson termine sur un angle plus dérangeant. Si les signaux d’effort éditorial comptent, ils risquent de peser davantage quand ils viennent d’acteurs déjà reconnus. L’« effort » ne serait pas évalué dans le vide, mais en partie à travers la réputation du site et l’historique de confiance associé à une marque.

Dans ce scénario, le web devient plus sélectif. Les éditeurs installés, dotés d’une présence forte hors de Google et d’une identité facile à vérifier, partent avec un avantage. À l’inverse, les nouveaux entrants doivent non seulement produire de bons contenus, mais aussi prouver qu’ils existent, qu’ils assument ce qu’ils publient et qu’ils méritent d’être crus.

Ce point s’insère dans une tendance plus large. Google durcit ses règles anti-spam et ses critères de fiabilité, ce qui peut améliorer la qualité moyenne des résultats, mais aussi créer des frictions pour certains éditeurs, surtout quand la frontière entre “contenu utile” et “contenu produit à l’échelle” devient plus stricte.

À découvrir également