Sommaire
Un article publié par Shaun Anderson avance une thèse forte : l’E-E-A-T n’est pas qu’un concept de guidelines, mais la traduction algorithmique d’un système interne appelé Q-Star (Q*), dont la sortie se matérialise sous la forme d’un score unique : Site_Quality.
Derrière ce schéma, se dessine une vision claire de la manière dont Google mesure la confiance et décide qui mérite visibilité.
E-E-A-T : un cadre philosophique qui converge vers la confiance
L’E-E-A-T (Expérience, Expertise, Autorité, Trust) n’est pas une simple grille théorique issue des Quality Rater Guidelines (QRG). Comme le rappelle Shaun Anderson dans son analyse (Hobo, 24 septembre 2025), il s’agit du cadre d’évaluation global de la qualité selon Google, au cœur de la philosophie du moteur.
Et si ses composantes sont complémentaires, on distingue une hiérarchie : la confiance est le pivot. Les directives officielles de Google (mise à jour du 11 septembre 2025) l’affirment sans ambiguïté : « Trust is the most important member of the E-E-A-T family ». Autrement dit, une page peut démontrer expertise ou autorité, mais si elle est jugée non fiable, son score de qualité sera mécaniquement minimal.
Ce principe prend tout son sens dans les thématiques dites YMYL (Your Money or Your Life), où une information trompeuse ou mal sourcée peut causer un véritable préjudice. Dans ces cas-là, la confiance agit comme un filtre absolu. Sans elle, aucune autre dimension (expérience, expertise et autorité) ne peut compenser.
Google ne se contente donc pas de valoriser du contenu intéressant ou bien écrit. Le moteur cherche à évaluer dans quelle mesure une page, un auteur ou un site peut être considéré comme digne de confiance. Cette logique n’est pas nouvelle. Eric Schmidt, ex-CEO de Google, déclarait déjà en 2014 que « même le contenu le plus fascinant, s’il est rattaché à un profil anonyme, ne sera pas vu car trop mal classé ».
L’E-E-A-T n’est donc pas un concept isolé. Pour Anderson, c’est l’expression qualitative d’un système algorithmique plus vaste : Q-Star (Q*), qui cherche à objectiver la confiance et la qualité perçues, pour les transformer en score exploitable dans le classement.
Q-Star : l’héritier de Panda et le système derrière l’E-E-A-T
L’idée d’un score de qualité au niveau du site n’est pas nouvelle. Elle remonte à Google Panda (2011), première tentative à grande échelle pour réduire le poids des “content farms” et déclasser les sites jugés de faible qualité.
Le système Q-Star (Q*), confirmé lors du procès antitrust US DOJ contre Google, en est le prolongement direct. Il s’agit d’un score composite, stable d’une requête à l’autre, qui évalue la crédibilité et l’utilité globale d’un site, indépendamment de la recherche effectuée. Autrement dit, un indicateur de réputation persistante.
Hyung-Jin Kim, VP Search chez Google, a d’ailleurs rappelé sous serment : « Q (la qualité de page, c’est-à-dire la fiabilité) est incroyablement important. » Et d’ajouter que la qualité est l’un des sujets dont les utilisateurs se plaignent le plus, ce qui justifierait l’existence d’une équipe dédiée “Page Quality” depuis l’époque Panda.
Les composantes de Q-Star
Q* n’est pas un score unique calculé par magie. C’est la synthèse de plusieurs signaux importants, parmi lesquels :
- Autorité par les liens (PageRank moderne) : Google calcule la distance entre une page et un ensemble de sites “sources fiables” (seed sites). Plus une page est proche de ces références dans le graphe du web, plus son score augmente.
- Autorité de marque & engagement utilisateur : les signaux “réels” de marque (recherches directes, clics répétés sur le site et présence dans l’ancre des liens) pèsent lourd. Ces données sont croisées avec des métriques issues de NavBoost (Chrome et données d’interactions).
- Modèles prédictifs pour les nouveaux sites : lorsqu’un domaine est trop jeune pour disposer de signaux d’usage suffisants, Google évalue la “ressemblance” de son contenu avec celui d’entités connues et fiables, via un modèle d’expression (phrase model).
En pratique, cela signifie que Q-Star est une combinaison dynamique d’autorité, de réputation et de fiabilité perçues. Il ne se limite pas aux backlinks ou aux optimisations techniques, mais intègre la notion de confiance de marque et de satisfaction utilisateur.
Preuves techniques : la fuite Content Warehouse et le module CompressedQualitySignals
La fuite du Content Warehouse (2024), confirmée comme authentique par Google lors du procès antitrust, a offert un aperçu inédit de l’“ingénierie interne” du classement. Parmi les modules identifiés, un attire particulièrement l’attention :
GoogleApi.ContentWarehouse.V1.Model.CompressedQualitySignals.
Le rôle du module
Sa description officielle parle de “signaux compressés utilisés pour la notation préliminaire”.
C’est une fiche technique minimaliste mais critique, stockée en mémoire flash, que Google doit pouvoir interroger instantanément pour juger la qualité d’un document avant d’appliquer d’autres calculs plus complexes.
C’est ce que Hobo décrit comme le “rap sheet” d’une page : un résumé de ses signaux essentiels, qui alimente directement le moteur Q*.
Les familles de signaux contenus dans CompressedQualitySignals
- Scores de base (qualité & autorité)
- siteAuthority : score global au niveau site, utilisé dans Q*.
- pqData : signaux de Page Quality.
- lowQuality : pénalisation générique pour pages faibles.
- unauthoritativeScore : contenu sans autorité reconnue.
- vlqNsr : score spécifique aux vidéos jugées de “très basse qualité”.
- pairwiseqScoringData : comparaisons de documents par paires pour évaluer lequel est “meilleur”.
- Démotions et pénalités
- pandaDemotion & babyPandaV2Demotion : héritage direct de Panda.
- scamness : score de 0 à 1023 mesurant la dimension frauduleuse.
- navDemotion : mauvaise navigation.
- exactMatchDomainDemotion : domaines sur-optimisés.
- anchorMismatchDemotion : incohérence entre ancre et contenu.
- serpDemotion : comportement utilisateur négatif dans la SERP.
- Promotions & signaux thématiques
- authorityPromotion : “boost” d’autorité.
- productReview signals : système dédié aux avis produits, avec score de rétrogradation site-wide (productReviewPDemoteSite) et identification des pages “Ultra High Quality” (productReviewPUhqPage).
- nsrOverrideBid : mécanisme d’override d’urgence pour ajuster la qualité.
- Cohérence thématique & topicalité
- topicEmbeddingsVersionedData : mesure l’autorité thématique et la concentration d’un site.
- Scores expérimentaux & versionnés
- experimentalQstarSignal : signaux utilisés pour tester de nouveaux composants en live.
- nsrVersionedData : suivi des versions successives de Neutral Site Rank, confirmant que la qualité est un score “vivant”, continuellement recalibré.
Pourquoi c’est central
Ce module confirme que :
- Google stocke une version compressée des signaux qualité, immédiatement mobilisable.
- L’algorithme combine pénalités, boosts et signaux thématiques pour aboutir au score final.
- Le Quality Score n’est pas statique : il évolue via expérimentations permanentes, ajustements et recalibrages.
CompressedQualitySignals est la boîte noire qui alimente Q*.
Site_Quality : un score mesurable, confirmé par l’exploit API
L’existence d’un score global au niveau du site n’est pas qu’une hypothèse.
Le consultant Mark Williams-Cook a exploité un point d’API Google (avant qu’il ne soit fermé) qui exposait directement un attribut nommé Site_Quality.
Ce que l’API a révélé sur Site_Quality
- Échelle : score attribué au sous-domaine, de 0 à 1.
- Seuil critique : les sites en dessous de 0,4 n’étaient pas éligibles aux fonctionnalités de recherche à forte visibilité (extraits enrichis, People Also Ask…).
- Sources de calcul : les corrélations montrent que Site_Quality repose sur les mêmes signaux évoqués dans la fuite Content Warehouse et lors du procès :
- Recherches de marque (visibilité et confiance),
- Clics et engagement utilisateur (NavBoost et Chrome),
- Pertinence des ancres de liens.
Pourquoi c’est fondamental
Cela confirme que siteAuthority et Site_Quality ne sont pas que des notions conceptuelles :
- Ils fonctionnent comme gardiens d’accès à certaines surfaces SERP.
- Même un contenu de qualité ne peut pas prétendre aux emplacements premium si le score global du domaine est jugé insuffisant.
Google impose un contrôle qualité préalable : seuls les sites franchissant ce seuil peuvent prétendre au meilleur de la visibilité organique.
Conséquences pour les SEO
- Construire l’autorité de marque et le trafic direct n’est pas secondaire. Ce sont des leviers directs pour améliorer le Site_Quality.
- La réputation d’ensemble d’un domaine peut conditionner le destin de chaque page. Un “site faible” traîne ses contenus, même bons, vers le bas.
- Les audits doivent intégrer la dimension site-wide, au-delà des pages isolées.
Helpful Content & entités connectées
(HCU comme mécanisme d’enforcement, entité déconnectée = état d’échec)
Un site peut produire du contenu de qualité et disposer de bons liens, mais échouer malgré tout à s’imposer dans les SERP. La raison se trouve dans ce que Hobo appelle l’hypothèse de l’entité déconnectée, directement appuyée par les consignes données aux Quality Raters de Google (section 2.5.2 du QRG).
L’évaluation ne porte pas uniquement sur la page. Elle repose aussi sur la capacité à rattacher ce contenu à une entité claire et vérifiable (auteur identifié, organisation, propriétaire du site). En l’absence de cette transparence :
- L’expérience et l’expertise ne peuvent être validées, faute d’un auteur reconnu.
- L’autorité se dilue, car les signaux externes (liens, mentions) ne pointent vers aucune entité solide.
- La confiance disparaît, entraînant un déficit critique dans le score Q*.
C’est précisément ici que le Helpful Content Update (HCU) intervient comme mécanisme d’enforcement. Il pénalise les sites qui, malgré un contenu correct, échouent à démontrer leur utilité et leur rattachement à une entité de confiance.
Autrement dit, une « entité déconnectée » est condamnée à rester invisible. Son Site_Quality reste bas et le système Q* la filtre ou la rétrograde. Comme le rappelle Hobo, un manque de confiance est l’un des leviers les plus puissants pour anéantir un classement.
Le rôle des évaluateurs humains et du QRG : la base du Q*
Tout le système qualité de Google ne repose pas uniquement sur des calculs algorithmiques. Il est en permanence calibré et affiné par environ 16 000 évaluateurs humains. Leur mission consiste à appliquer à grande échelle les consignes détaillées du Quality Rater Guidelines (QRG) pour juger la pertinence et la fiabilité des résultats.
Leur notation ne modifie pas directement le classement d’une page, mais elle sert de vérité terrain (ground truth) pour entraîner et corriger les modèles de Google. Les signaux que les évaluateurs doivent identifier – transparence sur l’auteur, niveau d’expertise et qualité de l’expérience utilisateur – se retrouvent dans les modules techniques dévoilés par la fuite (CompressedQualitySignals, contentEffort, etc.).
Autrement dit, le QRG fonctionne comme un plan technique :
- Tout ce que les évaluateurs doivent observer chez un site peut être traduit en signal algorithmique.
- Les attributs révélés dans la fuite (ex. contentEffort pour mesurer l’effort réel, Interstitial pour les pubs intrusives, SmartphonePerDocData pour le mobile, lowQuality pour les pages faibles) confirment cette continuité entre instructions humaines et implémentations machines.
C’est ce lien qui explique la place centrale de la confiance dans l’évaluation : transparence du “Qui”, du “Comment” et du “Pourquoi” de la création de contenu. Sans cette base, les algorithmes comme le Q* score ne peuvent attribuer une valeur élevée à un site.
En définitive, les consignes du QRG ne sont pas un simple guide philosophique, mais bien la spécification fonctionnelle des signaux de qualité intégrés dans le système Q*.
Conclusion
La convergence entre E-E-A-T, Q* et Site_Quality confirme que Google a bien construit un véritable Quality Score organique, dont la confiance est le point culminant. Les signaux granulaires issus des fuites (contentEffort, siteAuthority, lowQuality, NavBoost…) ne sont pas isolés : ils traduisent techniquement les critères déjà formalisés dans le Quality Rater Guidelines.
En pratique, cela signifie que les sites sans ancrage clair dans une entité de confiance, au contenu faible ou peu transparent, n’ont plus de marge de manœuvre durable. À l’inverse, les éditeurs capables de démontrer effort, expertise et cohérence thématique sont alignés avec les attentes réelles de l’algorithme.
En d’autres termes, l’E-E-A-T n’est pas un slogan marketing : c’est la grille d’évaluation codée dans le cœur du système et le Q* score en est la mesure opérationnelle.