Accueil Tendances SEO Leak Google : l’hypothèse d’un lien entre Page Quality et signaux de classement

Leak Google : l’hypothèse d’un lien entre Page Quality et signaux de classement

Robot Google (2)

Shaun Anderson relie les Quality Rater Guidelines à des attributs repérés dans la documentation fuitée du Content Warehouse API. Selon lui, la “Page Quality” apparaît aussi côté machine, mais il rappelle que son analyse reste théorique.

Ce que met en avant l’analyse

Le point de départ est un ensemble de documents et d’extraits techniques attribués aux systèmes de Google, diffusés en ligne et généralement regroupés sous le nom de “Google leak”.

Dans son article paru sur Hobo, Shaun Anderson s’appuie sur cette documentation, non officielle, pour repérer des champs et variables internes. Il relie ces éléments techniques à des notions connues du secteur, en particulier la Page Quality (PQ) des Quality Rater Guidelines.

Anderson s’appuie ainsi sur deux attributs, présentés dans la documentation fuitée, qu’il interprète comme un pont entre l’évaluation “PQ” et des calculs au niveau site :

  • siteQualityStddev : l’attribut est décrit comme une estimation de l’écart-type de la “PQ rating” d’un site, c’est-à-dire la dispersion des évaluations PQ au niveau page. La documentation précise que ce n’est pas la même chose qu’une variance liée à la prédiction d’erreur d’un autre score.
  • pqData : décrit comme un entier qui “encode” des signaux de PQ au niveau page. Anderson y voit une manière de transformer une appréciation humaine (Lowest → Highest) en valeur numérique exploitable à grande échelle.

Sur cette base, Anderson formule une thèse. Si des signaux “PQ” existent sous forme encodée au niveau URL et qu’un calcul agrégé mesure leur dispersion au niveau domaine, l’architecture ressemble à un système qui surveille la cohérence de qualité au sein d’un même site.

Ce que Google dit officiellement, et ce qu’Anderson en déduit

Côté Google, la ligne officielle reste que les raters n’ont pas la main sur les classements et les données rater ne sont pas utilisées directement dans les algorithmes de classement. Elles servent surtout à vérifier, sur des jeux de tests, si les résultats produits par l’algorithme paraissent de bonne qualité. Google compare ce rôle à des “fiches d’avis”, c’est-à-dire un retour qui aide à calibrer et améliorer le système, sans modifier directement le classement d’une page.

L’auteur propose une lecture compatible avec la position officielle de Google. Les raters ne “classent” pas des pages, ils servent à tester et calibrer les systèmes. Ils notent un échantillon de pages, et ensuite, des modèles apprennent à reproduire ce type de jugement et produisent des scores automatisés sur un volume bien plus large de pages.

Anderson décrit ce mécanisme comme une boucle d’apprentissage supervisé. Il cite aussi un champ humanRatings, présenté comme surtout renseigné dans des pipelines d’évaluation.

La cohérence, mise en regard avec une sortie publique de John Mueller

Anderson rapproche l’idée de dispersion (écart-type) d’une phrase de John Mueller publiée sur Bluesky en 2025 : « La cohérence est le facteur le plus important en SEO technique. »

Le lien reste interprétatif. Si Google mesure un écart-type de “PQ” au niveau site, un site très hétérogène pourrait, dans certains cas, envoyer un signal moins favorable qu’un site plus homogène.

Le précédent Panda et la logique “sitewide”

Pour étayer l’idée qu’une zone faible peut peser sur l’ensemble, Anderson rappelle une recommandation publiée par Google à l’époque de Panda (2011). Du contenu de faible qualité sur certaines parties d’un site peut affecter le classement global, et des actions comme supprimer, fusionner/améliorer ou déplacer des pages peuvent contribuer à améliorer la situation.

Là encore, le lien reste un rapprochement. Panda date de 2011, et l’article s’appuie surtout sur une continuité de logique, pas sur une équivalence directe entre systèmes.

“S’auto-évaluer” : éviter la suppression automatique

Anderson met en garde contre la suppression “au réflexe”. Une page ancienne ou peu visitée peut rester utile et de bonne qualité. Il conseille d’évaluer la page avec les critères de Page Quality (objectif, contenu principal, fiabilité, réputation), puis de choisir entre garder, améliorer, fusionner, ou supprimer.

PQ, guidelines et ce que le leak permet d’affirmer

Les guidelines font de la Page Quality un cadre central d’évaluation. Anderson souligne qu’on retrouve ce vocabulaire dans des attributs présents dans la documentation fuitée, ce qui rend le rapprochement crédible sur le plan sémantique.

Cela ne suffit en revanche pas à établir, formellement, un lien mécanique page par page avec le classement. Le document leaké ne décrit pas un mode d’emploi complet, et Google maintient que les notations des raters ne servent pas directement à classer une page. L’intérêt de l’analyse est donc moins une “preuve” qu’un indice. La logique PQ semble assez importante pour exister aussi sous forme de signaux internes.

À découvrir également