Accueil SEO éditorial Firefly : le système de Google pour détecter et sanctionner le contenu produit à grande échelle

Firefly : le système de Google pour détecter et sanctionner le contenu produit à grande échelle

Google trouve une source

Pendant plus de deux décennies, le SEO a été un processus de reverse-engineering d’une boîte noire. La fuite de mars 2024 sur l’API Content Warehouse de Google, corroborée par des témoignages sous serment lors du procès antitrust DOJ v. Google, a changé la donne. Pour la première fois, l’industrie SEO accède aux schémas architecturaux internes des systèmes de classement de Google.

Shaun Anderson présente une analyse forensique d’un des composants les plus intrigants révélés : un protobuf nommé QualityCopiaFireflySiteSignal. Il avance que cet attribut technique constitue un mécanisme central d’application important pour la politique Google contre le « scaled content abuse ».

Note : cette analyse repose sur des documents fuités et des inférences logiques, non sur des informations officielles de Google.

L’évolution de la politique, pourquoi l’échelle est devenue la cible

Le prédécesseur direct de la politique actuelle ciblait le « contenu généré automatiquement de façon spammy », avec un focus sur la méthode de création. Efficace à une époque où le contenu automatisé était facilement identifiable comme du charabia machine, cette approche est devenue obsolète avec l’arrivée de l’IA générative sophistiquée.

En mars 2024, Google a rebranded cette section en « scaled content abuse », avec une définition bien plus large et agnostique de la méthode :

« Quand de nombreuses pages sont générées dans le but principal de manipuler les classements de recherche et non d’aider les utilisateurs. Cette pratique abusive se concentre typiquement sur la création de grandes quantités de contenu non-original qui fournit peu ou pas de valeur aux utilisateurs, peu importe comment il est créé. »

Danny Sullivan, Search Liaison de Google, a été sans équivoque sur ce shift philosophique : « Nous ne nous soucions pas vraiment de la façon dont vous faites ce contenu à grande échelle, que ce soit par IA, automation ou êtres humains. Ça va poser problème. »

Cette politique moderne n’est pas une invention nouvelle mais l’aboutissement d’une bataille de longue date. Elle fait écho au travail de Matt Cutts, ancien chef de l’équipe webspam de Google, qui pendant des années a combattu le contenu à grande échelle et de faible valeur.

Décryptage du nom : QualityCopiaFireflySiteSignal

Le nom n’a rien d’arbitraire. Dans la culture d’ingénierie de Google, les conventions de nommage sont souvent extrêmement descriptives :

  • Quality : indique le contexte général — le signal appartient à l’écosystème d’évaluation de la qualité.
  • Copia : du latin copia, signifiant “abondance” ou “profusion”. Dans un système conçu pour repérer les abus liés à la production de contenu à grande échelle, ce choix est particulièrement pertinent.
  • Firefly : fait probablement référence à l’algorithme Firefly, une méthode métaheuristique inspirée du comportement des lucioles, utilisée pour résoudre des problèmes d’optimisation complexes. Ce type d’approche est bien adapté pour détecter de faibles signaux de manipulation au sein d’un ensemble de données massif et bruyant, comme le web.
  • SiteSignal : précise que l’évaluation s’effectue à l’échelle du site ou du domaine, et non page par page.

Le nom, à lui seul, raconte une histoire :
il désigne un système capable d’évaluer la qualité d’un site dans son ensemble, en identifiant des modèles de surproduction de contenu, grâce à un algorithme heuristique conçu pour repérer les schémas d’abus subtils au sein de vastes volumes de données.

Analyse technique : les attributs du système

La documentation fuitée fournit la définition exacte du protobuf. En analysant chaque attribut, on comprend précisément comment Google quantifie le comportement d’un site pour détecter l’abus à grande échelle.

Métriques d’engagement utilisateur

dailyClicks et dailyGoodClicks constituent les signaux d’engagement les plus significatifs.

  • dailyClicks représente le nombre total de clics provenant des résultats de recherche.
  • dailyGoodClicks en est un sous-ensemble : il correspond aux clics que Google juge “réussis”, c’est-à-dire ceux où l’utilisateur ne revient pas immédiatement aux résultats.

Pour un site qui publie à grande échelle, le ratio entre ces deux métriques est déterminant.
Un site peut générer des milliers de pages et obtenir un volume important de dailyClicks grâce au ciblage de mots-clés. Mais si son contenu n’apporte pas de réelle valeur, le nombre de dailyGoodClicks restera proportionnellement faible.

Un tel déséquilibre constitue un indicateur d’insatisfaction utilisateur à grande échelle.

totalImpressions mesure quant à lui le nombre de fois où les pages d’un site apparaissent dans les résultats de recherche.

Un volume d’impressions très élevé, combiné à un faible taux de clic et à un ratio dailyGoodClicks / dailyClicks médiocre, suggère que le site cible de nombreuses requêtes sans parvenir à satisfaire l’intention de l’utilisateur.

Métriques de contenu et d’indexation

numOfUrls et numOfUrlsByPeriods : les indicateurs les plus directs de la notion d’échelle.

  • numOfUrls correspond au nombre total de pages découvertes par Google sur un site.
  • Plus important, numOfUrlsByPeriods mesure la vélocité de création de nouvelles pages sur des périodes successives de 30 jours. Un site qui passe soudainement de dix nouvelles pages mensuelles à dix mille afficherait un pic brutal dans cette métrique — une signature typique d’abus de contenu à grande échelle.

numOfArticles8 et numOfArticlesByPeriods : les contre-indicateurs du simple volume d’URLs.

  • numOfArticles8 dénombre les pages considérées comme des articles de haute qualité, selon un score interne d’au moins 0,8. Ce score provient probablement d’autres systèmes d’évaluation de la qualité, tels que l’attribut contentEffort du modèle QualityNsrPQData, qui s’appuie sur un modèle de langage pour estimer le niveau d’effort consenti dans la création d’une page.

Un site peut publier des milliers de pages, mais si le nombre d’articles dépassant ce seuil reste faible, cela indique clairement que la production à grande échelle s’effectue au détriment de la qualité.

numOfGamblingPages : un attribut spécifique de risque. Un volume important de pages liées aux jeux d’argent constitue un signal de vérification, en particulier lorsque le site n’est pas spécialisé dans ce domaine. cette anomalie peut également signaler un abus de réputation de domaine — un site crédible hébergeant soudainement du contenu externe ou hors-sujet pour profiter de son autorité.

Position publique vs réalité fuitée : Google et les données de clics

La confirmation que Google utilise extensivement les données de clics, comme en témoignent les attributs dailyGoodClicks et le système NavBoost sous-jacent, contraste fortement avec des années de déclarations publiques de ses représentants qui ont systématiquement minimisé ou nié l’utilisation des signaux d’engagement utilisateur comme facteur de ranking direct.

John Mueller a répété à plusieurs reprises : « Si le CTR était ce qui drive les rankings de recherche, les résultats seraient tous du clickbait. Je ne vois pas ça arriver. »

Gary Illyes a fait écho, décrivant souvent les données de clics comme un « signal très bruyant » et affirmant que les utiliser directement serait problématique. Illyes a aussi dit : « Dwell time, CTR, peu importe la nouvelle théorie de Fishkin, c’est généralement de la crap inventée. La recherche est beaucoup plus simple que les gens ne pensent. »

Le choix des mots d’Illyes prend une tournure particulièrement ironique à la lumière de la fuite. La documentation révèle en effet l’existence d’un module du système de classement nommé “Craps”, chargé de traiter les signaux de clics et d’impressions — précisément les données qu’Illyes avait publiquement minimisées.

La coïncidence est frappante. Elle illustre parfaitement le décalage entre la communication publique de Google et la réalité de son ingénierie interne.

Un système de systèmes : comment Firefly se connecte à l’écosystème qualité

QualityCopiaFireflySiteSignal ne doit pas être perçu comme un algorithme isolé. Firefly joue plutôt le rôle d’un agrégateur de haut niveau, chargé de combiner et d’interpréter les signaux issus de multiples modules spécialisés.

Une action de type “spam” constitue un événement majeur et l’ingénierie de Google repose sur la vérification croisée entre systèmes. Firefly synthétise probablement ces données pour établir une décision finale :

  • Signal initial : numOfUrlsByPeriods affiche un pic anormal de nouvelles pages — le signal “Copia”.
  • Contrôle qualité : le système examine numOfArticlesByPeriods. Malgré ce volume, le nombre d’articles jugés de haute qualité reste stable, confirmé par un faible score contentEffort.
  • Validation utilisateur : les métriques d’engagement révèlent un volume de dailyClicks élevé mais un nombre très faible de dailyGoodClicks, signe comportemental (via NavBoost) que le contenu ne satisfait pas les utilisateurs.
  • Verdict : en recoupant la vélocité de publication, la qualité perçue et les signaux d’insatisfaction, Firefly peut conclure, avec un degré élevé de confiance, que le site pratique un abus de contenu à grande échelle — et appliquer une pénalité à l’échelle du domaine.

Impératifs stratégiques pour l’ère post-fuite

La révélation des attributs précis du QualityCopiaFireflySiteSignal transforme la stratégie SEO.

1. Optimiser le ratio de “bons clics” plutôt que le volume de clics.
La stratégie ne peut plus se limiter à attirer l’utilisateur. Il faut qu’il reste. Le parcours complet doit générer des signaux comportementaux positifs : lecture prolongée, satisfaction, absence de “pogo-sticking”… L’objectif est de multiplier les “long clicks” qui confirment, pour Google, la valeur réelle de la page.

2. Accroître la part de contenu à fort effort.
La métrique numOfArticles8 montre l’importance d’augmenter la proportion de pages que Google identifie comme à “haute valeur ajoutée”. Il s’agit de déplacer l’attention du volume vers l’unicité : produire des contenus fondés sur la recherche originale, la donnée exclusive ou l’expertise — bref, des ressources qu’aucun outil automatisé ne peut répliquer.

3. Maîtriser la vélocité de publication.
L’attribut numOfUrlsByPeriods indique clairement qu’une accélération artificielle de la production est un signal d’alerte. La croissance doit être régulière et soutenable, pas explosive ni mécanique.

4. Auditer et assainir le contenu faible.
Ces signaux agissant à l’échelle du site entier confirment un principe essentiel : la qualité globale d’un domaine pèse plus que la performance de quelques pages. Les contenus peu utiles ou à faible contentEffort doivent être améliorés, fusionnés ou supprimés pour ne pas tirer l’ensemble du site vers le bas.

En définitive, QualityCopiaFireflySiteSignal n’invente rien : il matérialise techniquement la philosophie que Google défend depuis plus d’une décennie.

La fuite n’a pas changé les règles — elle a simplement révélé la grille d’évaluation.
Le succès durable ne réside ni dans la chasse aux failles, ni dans la réaction aux modes algorithmiques, mais dans la construction de sites dont la valeur intrinsèque épouse les principes d’un moteur conçu pour récompenser la vraie qualité.

L’ère de la boîte noire est close. Celle de l’alignement architectural commence.

À découvrir également