Accueil GEO et IA Les nouveaux modèles d’IA régressent sur les tâches SEO, selon un benchmark Previsible

Les nouveaux modèles d’IA régressent sur les tâches SEO, selon un benchmark Previsible

Robot et ia

Un nouveau benchmark publié par Previsible montre une baisse nette de la précision des derniers modèles d’IA sur des tâches SEO standard. Claude Opus 4.5, Gemini 3 Pro et ChatGPT-5.1 Thinking obtiennent de moins bons résultats que leurs versions précédentes, alors même qu’ils coûtent plus cher.

L’optimisation orientée vers le “reasoning” profond et les agents serait moins adaptée aux réponses directes dont le SEO a besoin.


Le mythe “plus récent = meilleur” remis en cause

L’étude de Previsible évalue plusieurs modèles récents sur un ensemble de tâches SEO : technique, mapping d’intention et recommandations stratégiques. Les modèles de dernière génération reculent en précision par rapport à leurs prédécesseurs.

Prévisible publie notamment ces scores moyens pour des tâches SEO standard :

  • Claude Opus 4.5 : 76 % de réussite, contre 84 % pour la version 4.1.
  • Gemini 3 Pro : 73 %, soit une baisse d’environ 9 points par rapport à Gemini 2.5 Pro.
  • ChatGPT-5.1 Thinking : 77 %, environ 6 points de moins que GPT-5 “standard”.

Pour la première fois depuis le début de l’ère IA générative, les nouvelles versions ne surclassent plus les anciennes sur ces tâches ciblées. Selon l’auteur, une équipe qui “met à jour” ses appels API vers ces modèles sans adaptation risque donc de payer plus cher pour un résultat moins fiable.


L’« agentic gap » : un décalage entre les modèles et les usages SEO

L’article avance une explication : les modèles récents ne visent plus l’optimisation du “one-shot prompt”, mais des scénarios d’agents autonomes. Le benchmark de Previsible, fortement orienté vers le SEO technique et la stratégie (environ un quart du jeu de tests), met ce décalage en lumière.

Trois axes ressortent :

  • Raisonnement profond: les modèles se montrent plus enclins à dérouler un raisonnement long, y compris sur des tâches simples comme l’analyse d’un canonical ou la classification d’intention. Cette “sur-analyse” introduit du bruit et augmente le risque d’erreur logique.
  • Contexte massif attendu : les architectures récentes paraissent calibrées pour consommer de très grands contextes (codebases et bibliothèques entières) plutôt que de courtes entrées comme une seule URL ou un extrait de log.
  • Sécurité et garde-fous plus stricts : les nouveaux modèles refusent plus souvent certaines requêtes techniques (audits et analyse de logs) qu’ils interprètent comme des tentatives d’attaque ou des demandes sensibles. Ce type de refus apparaît plus fréquemment sur les nouvelles versions de Claude et Gemini, d’après le benchmark.

L’auteur parle d’un “agentic gap” : les modèles se rapprochent d’agents qui “réfléchissent” avant de répondre, là où le SEO a souvent besoin de réponses structurées, logiques et rapides sur des tâches bien définies.


Recommandations de l’étude : passer de la simple requête au système

Le texte défend l’idée que “l’ère du prompt brut” touche à sa limite pour les usages SEO importants. Trois orientations principales sont mises en avant.

1. Sortir de l’interface de chat pour les tâches récurrentes

Selon Previsible, les modèles standards utilisés via une simple interface de chat ou des prompts ponctuels ne suffisent plus pour des tâches SEO critiques.

L’article recommande de basculer les workflows récurrents dans des “conteneurs contextuels” :

  • Custom GPTs côté OpenAI,
  • Projects côté Claude,
  • Gems côté Gemini.

Ces environnements ajoutent des règles, des documents de référence et une mémoire stable autour du modèle.

2. Imposer un cadre avec du contexte métier

L’étude souligne que les questions de stratégie SEO souffrent particulièrement de la dérive des modèles lorsqu’ils manquent de contexte.

Approche proposée :

  • Charger dans le système les guidelines de marque,
  • Inclure l’historique de performance (marchés, canaux et SERP),
  • Fournir un cadre méthodologique explicite (processus, étapes et formats de livrables).

L’auteur conseille de ne pas demander “crée une stratégie SEO”, mais de poser la stratégie dans un environnement déjà alimenté par ces éléments, pour ancrer le raisonnement dans le réel plutôt que dans des conseils génériques.

3. Utiliser des modèles “figés” pour le SEO technique

Pour les tâches binaires (codes HTTP, balises, schémas et validations), les modèles orientés “reasoning” augmentent la latence et le risque de dérive.

L’article préconise :

  • De rester sur des modèles jugés plus stables pour le code et l’audit (par exemple GPT-4o ou Claude 3.5 Sonnet),
  • Ou de fine-tuner un modèle plus petit sur les règles propres à l’audit technique de l’équipe.

Rôle des équipes humaines

En conclusion, l’article insiste sur le fait que ces modèles ne fonctionnent plus “sortis de la boîte” pour des usages SEO qui engagent un site ou un budget.

Selon l’auteur, la performance dépend de la capacité des équipes à :

  • Concevoir des systèmes autour des modèles (règles, workflows, garde-fous),
  • Intégrer ces systèmes aux process existants,
  • Contrôler et ajuster les sorties avec un regard expert.

Dans cette vision, l’avantage ne vient pas d’un simple changement de version de modèle, mais de la qualité de l’architecture IA posée par les équipes SEO et data autour de ces modèles.

À découvrir également