Sommaire
Une étude menée sur cinq sites B2B créés avec l’IA montre un écart net entre apparence professionnelle et vraie préparation SEO. Design propre, structure logique… mais aussi H1 faibles, schema cassé, robots.txt mal configurés et signaux de confiance trop fragiles.
Dans une étude publiée après l’audit de cinq sites B2B créés avec des outils d’IA, Nikki Pilkington observe des sites qui paraissent finis, mais conservent souvent des problèmes SEO invisibles pour leurs propriétaires.
Une méthode appliquée aux cinq sites
Nikki Pilkington a audité cinq sites B2B créés avec l’aide de l’IA en avril 2026. Chaque site a été analysé avec la même méthode :
- crawl SEO avec SE Ranking,
- analyse du HTML source,
- vérification des balises title, meta description, canonical et robots,
- test PageSpeed Insights sur mobile et desktop,
- test des données structurées avec l’outil Rich Results Test de Google,
- revue manuelle du site, du contenu, des liens et de l’expérience utilisateur.
L’échantillon reste limité. Il ne s’agit pas d’une étude massive.
Des titres pensés pour la conversion, pas pour le SEO
L’un des problèmes les plus fréquents concerne les titres de page. Sur les cinq sites, les H1 ressemblaient davantage à des slogans qu’à de vrais repères pour le référencement.
On retrouvait souvent une promesse de marque, une formule un peu travaillée, une phrase volontairement marquante ou parfois simplement le nom de l’entreprise.
À la lecture, cela peut très bien fonctionner. Mais pour Google, cela rend la compréhension de la page moins claire, notamment sur le sujet traité, le service proposé ou le public visé.
Le même constat revient sur les H2. Les sous-titres servent bien le discours commercial, mais ils aident peu à structurer la page autour de recherches réellement tapées par les internautes.
Une hiérarchie HTML souvent fragile
L’étude relève aussi beaucoup d’erreurs dans l’organisation des titres.
Sur quatre sites sur cinq, les niveaux de balises n’étaient pas cohérents. On passait par exemple d’un H2 à un H4 sans logique, certains menus utilisaient des balises de titre, des H3 apparaissaient dans le footer ou des H5 servaient uniquement à afficher des blocs de prix.
Le problème vient du fait que l’IA semble choisir ces balises pour leur apparence visuelle, et non pour leur rôle dans la structure de la page.
Pour un visiteur, tout peut paraître propre. Mais pour Google ou pour un lecteur d’écran, la lecture du contenu devient beaucoup moins claire.
Des réglages techniques encore trop souvent oubliés
De nombreux problèmes techniques reviennent sur la majorité des sites audités. L’auteur cite notamment :
- robots.txt absent ou mal configuré,
- sitemap XML absent, cassé ou mal renseigné,
- pages catégories ou tags indexées sans intérêt SEO,
- mauvaise gestion des versions www et non-www,
- balises canonical absentes ou incorrectes,
- performances mobiles plus faibles que sur desktop…
Ces erreurs ne sautent pas aux yeux lors d’une simple visite du site. C’est justement pour cela qu’elles passent facilement sous le radar après une création avec l’IA.
Des données structurées souvent mal configurées
Les cinq sites audités présentaient aussi des problèmes liés aux données structurées. Parfois, elles étaient totalement absentes. Dans d’autres cas, elles étaient bien présentes, mais mal mises en place.
L’étude cite par exemple du JSON-LD non valide, un mauvais type de balisage appliqué à certaines pages, un prix erroné dans un schema SoftwareApplication ou encore un balisage Article utilisé sur des pages qui n’étaient pas de vrais articles.
L’intention est là, mais l’exécution reste souvent incomplète. Sans vérification, ces erreurs passent facilement aussi inaperçues.
Des signaux de confiance trop faibles
Autre point relevé sur les cinq sites, les éléments censés rassurer existent souvent, mais restent difficiles à vérifier. L’auteur cite par exemple :
- des auteurs sans biographie,
- des témoignages sans nom complet ni nom d’entreprise,
- des avatars remplacés par des logos,
- des politiques de confidentialité hébergées sur Google Docs,
- des articles sans information claire sur leur auteur.
En apparence, tout semble présent. Mais quand on cherche à vérifier qui parle, quelle est son expertise ou si les avis sont réels, les preuves manquent.
L’IA construit bien, mais n’audite pas
L’étude ne conclut pas que l’IA produit de mauvais sites. Les cinq sites audités présentaient une bonne apparence visuelle, une architecture logique, des mises en page mobiles cohérentes et, dans la majorité des cas, des formulaires fonctionnels.
Plusieurs sites proposaient aussi des pages commerciales pertinentes, utiles pour des visiteurs en phase de comparaison ou de décision. L’IA semble donc capable de produire une base propre, lisible et fonctionnelle.
La limite apparaît surtout après la mise en ligne. Selon Nikki Pilkington, tout ne fonctionne pas pour le référencement. L’IA peut livrer une page propre à l’écran tout en laissant des erreurs dans les balises, les fichiers techniques, les canonicals, les données structurées ou les signaux de confiance.
Comme pour le contenu, l’IA peut accélérer la production et poser une structure solide, mais elle ne remplace pas le regard critique, le contrôle et l’expertise nécessaires pour obtenir un vrai résultat SEO.