Accueil GEO et IA Recommandations biaisées : quand ChatGPT s’appuie sur des sites piratés

Recommandations biaisées : quand ChatGPT s’appuie sur des sites piratés

par Jordan Belly
Chat gpt et les pirates

Une enquête révèle que ChatGPT cite des sites piratés et des domaines expirés pour recommander des entreprises, particulièrement dans le secteur des casinos en ligne. Une problématique qui s’ajoute aux préoccupations croissantes sur la fiabilité des IA conversationnelles.

Le problème identifié

Une enquête de Digitaloft révèle que ChatGPT présente des failles sur ses choix de sources. Quand on lui demande de recommander des services (casinos, bookmakers, etc.), l’IA s’appuie sur des sources problématiques :

  • Sites piratés : des pages ajoutées frauduleusement sur des sites légitimes,
  • Domaines expirés : d’anciens sites d’associations ou entreprises rachetés et détournés.

Exemples

  • Site d’une avocate californienne spécialisée en violence conjugale → utilisé pour recommander des casinos en ligne.
  • Site d’une coalition de jeunes de l’ONU → détourné pour promouvoir des sites de paris.
  • Ancien site d’une association artistique fermée en 2018 → transformé en guide de casinos et cité par ChatGPT.

Pourquoi ces sources passent-elles ?

ChatGPT laisserait passer ces sources pour trois raisons principales :

  • Autorité héritée : l’IA ferait confiance à la réputation passée du domaine, sans vérifier son contenu actuel.
  • Récence des contenus : les articles frauduleux sont datés de moins d’un mois.
  • Absence de contrôle sur les piratages et reventes : aucun filtre ne détecterait les changements de propriétaire ou les injections de contenu malveillant.

Ces failles révèlent les limites actuelles du SEO à l’ère de l’IA et soulèvent des questions sur l’évolution du référencement face aux nouveaux moteurs conversationnels.

Les risques

Cette faille est particulièrement préoccupante pour les secteurs réglementés comme les jeux en ligne (YMYL – Your Money or Your Life), où de mauvaises recommandations peuvent avoir des conséquences graves.

Conclusion

On ne peut pas encore faire confiance aveuglément aux recommandations de ChatGPT. L’IA doit améliorer ses filtres pour distinguer les sources légitimes des manipulations frauduleuses. Il convient également d’être prudents sur ses sites.

Cette situation rappelle les premières années de Google (2000-2005), quand les techniques de spam étaient légion et que l’algorithme se faisait régulièrement berner par des fermes de liens ou du keyword stuffing. OpenAI paraît traverser la même phase d’apprentissage !

À découvrir également