Accueil GEO et IA Les assistants IA se trompent dans près d’une réponse d’actualité sur deux

Les assistants IA se trompent dans près d’une réponse d’actualité sur deux

Chat gpt, perplexity et gemibi autour d'un café

Une étude conjointe de la BBC et de l’European Broadcasting Union révèle que près d’une réponse d’actualité sur deux générée par les assistants d’IA contient une erreur majeure.

Problèmes de sourcing, informations obsolètes ou inexactes : les modèles comme Gemini, ChatGPT, Copilot et Perplexity peinent encore à produire des réponses fiables sur l’information, malgré leur adoption massive.

Une étude européenne pointe des problèmes systémiques de fiabilité

Les assistants d’IA comme ChatGPT, Copilot, Gemini et Perplexity produisent des réponses erronées ou trompeuses dans près de 45 % des cas lorsqu’ils traitent des sujets d’actualité, selon une vaste étude menée par la European Broadcasting Union (EBU) et la BBC.

L’enquête, réalisée dans 18 pays et 14 langues, a analysé 2 709 réponses générées par ces assistants à partir de questions d’actualité posées par 22 médias de service public européens.

Le constat est sans appel :

“Les distorsions systématiques de l’information par l’IA sont constantes, quel que soit le territoire ou la langue”, a déclaré l’EBU.


Des erreurs fréquentes et des sources mal citées

Selon le rapport, 45 % des réponses contenaient au moins une erreur importante, et 81 % présentaient un problème d’exactitude ou de source. Le manque de fiabilité des citations est le principal défaut :

  • 31 % des réponses comportaient des problèmes significatifs de sourcing,
  • Les sources étaient souvent absentes, mal attribuées ou trompeuses.

Parmi les systèmes testés, Gemini (Google) s’est distingué par le plus haut taux d’erreurs, avec :

  • 76 % de réponses présentant des problèmes majeurs,
  • Dont 72 % liées à la mauvaise gestion des sources.

Les autres assistants (ChatGPT, Copilot et Perplexity) affichaient des taux plus bas — inférieurs à 37 % pour les erreurs majeures et sous les 25 % pour les erreurs de citation — mais restaient loin d’une fiabilité totale.


Exemples de dérives

Les erreurs constatées allaient de l’information obsolète à la désinformation pure.
Par exemple :

  • Certains assistants citaient encore le pape François comme vivant en mai, alors qu’il est décédé en avril,
  • Gemini a mal interprété une évolution de la législation sur les cigarettes électroniques jetables,
  • Plusieurs IA ont fourni des résumés inexacts ou biaisés d’articles de presse.

L’étude rappelle qu’elle s’est concentrée sur les versions grand public gratuites des outils, afin de refléter l’expérience réelle des utilisateurs.


Un risque de désinformation amplifié

Pour les médias, les conclusions sont préoccupantes : ces erreurs peuvent détériorer la perception publique de l’information et dégrader la confiance envers la presse.

Le directeur média de l’EBU, Jean Philip De Tender, alerte :

“Quand les citoyens ne savent plus à qui faire confiance, ils finissent par ne plus faire confiance à personne — et cela menace la participation démocratique.”

Afin d’aider les éditeurs et les plateformes à mieux gérer ces dérives, la BBC et l’EBU ont publié un “News Integrity in AI Assistants Toolkit”, un guide méthodologique pour les entreprises technologiques, les chercheurs et les rédactions.


Un enjeu crucial pour la fiabilité de l’information

Ces résultats renforcent un constat déjà formulé par d’autres études : malgré leurs progrès, les modèles génératifs restent fragiles sur la vérification et l’attribution des sources. Pour les professionnels du contenu, cela souligne la nécessité de vérifier toute citation IA et de surveiller la manière dont leurs articles sont repris dans les réponses générées.

À long terme, la dépendance croissante des internautes aux assistants d’IA pour s’informer pourrait remodeler la relation entre plateformes, éditeurs et public — au risque d’installer une zone grise de confiance au cœur de l’information.

À découvrir également