L’intelligence artificielle en question : une étude européenne soulève des doutes sur sa fiabilité
L’essor des assistants IA comme ChatGPT et Google Gemini transforme notre manière de s’informer, mais des études récentes soulignent des distorsions préoccupantes dans leurs réponses. Ces erreurs menacent la confiance du public et appellent à une régulation renforcée pour garantir la fiabilité des informations fournies.
L’essor des IA : une nouvelle ère pour l’information
L’utilisation croissante des assistants IA tels que ChatGPT, Copilot, Gemini et Perplexity transforme notre manière de nous informer. Ces outils, en offrant des réponses rapides et synthétiques, commencent à remplacer les moteurs de recherche traditionnels.
Cette transition modifie profondément l’accès à l’information, rendant les utilisateurs plus dépendants de ces technologies. Cependant, cette évolution n’est pas sans conséquences.
Les assistants IA peuvent introduire des biais et des erreurs dans les réponses fournies, ce qui soulève des questions sur la fiabilité des informations et l’impact sur la confiance du public envers les médias.
Des distorsions systémiques révélées par une étude
Une étude internationale menée par la BBC et l’UER met en lumière des distorsions systémiques dans les réponses des assistants IA.
Près de 45 % des réponses générées contiennent au moins une erreur significative, posant des problèmes d’exactitude et de sourcing. Ces erreurs, présentes dans toutes les langues et régions, menacent la confiance du public envers les médias.

Google Gemini se distingue comme l’assistant le moins fiable, avec 76 % de ses réponses jugées problématiques. Ces résultats soulignent l’urgence d’un suivi indépendant et d’une régulation renforcée pour garantir la fiabilité des informations fournies par les IA.
Quand je vois que certains ne sont plus capable de lire une information sans demander à une IA si c’est vrai… lol…
Gemini, l’assistant IA de Google, a obtenu les pires résultats : 76 % des réponses présentaient des lacunes importantes. pic.twitter.com/OC3D1owHAs
— SILVANO TROTTA OFFICIEL (@silvano_trotta) October 23, 2025
Un appel à une régulation renforcée
Face aux menaces que représentent les erreurs des IA pour la confiance du public, l’UER et la BBC appellent à une régulation renforcée.
Ils recommandent un suivi indépendant et continu de la qualité des réponses, ainsi que la création d’une taxonomie des biais les plus fréquents. Ces mesures visent à améliorer la fiabilité des modèles d’IA et à garantir la conformité avec les lois européennes sur l’intégrité de l’information.
L’utilisation massive des IA sans vérification par les utilisateurs accentue le risque d’une perception déformée de l’information. La majorité des utilisateurs ne vérifient pas les sources, ce qui pourrait éroder la crédibilité des médias et fragiliser l’écosystème démocratique.
Sources :
https://www.franceinfo.fr/internet/intelligence-artificielle/medias-44-des-reponses-generees-par-des-assistants-d-ia-concernant-des-contenus-radio-france-contiennent-au-moins-un-probleme-significatif_7566883.html
https://www.liberation.fr/economie/economie-numerique/erreurs-majeurs-et-details-inventes-les-ia-comme-chatgpt-pas-dignes-de-confiance-pour-sinformer-20251022_NBKXC7BPSZDBNDF7QEGR6KU3YU/