L’intelligence artificielle en question : une étude européenne soulève des doutes sur sa fiabilité

L'intelligence artificielle en question une étude européenne soulève des doutes sur sa fiabilité

L’essor des assistants IA comme ChatGPT et Google Gemini transforme notre manière de s’informer, mais des études récentes soulignent des distorsions préoccupantes dans leurs réponses. Ces erreurs menacent la confiance du public et appellent à une régulation renforcée pour garantir la fiabilité des informations fournies.

L’essor des IA : une nouvelle ère pour l’information

L’utilisation croissante des assistants IA tels que ChatGPT, Copilot, Gemini et Perplexity transforme notre manière de nous informer. Ces outils, en offrant des réponses rapides et synthétiques, commencent à remplacer les moteurs de recherche traditionnels.

J’utilise souvent ChatGPT pour vérifier des faits rapidement. Mais après avoir découvert plusieurs erreurs dans ses réponses, je suis redevenue plus vigilante. L’outil reste utile, mais il ne remplace pas une vraie vérification humaine.Nathalie, 42 ans, journaliste indépendante

Cette transition modifie profondément l’accès à l’information, rendant les utilisateurs plus dépendants de ces technologies. Cependant, cette évolution n’est pas sans conséquences.

Les assistants IA peuvent introduire des biais et des erreurs dans les réponses fournies, ce qui soulève des questions sur la fiabilité des informations et l’impact sur la confiance du public envers les médias.

A lire aussi :  Découvrez l'outil publicitaire révolutionnaire de LinkedIn propulsé par l'IA !

Des distorsions systémiques révélées par une étude

Une étude internationale menée par la BBC et l’UER met en lumière des distorsions systémiques dans les réponses des assistants IA.

Près de 45 % des réponses générées contiennent au moins une erreur significative, posant des problèmes d’exactitude et de sourcing. Ces erreurs, présentes dans toutes les langues et régions, menacent la confiance du public envers les médias.

Google Gemini se distingue comme l’assistant le moins fiable, avec 76 % de ses réponses jugées problématiques. Ces résultats soulignent l’urgence d’un suivi indépendant et d’une régulation renforcée pour garantir la fiabilité des informations fournies par les IA.

Un appel à une régulation renforcée

Face aux menaces que représentent les erreurs des IA pour la confiance du public, l’UER et la BBC appellent à une régulation renforcée.

Ils recommandent un suivi indépendant et continu de la qualité des réponses, ainsi que la création d’une taxonomie des biais les plus fréquents. Ces mesures visent à améliorer la fiabilité des modèles d’IA et à garantir la conformité avec les lois européennes sur l’intégrité de l’information.

A lire aussi :  Gemini vs Siri : la bataille des assistants vocaux sur iOS

L’utilisation massive des IA sans vérification par les utilisateurs accentue le risque d’une perception déformée de l’information. La majorité des utilisateurs ne vérifient pas les sources, ce qui pourrait éroder la crédibilité des médias et fragiliser l’écosystème démocratique.

Sources :
https://www.franceinfo.fr/internet/intelligence-artificielle/medias-44-des-reponses-generees-par-des-assistants-d-ia-concernant-des-contenus-radio-france-contiennent-au-moins-un-probleme-significatif_7566883.html
https://www.liberation.fr/economie/economie-numerique/erreurs-majeurs-et-details-inventes-les-ia-comme-chatgpt-pas-dignes-de-confiance-pour-sinformer-20251022_NBKXC7BPSZDBNDF7QEGR6KU3YU/

Sofiane

Responsable Web Marketing chez Starty Media avec plus de 6 ans d’expérience en stratégie digitale, Sofiane conçoit et met en œuvre des actions complètes pour accroître la notoriété, le trafic et la performance des sites web.

Titulaire d’un Master en Mathématiques pour la Science des Données de l’Université Paris Cité, il combine compétences techniques et vision stratégique pour élaborer des solutions digitales efficaces et adaptées au besoin de Starty Media.