Fiabilité des modèles d’IA : un dilemme pour la véracité des informations

Fiabilité des modèles d’IA : un dilemme pour la véracité des informations

Les avancées en intelligence artificielle ont permis aux chatbots de répondre à un nombre croissant de questions. Cependant, alors que leur capacité à générer des réponses s’améliore, leur aptitude à fournir des informations exactes est mise en question. Un audit récent révèle une augmentation préoccupante des fausses informations citées par ces systèmes. Quels enjeux pour la société de l’information moderne ?

L’info résumée en 3 points

  • Les chatbots citent des informations incorrectes dans 35% des cas, une hausse par rapport à l’année précédente.
  • En 2025, les chatbots répondent presque toujours aux questions, y compris celles considérées comme sensibles.
  • Certains modèles d’IA, tels que Perplexity, montrent la plus forte baisse de performance en termes de fiabilité des informations.

Une fiabilité en déclin

Les chatbots, autrefois célébrés pour leur capacité à fournir des réponses rapides et précises, sont désormais sous le feu des critiques. Selon l’audit de NewsGuard, ces modèles d’IA ont cité de fausses informations dans 35% des cas en août 2025, contre 18% l’année précédente. Cette hausse est alarmante pour les utilisateurs qui se fient à ces outils pour obtenir des informations vérifiées.

La baisse de performance est particulièrement notable pour le système Perplexity, qui est passé d’un score parfait à une fiabilité inférieure à 50% dans les tests récents. Cette évolution pose des questions sur la capacité des modèles d’IA à discriminer correctement entre les sources fiables et les chaînes de désinformation.

Réponses systématiques, mais erronées

Les chatbots ont évolué pour répondre à presque toutes les questions posées, y compris les plus sensibles. En 2024, ils refusaient encore de répondre dans 31% des cas. Aujourd’hui, ce chiffre est tombé à zéro. Cela signifie que les utilisateurs reçoivent systématiquement des réponses, même si celles-ci sont parfois basées sur des informations erronées.

À lire  Kraken : le ransomware qui optimise ses attaques en fonction des performances système

Cette situation résulte en partie de la difficulté des modèles à évaluer correctement les sources d’information en ligne, qui peuvent être polluées par des contenus de désinformation. Les chatbots attribuent une valeur égale aux sources fiables et à celles connues pour diffuser des propagandes.

Le rôle des fermes de contenu et de la désinformation

Des réseaux de désinformation, tels que Storm-1516 et Pravda, sont utilisés pour influencer les systèmes d’IA. Ces réseaux, mis en place par des acteurs étatiques tels que la Russie, visent à empoisonner les modèles d’IA en leur fournissant des informations biaisées.

Les recherches montrent que des modèles populaires, comme Le Chat de Mistral, Copilot de Microsoft et Llama de Meta, ont parfois utilisé ces réseaux comme sources d’information. Cela compromet leur capacité à fournir des réponses fidèles à la vérité.

Vers une meilleure évaluation des sources

NewsGuard a lancé un appel à action pour remédier à ce problème. Il est crucial que les développeurs de modèles d’IA s’efforcent d’améliorer leur capacité à évaluer et à reconnaître les sources d’information. La lutte contre la désinformation doit être une priorité pour garantir que les utilisateurs reçoivent des réponses basées sur des faits vérifiés.

Perplexity, un des modèles pointés dans l’audit, a été développé comme un outil de recherche et d’assistance s’appuyant sur l’IA. Lancé pour offrir des réponses rapides et pertinentes, sa performance actuelle soulève des questions sur la gestion de l’information dans un contexte où la désinformation est omniprésente. Cette situation rappelle l’importance d’une vigilance accrue dans le développement et le déploiement de systèmes d’IA afin de préserver la qualité et la fiabilité des informations fournies aux utilisateurs.

À lire  Google Gemini : une publicité encore en suspens pour les 650 millions d'utilisateurs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *