S'informer avec ChatGPT ou Gemini ? Attention, une étude européenne tire la sonnette d’alarme sur leur fiabilité
Alors que des millions d’internautes se tournent vers les intelligences artificielles pour s’informer, une étude menée par les radios et télévisions publiques européennes révèle leur manque de fiabilité. Sur les quatre IA testées, dont ChatGPT et Gemini, près de la moitié des réponses sur l’actualité contiennent des erreurs.
Un constat préoccupant. Les intelligences artificielles, pourtant de plus en plus utilisées pour s’informer, commettent encore de nombreuses erreurs. Une étude publiée ce mercredi par les radios et télévisions publiques européennes met en lumière les limites de ces outils numériques, en pleine explosion d’usage.
Quatre IA génératives parmi les plus populaires ont été testées, dont ChatGPT et Gemini, largement utilisées dans le monde entier. Le résultat est sans appel. Près d’une réponse sur deux contient au moins une erreur, soit précisément 45% des réponses analysées étaient erronées.
Un appel à la prudence
Selon l’étude, les erreurs relevées sont souvent liées à des mauvais chiffres, des dates inexactes, des confusions entre une chronique humoristique et une information vérifiée, voire une pure invention de détails. Dans certains cas, les IA citent même des sources inexistantes ou attribuent à des personnalités des propos qu’elles n’ont jamais tenus.
Cette étude rappelle qu’ils ne peuvent et ne doivent pas remplacer les journalistes, ni les médias professionnels. Les IA, aussi puissantes soient-elles, n’ont pas de conscience critique, ne vérifient pas l’information comme un humain le ferait.
Les auteurs de l’étude appellent donc les utilisateurs à la prudence, et insistent sur la nécessité de croiser les sources et de ne pas prendre pour argent comptant les réponses fournies par les IA.