Publicité
Publicité

S'informer avec ChatGPT ou Gemini ? Attention, une étude européenne tire la sonnette d’alarme sur leur fiabilité

Marina Sgard . 1 min
les erreurs relevées sont souvent liées à des mauvais chiffres, des dates inexactes ou des confusions.
les erreurs relevées sont souvent liées à des mauvais chiffres, des dates inexactes ou des confusions. © Romain Doucelin / Hans Lucas / Hans Lucas via AFP

Alors que des millions d’internautes se tournent vers les intelligences artificielles pour s’informer, une étude menée par les radios et télévisions publiques européennes révèle leur manque de fiabilité. Sur les quatre IA testées, dont ChatGPT et Gemini, près de la moitié des réponses sur l’actualité contiennent des erreurs.

Un constat préoccupant. Les intelligences artificielles, pourtant de plus en plus utilisées pour s’informer, commettent encore de nombreuses erreurs. Une étude publiée ce mercredi par les radios et télévisions publiques européennes met en lumière les limites de ces outils numériques, en pleine explosion d’usage.

La suite après cette publicité
La suite après cette publicité

Quatre IA génératives parmi les plus populaires ont été testées, dont ChatGPT et Gemini, largement utilisées dans le monde entier. Le résultat est sans appel. Près d’une réponse sur deux contient au moins une erreur, soit précisément 45% des réponses analysées étaient erronées.

Un appel à la prudence 

Selon l’étude, les erreurs relevées sont souvent liées à des mauvais chiffres, des dates inexactes, des confusions entre une chronique humoristique et une information vérifiée, voire une pure invention de détails. Dans certains cas, les IA citent même des sources inexistantes ou attribuent à des personnalités des propos qu’elles n’ont jamais tenus.

La suite après cette publicité
La suite après cette publicité

Cette étude rappelle qu’ils ne peuvent et ne doivent pas remplacer les journalistes, ni les médias professionnels. Les IA, aussi puissantes soient-elles, n’ont pas de conscience critique, ne vérifient pas l’information comme un humain le ferait.
Les auteurs de l’étude appellent donc les utilisateurs à la prudence, et insistent sur la nécessité de croiser les sources et de ne pas prendre pour argent comptant les réponses fournies par les IA.