
Une récente étude universitaire révèle des problèmes majeurs avec les outils de recherche basés sur l’intelligence artificielle (IA). L’enquête, qui a testé huit moteurs de recherche IA, a mis en lumière leur incapacité à citer correctement les sources d’information, en particulier les contenus journalistiques.
Les chercheurs du Tow Center for Digital Journalism ont constaté que ces chatbots fournissaient des réponses incorrectes à plus de 60% des requêtes, avec des taux d’erreur variant de 37% pour Perplexity à 94% pour Grok 3. Plus inquiétant encore, ces outils affichaient une confiance excessive dans leurs réponses erronées, rarement nuancées par des expressions de doute ou d’incertitude, selon cet article de la Columbia Journalist Review.
Des modèles payants plus problématiques
Contrairement aux attentes, les versions payantes des chatbots, comme Perplexity Pro ou Grok 3, se sont révélées plus enclines à fournir des réponses catégoriquement fausses que leurs homologues gratuits. Cette tendance à l’affirmation sans nuance, même en cas d’erreur, pourrait induire les utilisateurs en erreur en créant une illusion trompeuse de fiabilité et de précision, relèvent les chercheurs de la Columbia University de New York.
L’étude a également mis en évidence que certains outils semblaient contourner le protocole d’exclusion des robots (robots.txt), accédant à des contenus que les éditeurs avaient explicitement choisi de ne pas partager. Ce comportement soulève des questions éthiques importantes sur le respect des choix des éditeurs et la protection de leurs contenus, selon l’étude de la Columbia Journalism School fondée en 1912 par Joseph Pulitzer.
Des liens et des citations à problème
Les chercheurs américains ont observé que les chatbots avaient tendance à citer des versions syndiquées ou copiées d’articles, plutôt que les sources originales. Cette pratique prive les éditeurs originaux de l’attribution et du trafic potentiel qui leur sont dus, même lorsqu’ils ont des accords de licence avec les entreprises d’IA.
Enfin, l’étude souligne que la présence d’accords de licence entre éditeurs et entreprises d’IA ne garantit pas une citation plus précise des contenus. Cette constatation remet en question l’efficacité de ces partenariats pour améliorer la qualité et la fiabilité des résultats de recherche IA, soulignant la nécessité d’améliorations significatives dans ce domaine, estiment les auteurs Klaudia Jaźwińska et Aisvarya Chandrasekar.
XS