Site icon Le blog high-tech & telecom de Xavier Studer

Nouvelle étude: lorsque l’intelligence artificielle désinforme!

Gare aux IA génératives!
Gare aux IA génératives!

A entendre le boulevard, l’intelligence artificielle (IA) générative est au service de l’humanité. Malheureusement, lorsqu’on y regarde de plus près, ce type d’IA conduit souvent à de la désinformation, comme l’a constaté une étude dAlgorithmWatch et AI Forensics… Au cœur de la polémique Bing Chat de Microsoft.

Cette évolution (désormais Microsoft Copilot), variante du moteur de recherche Bing boostée par GPT-4, doit être maniée avec précaution sur de nombreux sujets, comme les élections fédérales… En effet, Bing Chat génère des textes plausibles en se basant sur des statistiques, sans aucune notion de vérité, ce qui conduit à de la désinformation.

Vrai ou pas? La roulette russe!

L’étude a examiné la qualité des réponses de Bing Chat aux questions sur les élections d’octobre n Hesse et en Suisse. Les résultats ont montré que les réponses étaient souvent soit complètement fausses, soit au moins trompeuses. Même si certaines réponses étaient correctes, il est impossible de savoir si l’information fournie par le chatbot est fiable ou non.

Encore une fois, cette nouvelle étude soulève des questions sur la fiabilité de Bing Chat (et des autres IA génératives) comme source d’information, notamment pour les électeurs, selon le communiqué de presse dAlgorithmWatch. Mais les problèmes ne s’arrêtent pas là. Et on se dit à nouveau qu’utiliser ces IA sans discernement peut revenir à jouer à la roulette russe.

A utiliser en connaissance de cause

Selon la même étude, Bing Chat a aussi été critiqué pour la façon dont il présente les sources d’information. Il ne reprend pas forcément les informations des sources auxquelles il se réfère, mais le fait qu’il liste une source après chaque phrase donne précisément l’impression qu’il le fait!

L’étude (disponible à cette adresse et reproduite ci-dessous) a également révélé que près de 30 % des réponses du chatbot contenaient des erreurs factuelles, y compris de faux chiffres de sondage et des informations obsolètes. Comme nous l’avons régulièrement dit dans cette colonne, ces IA, potentiellement boguées jusqu’au trognon, ne doivent être utilisées que si l’on est en mesure de juger du résultat produit…

Xavier Studer avec Perplexity.ai

Quitter la version mobile