Nouvelle étude: lorsque l’intelligence artificielle désinforme!

  • Dernière modification de la publication :18/12/2023
  • Commentaires de la publication :10 commentaires
Gare aux IA génératives!
Gare aux IA génératives!

A entendre le boulevard, l’intelligence artificielle (IA) générative est au service de l’humanité. Malheureusement, lorsqu’on y regarde de plus près, ce type d’IA conduit souvent à de la désinformation, comme l’a constaté une étude dAlgorithmWatch et AI Forensics… Au cœur de la polémique Bing Chat de Microsoft.

Cette évolution (désormais Microsoft Copilot), variante du moteur de recherche Bing boostée par GPT-4, doit être maniée avec précaution sur de nombreux sujets, comme les élections fédérales… En effet, Bing Chat génère des textes plausibles en se basant sur des statistiques, sans aucune notion de vérité, ce qui conduit à de la désinformation.

Vrai ou pas? La roulette russe!

L’étude a examiné la qualité des réponses de Bing Chat aux questions sur les élections d’octobre n Hesse et en Suisse. Les résultats ont montré que les réponses étaient souvent soit complètement fausses, soit au moins trompeuses. Même si certaines réponses étaient correctes, il est impossible de savoir si l’information fournie par le chatbot est fiable ou non.

Encore une fois, cette nouvelle étude soulève des questions sur la fiabilité de Bing Chat (et des autres IA génératives) comme source d’information, notamment pour les électeurs, selon le communiqué de presse dAlgorithmWatch. Mais les problèmes ne s’arrêtent pas là. Et on se dit à nouveau qu’utiliser ces IA sans discernement peut revenir à jouer à la roulette russe.

A utiliser en connaissance de cause

Selon la même étude, Bing Chat a aussi été critiqué pour la façon dont il présente les sources d’information. Il ne reprend pas forcément les informations des sources auxquelles il se réfère, mais le fait qu’il liste une source après chaque phrase donne précisément l’impression qu’il le fait!

L’étude (disponible à cette adresse et reproduite ci-dessous) a également révélé que près de 30 % des réponses du chatbot contenaient des erreurs factuelles, y compris de faux chiffres de sondage et des informations obsolètes. Comme nous l’avons régulièrement dit dans cette colonne, ces IA, potentiellement boguées jusqu’au trognon, ne doivent être utilisées que si l’on est en mesure de juger du résultat produit…

Xavier Studer avec Perplexity.ai

Cet article a 10 commentaires

  1. Grand

    C’est oublier qui a écrit les articles que les IA récupèrent pour nous répondre… Mais c’est généralement plus facile d’accuser le messager, que celui qui a fourni l’information-

  2. Narra

    Tout ce bruit pour la désinformation(tm), alors que si vous voulez écouter ou lire des âneries, il vous suffit d’allumer la télé/radio, ouvrir un journal, ou parler avec un politicien.
    A écouter ces nouveaux pourfendeurs de désinformation(tm), on a l’impression que c’est un phénomène nouveau. Ce qui les ennuie le plus, en réalité, c’est qu’ils n’ont plus le monopole de l’endoctrinement des masses. Parce que s’ils s’en soucient sincèrement, ils présenteraient des excuses pour toutes les fois qu’ils se sont trompés.

  3. merinos

    peut-être la signaler aux accros du numérique désirant introduire cette fameuse AI à l’école obligatoire. 😉

  4. Jacounet

    En résumé, le seul moyen d’être certain d’avoir des réponses correctes, c’est de demander des choses dont on connaît déjà les réponses de sources sûres, si toutefois il en existe encore…

  5. Philippe

    Donc au final je ne vois pas trop l’utilité de ces nouveaux outils, puisqu’on ne peut absolument pas compter dessus. Si on recherche des infos, mieux vaut faire une recherche classique avec les moteurs de recherche. La seule utilité c’est la création artistique, lorsque l’exactitude n’est pas nécessaire. On peut alors créer des images ou des poèmes.

  6. redge

    L’information tout comme la désinformation sont exploités pour manipuler le peuple par une minorité de meneurs au pouvoir qui veulent contrôler tel un berger avec ces moutons. Tout comme les religions/politique capitaliste/communiste/etc le font ouvertement et sans scrupule entre disciple/sujets.
    Des fois cela fonctionne et des fois cela se retourne contre eux. Comme la politique/organisation quelqu’il soit, c’est l’art de manipuler l’information à son avantage/désavantage selon le yin et yang,
    Mieux informer/désinformer pour mieux régner selon son but/idéologie recherché tel un jeu d’échecs.
    Il suffit d’une phrase innocente qui soit au départ vraie tel un jeu du téléphone au bouche à oreille et fini complètement déformée et totalement incomprise à l’arrivée.
    Est-ce que quel’un m’a compris ?

    1. Sen

      Moi je t’ai compris. Pour résumé, tu cherches une information sur un berger taoïste, qui gèrent ces moutons sans aucun scrupule, et avec qui tu souhaiterais faire soit une partie d’échec, soit jouer au jeu du téléphone.

  7. Sen

    J’ai vraiment de la peine à comprendre. Le rapport dit « chatbot is an unreliable source for potential voters who want to get information about upcoming elections ». Sérieusement ? Nos politiciens mentiraient moins que l’IA ?
    Et puis le passage « undermine a cornerstone of healthy democracies » ?!!! Healthy, sérieusement ? Les twitters files on en parle ? Les fakes news qui existent depuis la nuit des temps, on en parle ? Tu soutiens le mauvais candidat sur FB et bam tu te fais bannir – on en parle ? Les horoscopes, on en parle ? Les publicités mensongères on en parle ?
    Apparement non, désormais tout est de la faute de l’IA. Le politicien dit vrai, le journal dit vrai, et même les moteurs de recherches disent désormais la vérité. Quelle incohérence!

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.