Journal De Bruxelles - IA: une étude souligne des carences de Grok dans ses réponses sur la guerre Iran-Israël

Euronext
AEX -0.73% 917.86
BEL20 -0.76% 4457.12
PX1 -0.76% 7558.16
ISEQ -0.76% 11208.35
OSEBX -0.32% 1600.55 kr
PSI20 -0.77% 7394.6
ENTEC -0.41% 1416.23
BIOTK -1.14% 2508.25
N150 -0.56% 3558.59
IA: une étude souligne des carences de Grok dans ses réponses sur la guerre Iran-Israël
IA: une étude souligne des carences de Grok dans ses réponses sur la guerre Iran-Israël / Photo: Lionel BONAVENTURE - AFP

IA: une étude souligne des carences de Grok dans ses réponses sur la guerre Iran-Israël

Grok, l'assistant d'intelligence artificielle (IA) de la start-up d'Elon Musk xAI, a engendré des réponses inexactes et contradictoires à des demandes de vérification d'informations sur la guerre de 12 jours entre Israël et l'Iran, selon une étude.

Taille du texte:

Avec l'effacement progressif de la vérification effectuée par des journalistes sur les plateformes comme Facebook, de plus en plus d'internautes se tournent vers des outils d'IA comme Grok pour trouver des informations fiables, mais les réponses obtenues les exposent parfois à de la désinformation.

Selon l'étude publiée mardi du Digital Forensic Research Lab (DFRLab) de l'Atlantic Council, un cercle de réflexion américain, "les performances de Grok pendant les premiers jours du conflit entre Israël et l'Iran ont révélé des défauts significatifs et montré les limites du chatbot à fournir de l'information précise, fiable et cohérente en temps de crise".

Elle a analysé 130.000 messages en plusieurs langues sur la plateforme X, qui intègre le chatbot Grok, et déterminé que ce dernier "avait du mal à authentifier du contenu généré par l'IA".

Par exemple, après des frappes de représailles de l'Iran en Israël, Grok a proposé des réponses très différentes à des instructions similaires au sujet d'images générées par l'IA d'un aéroport détruit, qui avaient amassé des millions de vues sur X: elles oscillaient, parfois dans la même minute, entre démentir la destruction de l'aéroport et confirmé qu'il avait été touché par des frappes.

Et dans certaines réponses, Grok avançait qu'un missile tiré du Yémen était à l'origine des dégâts alors que dans d'autres, il identifiait faussement que l'aéroport en question était à Beyrouth, Gaza ou Téhéran.

Selon des spécialistes, Grok a déjà été pris en défaut dans ses réponses de fact-checking lors du récent conflit entre l'Inde et le Pakistan et lors des manifestations à Los Angeles contre les politiques anti-immigration de Donald Trump.

Le mois dernier, le service d'IA de l'homme d'affaires d'origine sud-africaine Elon Musk avait également fait polémique en évoquant de manière erronée un "génocide blanc" en Afrique du Sud, une erreur ensuite imputée par xAI à une "modification non autorisée".

M.Kohnen--JdB