Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux
Lorsque des Philippins indignés ont utilisé un assistant virtuel ("chatbot") dopé à l'IA pour vérifier la photo virale d'un parlementaire impliqué dans un scandale de corruption, l'outil n'a pas détecté qu'elle était fabriquée. Il l'avait pourtant lui-même générée.
Les internautes se tournent de plus en plus vers des chatbots pour vérifier des images en temps réel. Mais ces outils échouent souvent, interrogeant sur leurs capacités à détecter les images factices, à un moment où les grandes plateformes réduisent la vérification humaine.
Dans de nombreux cas, ils identifient comme authentiques des images générées par l'IA, ce qui accentue la confusion dans un univers numérique saturé de faux visuels.
Les outils de vérification "sont principalement entraînés sur des schémas linguistiques et manquent de la compréhension visuelle nécessaire pour identifier correctement les images générées ou manipulées", explique Alon Yamin, PDG de Copyleaks, une plateforme de détection de contenus IA.
"Les chatbots donnent souvent des évaluations incohérentes ou trop générales, ce qui les rend peu fiables pour des tâches comme la vérification ou l'authentification."
Aux Philippines, une image fabriquée a ainsi circulé sur les réseaux sociaux impliquant Elizaldy Co, ex-député impliqué dans une vaste affaire de corruption concernant des projets fictifs de contrôle des inondations, qui auraient coûté des centaines de millions de dollars au contribuable.
La photo montrait l'ex-député au Portugal, alors qu'il aurait dû se trouver aux Philippines à la disposition de la justice. Lorsque des internautes ont interrogé l'assistant IA de Google pour savoir si la photo était authentique, l'IA a répondu à tort par l'affirmative.
Elizaldy Co n'est en réalité jamais réapparu en public depuis le début de l'enquête.
Les vérificateurs de l'AFP ont retrouvé le créateur de l'image et établi qu'elle avait été précisément générée par l'IA de Google.
Google n'a pas répondu aux sollicitations de l'AFP sur ce sujet.
- "Distinguable de la réalité" -
L'AFP a trouvé d'autres occurrences d'IA incapables de reconnaître leurs propres créations.
Lors des violentes manifestations du mois dernier au Cachemire pakistanais, des internautes ont partagé une image censée montrer des hommes marchant avec des drapeaux et des torches.
Une analyse de l'AFP a révélé qu'elle avait été créée avec le modèle Gemini de Google. Mais Gemini et Copilot (Microsoft) l'ont identifiée comme authentique.
"Ces modèles (d'IA) sont programmés uniquement pour bien imiter", explique à l'AFP Rossine Fallorina, du centre de recherche Sigla. "En un sens, ils ne peuvent que générer des choses qui imitent correctement. Ils ne peuvent pas déterminer si cette imitation est réellement distinguable de la réalité".
Plus tôt cette année, le Tow Center for Digital Journalism de l'université américaine Columbia a testé sept chatbots IA – dont ChatGPT, Perplexity, Gemini et Grok (une IA appartenant à Elon Musk) – sur 10 photos de photojournalistes.
Tous ont échoué à identifier correctement la provenance des images qui leur étaient soumises, selon l'étude.
- "Choqué" -
L'AFP a retrouvé l'auteur de la fausse photo d'Elizaldy Co, qui a dépassé le million de vues sur les réseaux: un développeur web philippin qui affirme l'avoir créée "pour s'amuser" avec Nano Banana, le générateur d'images IA de Gemini.
"Malheureusement, beaucoup de gens y ont cru", confie-t-il, sous couvert d'anonymat pour éviter les représailles. "J'ai modifié mon post en précisant +image générée par IA+ pour stopper la propagation, car j'étais choqué par le nombre de partages."
Ces cas montrent à quel point les photos générées par IA peuvent être indiscernables des images réelles. Et la tendance inquiète, alors que les internautes délaissent les moteurs de recherche traditionnels au profit des outils IA pour s'informer et vérifier des contenus.
Le géant américain Meta, qui contrôle Facebook et Instagram, a annoncé en début d'année la fin de son programme de fact-checking aux Etats-Unis pour le remplacer par un système de "notes de communauté", écrites par des utilisateurs, sur le modèle du réseau social X d'Elon Musk.
L'AFP collabore en revanche toujours avec Meta dans 26 langues, en Asie, Amérique latine et dans l'Union européenne.
Les chercheurs estiment que les modèles d'IA peuvent aider les fact-checkers professionnels à géolocaliser rapidement des images et repérer des indices visuels. Mais ils avertissent qu'ils ne peuvent pas remplacer le travail humain.
"On ne peut pas compter sur les outils IA pour combattre l'IA à long terme", insiste Rossine Fallorina.
R.Vercruysse--JdB