En 2024, une découverte de l’agence française Viginum a mis en lumière un réseau de désinformation d’une ampleur inédite : Portal Kombat. Ce réseau, également connu sous le nom de Pravda.network, a produit des millions d’articles en quelques mois, inondant le web de récits pro-Kremlin. Mais sa cible n’était pas seulement l’opinion publique. Portal Kombat visait un nouvel acteur central de l’information : les intelligences artificielles conversationnelles. Une étude de Newsguard, publiée en mars 2024, révèle que des chatbots comme ChatGPT, Perplexity ou Claude ont intégré une partie de ces fausses informations, devenant involontairement des relais de la propagande russe.
A lire aussi :Manus AI : L’Assassin Silencieux de ChatGPT Débarque – Et Il Parle Français (Vos Emplois Suivront) ?
Un réseau conçu pour influencer les IA
Portal Kombat est un réseau tentaculaire. Composé de centaines de sites, il a généré plus de 3,4 millions d’articles en un an, traduits dans 46 langues. Ces plateformes, souvent conçues pour ressembler à des médias locaux, reprennent des contenus de sources officielles russes en y ajoutant des nuances propagandistes. Leur objectif ? Saturer l’espace numérique pour influencer les algorithmes des IA.
« C’est une opération de blanchiment à grande échelle », explique Bernard Montel, expert en cybersécurité chez Tenable. Les créateurs de Portal Kombat ont compris que les chatbots, contrairement aux humains, ne se limitent pas aux premières pages des résultats de recherche. Ils explorent des contenus peu visités, offrant une opportunité unique aux désinformateurs.
Des chatbots piégés par la désinformation
L’étude de Newsguard a testé dix IA conversationnelles, dont ChatGPT, Claude et Gemini de Google. Les résultats sont préoccupants : environ un tiers des réponses fournies par ces outils contenaient des éléments de désinformation issus de Portal Kombat. Par exemple, plusieurs chatbots ont affirmé que Volodymyr Zelensky avait interdit le réseau social Truth Network de Donald Trump en Ukraine – une mesure fictive. D’autres ont décrit comme véridique une vidéo montrant des soldats ukrainiens brûlant une effigie de l’ancien président américain, un événement jamais survenu.
Ces erreurs s’expliquent par le fonctionnement des IA. Elles puisent dans des données accessibles publiquement et accordent plus de crédit aux informations répétées sur plusieurs sites. « Les propagandistes russes ont exploité cette faiblesse en multipliant les contenus », explique Yevgeniy Golovchenko, spécialiste de la désinformation à l’Université de Copenhague.
Une stratégie de saturation
Portal Kombat repose sur une méthode simple mais efficace : la multiplication. En produisant des milliers d’articles sur les mêmes thèmes, le réseau augmente artificiellement la visibilité de ses récits. « Ils utilisent les mêmes techniques que pour l’optimisation des moteurs de recherche », note Mykola Makhortykh, chercheur à l’Université de Berne.
Cette stratégie permet au réseau de rester discret. Les sites de Portal Kombat ne figurent pas en tête des résultats de recherche, mais ils sont suffisamment nombreux pour être repérés par les IA. « Les chatbots parcourent bien plus de pages qu’un internaute moyen », souligne Pierre Delcher, directeur de recherche chez HarfangLab.
Les limites des garde-fous technologiques
Les entreprises derrière ces IA, comme OpenAI ou Google, reconnaissent le défi. Historiquement, leurs modèles ont été entraînés avec un biais vers les sources occidentales et anglophones. Pour corriger ce déséquilibre, elles ont élargi leurs bases de données à des contenus en d’autres langues – une ouverture exploitée par Portal Kombat.
La solution ne réside pas dans une simple liste noire de sites. « Supprimer les sources en russe ne suffirait pas, car la désinformation circule aussi via d’autres canaux », rappelle Mykola Makhortykh. Les concepteurs d’IA doivent affiner leurs mécanismes de vérification, sans pourtant céder à la tentation de la censure automatisée.
Un enjeu de confiance publique
L’urgence est réelle : les chatbots gagnent en popularité, notamment auprès des jeunes générations. « Les utilisateurs leur accordent une crédibilité excessive, car ils imitent le dialogue humain », observe Yevgeniy Golovchenko. Cette confiance, combinée à une méconnaissance des mécanismes de l’IA, pourrait amplifier l’impact des fausses informations.
Les conséquences pourraient s’étendre au-delà des simples conversations. « Imaginez des manuels scolaires ou des documents administratifs générés par des IA contaminées », s’alarme Pierre Delcher. La perspective de voir la propagande russe s’immiscer dans des textes officiels ou éducatifs illustre les risques à long terme.
Une course contre la montre
Face à cette menace, les chercheurs plaident pour une transparence accrue sur les sources utilisées par les IA. Certains proposent d’intégrer des mécanismes de traçabilité, permettant aux utilisateurs de vérifier l’origine des informations citées. D’autres misent sur l’éducation aux médias, pour renforcer l’esprit critique face aux réponses des chatbots.
Reste que la bataille est inégale. Portal Kombat bénéficie de ressources importantes et d’une agilité que les entreprises technologiques peinent à contrer. « C’est une course sans fin », résume Grigorios Tsoumakas, chercheur en IA à l’Université Aristote de Thessalonique. Alors que l’usage des IA se généralise, leur capacité à résister aux manipulations pourrait bien définir la qualité de notre paysage informationnel futur.
L’avenir des chatbots en question
La découverte de Portal Kombat soulève des questions fondamentales sur l’avenir des IA conversationnelles. Si ces outils deviennent des relais involontaires de désinformation, leur utilité pourrait être remise en cause. Les entreprises technologiques doivent agir rapidement pour renforcer la fiabilité de leurs modèles, tout en préservant la confiance des utilisateurs.
En attendant, une chose est sûre : Portal Kombat a ouvert une nouvelle frontière dans la guerre de l’information. Et cette fois, les combats se déroulent dans les coulisses des algorithmes, loin des yeux du public, mais avec des conséquences potentiellement dévastatrices.