Dans un écosystème médiatique où l’intelligence artificielle générative produit désormais des contenus trompeurs d’un réalisme saisissant, la vérification de l’information scientifique ne tolère plus l’approximation. C’est pour répondre à cette urgence que la 13ème Conférence mondiale des journalistes scientifiques, tenue début décembre à Pretoria, a réuni des experts autour d’un objectif clair : armer les rédactions contre la manipulation technologique. Sciences de chez Nous a recueilli les méthodes de combat de deux spécialistes de premier plan, Shakoor Rather, PDG de Science Matters, et Urvashi Kapoor de la Google News Initiative. Voici leur feuille de route pour déconstruire la mécanique du faux.
Avant même le recours au moindre logiciel, la première digue contre la manipulation reste la posture intellectuelle du journaliste. Shakoor Rather théorise cette approche par le concept d’« intuition numérique », un scepticisme musclé qui impose de soumettre tout contenu à un examen critique immédiat. L’essor fulgurant de l’IA permet aujourd’hui de fabriquer des preuves apparentes qui trompent l’œil non averti si l’on fait l’économie d’une observation rigoureuse.
Cette vigilance se traduit par une traque systématique des anomalies visuelles. Le journaliste doit scruter les incohérences d’éclairage, les ombres illogiques ou les déformations subtiles des traits faciaux, souvent trahies par les algorithmes de génération. À cette analyse empirique s’ajoute la vérification technique des métadonnées et le recours impératif à la recherche inversée. Des outils comme Google Reverse Image Search, TinEye ou InVID permettent de remonter le fil temporel d’un visuel pour en isoler l’origine réelle et les contextes d’utilisation antérieurs.
Si la technologie est indispensable, elle n’est pas infaillible. Urvashi Kapoor est formelle : l’intelligence artificielle, aussi sophistiquée soit-elle, ne remplacera jamais le jugement humain. Elle met en garde contre les angles morts de ces outils : certains détecteurs peuvent valider des informations techniquement correctes mais totalement décontextualisées, ou échouer face à des désinformations de haute volée. De plus, l’opacité de certains algorithmes, « boîtes noires » qui ne révèlent pas leur cheminement logique, peut compliquer la tâche de vérification. Pour les deux experts, le consensus est net : l’IA doit rester un assistant technique au service de la décision éditoriale, et non devenir une source unique de vérité.
Arsenal technique et méthodologie comparée
Pour structurer une investigation inattaquable, Shakoor Rather déploie une stratégie opérationnelle en quatre temps. L’analyse débute par la détection de l’intelligence artificielle via des solutions comme GPTZero ou Copyleaks pour les textes, et Hive Moderation ou AI or Not pour les contenus visuels. Vient ensuite le fact-checking pur, qui s’appuie sur ClaimBuster pour isoler les affirmations vérifiables, couplé à la puissance de calcul de Wolfram Alpha pour valider les données scientifiques. La troisième étape, la vérification visuelle, exige des outils forensiques tels que InVID/WeVerify pour la vidéo et FotoForensics pour détecter les manipulations par analyse des niveaux d’erreur (ELA). Enfin, l’authentification des sources se blinde via Whois et DomainTools, tandis que la Wayback Machine permet d’exhumer les contenus modifiés ou supprimés. Ces outils offrent une méthode reproductible, mais seul l’esprit critique permet de lier ces preuves entre elles.
Les défis structurels du journalisme scientifique en Afrique
Sur le continent, l’exercice du métier se heurte à des obstacles spécifiques. Shakoor Rather pointe la manipulation des données comme menace prioritaire : graphiques trompeurs, statistiques sélectionnées sur mesure (cherry-picked) et confusion entretenue entre corrélation et causalité. À cela s’ajoute la prolifération des prépublications (preprints), ces études non validées par les pairs qui brouillent la frontière entre hypothèse de travail et fait scientifique avéré.
Le défi est aussi temporel et politique. Traiter des sujets complexes comme la santé publique ou le climat dans des délais contraints expose au risque d’instrumentalisation. La désinformation sophistiquée, qui mime les codes académiques via de faux processus d’évaluation ou un jargon pseudo-scientifique, rend l’investigation particulièrement ardue. La parade réside dans la constitution de réseaux de conseillers scientifiques fiables et l’élaboration de protocoles de vérification spécialisés.
Protocoles de rigueur et assainissement de l’information
L’application de procédures strictes est la seule garantie de fiabilité. Shakoor Rather impose le « Test des 5 secondes », une grille de lecture instantanée interrogeant l’origine, la date, le but et la traçabilité de la source. Ce test doit être suivi d’un protocole de triangulation : aucune information n’est validée sans la confirmation de trois sources indépendantes hiérarchisées, en privilégiant les revues à comité de lecture. Le journaliste doit rester en alerte face aux signaux faibles, tels que les contenus à forte charge émotionnelle ou les affirmations extraordinaires sans preuves.
Urvashi Kapoor complète ce dispositif par une vigilance accrue sur les faux positifs visuels. Des images simplement compressées peuvent être signalées à tort comme manipulées. Elle recommande de construire une bibliothèque personnelle de sources, de développer sa littératie scientifique et de travailler avec des checklists standardisées. La transparence envers le public devient alors une arme pédagogique : expliquer la méthodologie et les outils utilisés transforme le fact-checking en ressource éducative, permettant au lecteur d’évaluer l’information par lui-même.
Identifier les réseaux d’influence et restaurer la confiance
Au-delà du contenu, c’est l’architecture de la diffusion qui doit être décryptée. L’ancien rédacteur en chef d’INDIAai conseille l’usage d’outils de cartographie comme Botometer ou Gephi pour repérer les comportements inauthentiques coordonnés , tels que les publications en essaim ou les profils récents suspects. La méthodologie exige d’identifier le narratif, de cartographier le réseau et d’analyser le timing de propagation.
En définitive, restaurer la confiance du public passe par une transparence radicale et une valorisation de l’expertise locale africaine. C’est par la combinaison de l’intuition humaine, de la maîtrise des outils de pointe et d’une rigueur méthodologique sans faille que le journaliste scientifique pourra non seulement détecter la désinformation, mais aussi sécuriser l’information à l’ère de l’intelligence artificielle.
••••••••••
Cet article a été écrit par Ruth Kutemba et validé pour publication par Mardochée Boli, directeur de publication de Sciences de chez Nous.
➤ Bien que nous ayons mis en place un processus éditorial robuste et bien rodé, nous ne sommes qu’humains. Si vous repérez des erreurs ou des coquilles dans nos productions, veuillez-nous en informer par courriel à l’adresse : correction@sciencesdecheznous.com.
Pour toutes autres préoccupations
Envoyez-nous un email