Illusions d’optique générées par l’IA : Entre art, divertissement et désinformation
Si elles sont de plus en plus sophistiquées, défiant ainsi la réalité, les images générées par l’intelligence artificielle appellent aussi à la vigilance face à la désinformation.
Sur les réseaux sociaux, de plus en plus d’internautes se sont familiarisés avec des expressions telles que « Fermez légèrement les yeux et dites ce que vous voyez », « Éloignez un peu votre téléphone », ou « Retournez le téléphone ».
Ces intrigantes invites se retrouvent souvent en légende d’images, incitant les utilisateurs à vivre une expérience visuelle captivante.
Le but de la manœuvre, amener l’internaute à découvrir derrière une première image à l’apparence anodine, une autre image cachée qui lui est le plus souvent familière, ou un texte.
Dans cette image largement répandue sur les réseaux sociaux par exemple, alors que l’on y perçoit un décor en pleine nature à première vue, c’est plutôt le visage du footballeur portugais Christiano Ronaldo qui apparaît une fois que l’on ferme légèrement les yeux.
« J’ai été impressionnée, lorsque j’ai découvert le visage du président nigérian Tinubu, lorsque j’ai fermé légèrement mes yeux », s’émerveille pour sa part Leslie AGBO, une utilisatrice de Facebook, devant cette image montrant au premier plan des femmes devant des étalages de vivres.
Ces illusions optiques sont le fruit d’une combinaison fascinante de technologie et d’art.
La magie de la création : L’IA dans sa splendeur
À l’origine de ces créations étonnantes, l’intelligence artificielle (IA) générative, qui a ouvert de nouvelles perspectives pour la création visuelle, repoussant les limites de l’imaginaire humain.
Parmi les applications les plus utilisées à cette fin, DALL-E, Midjourney, Stable Diffusion, et bien d’autres.
Par exemple, sur X, Stable Diffusion partage régulièrement des créations toutes aussi époustouflantes les unes que les autres, comme la photo ci-dessous d’homme et femmes habillés en noir, qui révèle le mot OBEY lorsque l’on recule l’écran ou l’on ferme légèrement les yeux.
step back until you see it… #aiart #sdxl pic.twitter.com/gMDbJnGtk0
— Stable Diffusion 🎨 AI Art (@DiffusionPics) September 18, 2023
Certains de ces outils utilisent des réseaux antagonistes génératifs ou réseaux adverses génératifs (Generative Adversarial Networks — GAN), une technique de machine learning opposant deux réseaux neuronaux : un générateur et un discriminateur. De façon simplifiée, disons que dans le cas d’espèce, une partie de l’application crée l’image tandis que la seconde partie challenge la première en évaluant la qualité de l’image, pour amener cette dernière à créer des images qui se rapprochent de la réalité de manière impressionnante.
En outre, la plupart de ces outils utilisant l’IA générative offrent la possibilité de créer des images à partir de descriptions textuelles. Ils utilisent des modèles de Deep learning pour comprendre les descriptions textuelles fournies par les utilisateurs et générer des images correspondantes en fonction de ces descriptions.
Appelées “prompts”, ces descriptions textuelles sont des consignes que l’utilisateur fournit à l’IA pour la guider et l’amener à lui produire exactement ce qu’il souhaite. Les prompts peuvent varier en détail et en complexité en fonction de la sophistication du modèle et des besoins de l’utilisateur. Ils sont importants pour optimiser l’utilisation des IA.
« Pour utiliser efficacement les IA et exploiter leur plein potentiel, la maitrise des prompts est capitale. Des filières de prompt engineering (en français, ingénierie des prompts) se sont récemment développées, pour former des experts en conception de prompts capables de dompter les IA », précise Fawaz TAÏROU, Expert en Applications Informatiques, pour souligner l’importance des prompts.
Dans le cas d’espèce, il faut reconnaître que les internautes ne manquent pas d’ingéniosité ni de créativité pour élaborer ces images paréidoliques et ambogües ou réversibles.
Image paréidolique vs. image ambigüe : Distinguer l’illusion de la transformation
Notons que les images paréidoliques sont des créations visuelles qui cachent des détails familiers, tels que des visages, des animaux ou des objets, au sein de scènes ordinaires. Pour les déceler, il faut observer attentivement l’image. Par exemple, une simple photo de nuages peut révéler un animal ou un visage souriant si on la regarde de près.
En revanche, les images réversibles encore appelées images ambigües sont des œuvres d’art qui subissent une transformation radicale lorsqu’on les observe sous un angle différent ou qu’on les retourne. Elles dissimulent deux images distinctes dans une seule composition. L’une des plus célèbres est le canard-lapin, un dessin d’un auteur inconnu qui date du 19e siècle.
Attention à la désinformation : Quand l’art devient un outil de manipulation
Cependant, au-delà de l’aspect ludique de ces créations, il est essentiel de rappeler l’importance de la vigilance face à la désinformation. Alors que de nombreux utilisateurs explorent ces nouvelles possibilités artistiques, d’autres n’hésitent pas à détourner ces images pour manipuler l’opinion publique.
« Avec l’IA, la désinformation devient de plus en plus sophistiquée. Nous devons rester vigilants face aux images générées par l’IA pour ne pas tomber dans le piège de la manipulation », met en garde Moses JIBI, Rédacteur en Chef Adjoint à 211Check, une initiative de vérification des faits au Soudan du Sud.
Cette photo partagée sur Facebook est un exempla frappant de cette désinformation. La photo montre en premier plan, une ruelle inondée et jonchée d’ordures, bordée de constructions dans un état de délabrement avancé. Et lorsqu’on ferme légèrement les yeux, l’image révèle le visage du Président du Brésil, Lula da Silva.
À travers sa publication, l’auteur tente de faire croire que cette image en réalité générée par l’IA reflète la pauvreté et la misère réelle au Brésil, une manipulation trompeuse visant à susciter l’émotion et à induire en erreur les internautes, les poussant à partager de fausses informations.
Avec la même photo, un autre internaute suivi par quelque 228 mille abonnés sur Facebook, entend informer sa communauté qu’il s’agit de la “science mutationnelle” — Oui, je me pose la même question que vous. À la vérité, c’est un concept qui n’existe pas.
Une analyse forensique de l’image avec l’outil InVid révèle des évidences triviales notamment au niveau de la quantification double et de la transformation de cosinus discrète, soulignant que la photo de Lula da Silva a été rajoutée à une image initiale.
Par ailleurs, grâce à une recherche d’image inversée sur TineEye, on découvre que la photo a été originellement postée sur Pikabu, un blog russe. La photo est également retrouvée sur X, où des internautes ont précisé qu’il s’agit d’une image générée par l’IA.
Notons enfin que des outils de détection d’images générées par l’IA, tels que SynthID de Google DeepMind — encore en phase de test et actuellement disponible aux États-Unis, FotoForensics, InVid, ou encore Hive Moderation, permettent de rapidement démasquer de telles supercheries. Ces technologies peuvent identifier les caractéristiques distinctes des images générées par l’IA et ainsi contribuer à prévenir la propagation de la désinformation.
••••••
Cet article a été rédigé par Bilal TAÏROU et approuvé pour publication par la rédactrice en chef de Sciences de chez Nous, Fatimatou Diallo.
➤ Bien que nous ayons mis en place un processus éditorial robuste et bien rodé, nous ne sommes qu’humains. Si vous repérez des erreurs ou des coquilles dans nos productions, veuillez-nous en informer par courriel à l’adresse : correction@sciencesdecheznous.com.