À l’ère de l’IA générative, distinguer une vraie photo d’une image créée artificiellement devient un enjeu majeur. Banana 3, l’IA de Google vient de sortir, et le niveau de détail est de plus en plus précis et réaliste. Entre métadonnées invisibles, empreintes techniques et outils de vérification. On fait le point pour que vous puissiez savoir si une image provient d’une intelligence artificielle.
De puissants modèles comme DALL·E (OpenAI), Midjourney, Stable Diffusion, Adobe Firefly ou des systèmes plus spécialisés rendent possibles des créations visuelles impressionnantes. Paysages imaginaires, personnages fictifs, compositions hyperréalistes. Ces IA sont entraînées sur des milliards d’images. Apprennent des motifs, des textures, des couleurs, puis génèrent du nouveau contenu à partir d’un simple “prompt” (commande texte), ou en modifiant des images existantes. Mais comment, si une personne veut diffuser une fake news via une fausse image, savoir si elle est générée par IA.
Nano Banana vs Nano Banana Pro
— sid (@immasiddx) November 23, 2025
It is so over. 💀 pic.twitter.com/158OfS27xu
La traçabilité
Quelques systèmes utilisent aussi des techniques propres pour signaler leur provenance : OpenAI, par exemple, ajoute des métadonnées de Content Credentials selon la norme C2PA, permettant une sorte de traçabilité de l’image. Google, de son côté, a mis au point un SynthID, un watermark invisible que seules certaines IA peuvent détecter. Ces techniques visent à renforcer la transparence, mais elles ont leurs limites : elles ne sont pas universelles, peuvent être supprimées, et leur adoption reste partielle.
Il existe un viewer libre en ligne (C2PA Viewer). Vous y téléchargez votre image (sans l’envoyer à un serveur), et le site vous montre tout le manifeste C2PA intégré.
Les indices visuels
Même sans recourir à des outils complexes, votre intuition visuelle peut jouer un rôle central. Des experts soulignent que certaines anomalies persistent dans les images de synthèse. Les mains sont particulièrement révélatrices. Elles peuvent comporter un nombre de doigts incorrect, des formes bizarres ou des transparences.
Le texte présent dans une image peut aussi poser un problème. Lorsqu’une IA tente donc de dessiner des panneaux, des enseignes ou des inscriptions, les mots générés peuvent être déformés. Ils sont illisibles, ou comportent des symboles sans signification. Cette difficulté typographique est encore plus fréquente dans les visuels générés par Midjourney ou des modèles similaires.
Un autre indicateur utile tient à la lumière et aux ombres. Parfois, les reflets ou les zones d’ombres ne suivent pas une logique physique réaliste. Les IA peinent parfois ainsi à reproduire la cohérence géométrique de la lumière. Ce qui peut donc créer des rendus étranges, voire surréalistes.
Enfin, les textures d’une image peuvent être suspectes si elles sont trop lisses. Mais aussi parfaitement régulières ou manifestent des répétitions de motifs, ce qui peut indiquer une génération artificielle.
À lire aussi : Comment notre manière de consommer les médias se transforme avec les fonctionnalités en ligne en temps réel ?
Les outils en ligne pour vérifier une image
Pour les utilisateurs curieux, il existe des services accessibles qui permettent de vérifier si une image peut avoir été générée par une IA. Parmi eux figure Undetectable AI, qui analyse les motifs, les textures et les formes. Elle calcule un “score de confiance” indiquant la probabilité qu’une image soit synthétique.
Liste de sites pour détecter des images :
D’autres solutions plus avancées, utilisées par des chercheurs ou des spécialistes de la vérification d’images, reposent sur la forensique numérique. Par exemple, certaines études exploitent des signatures de réseaux adversaires (GAN) : chaque générateur laisse, selon les modèles, une sorte d’empreinte dans les fréquences de l’image. Des chercheurs ont mis au point des moyens d’analyser ces empreintes en transformant l’image dans le domaine fréquentiel, puis en appliquant des réseaux neuronaux pour distinguer les visuels “réels” des visuels générés par des GAN.
D’autres approches s’appuient sur les “traces convolutionnelles” laissées par le processus de génération : des algorithmes analysent les couches de convolution qui ont servi à construire l’image afin de détecter des anomalies ou des structures typiques des IA.