top of page

Anomalies, curiosités et dérapages
dans l’imagerie générative

L’intelligence artificielle s’impose aujourd’hui comme une nouvelle révolution dans la production d’images numériques, ouvrant de nouvelles perspectives aux artistes et créateurs visuels. Capable de générer des visuels d’une précision et d’une diversité esthétique remarquable, elle repousse notamment les frontières du réalisme photographique. En bouleversant notre rapport à l’image, elle interroge aussi la notion d’authenticité et alimente des débats sur la véracité et la manipulation visuelle.

Mais derrière cette apparente facilité à produire des images convaincantes, se cache une réalité plus complexe. Obtenir un résultat conforme à son intention exige souvent de nombreuses itérations de la part de l’auteur, et entre chaque génération "réussie", s’accumulent un flot d’images étranges, ratées ou inattendues. Ce que l’IA produit ne correspond pas toujours aux attentes de son utilisateur, et certaines anomalies récurrentes interrogent autant qu’elles fascinent.

Confrontée moi-même à ces anomalies lors de mes explorations en imagerie générative, il me semble important d’en parler. Car si ces images demeurent souvent enfouies dans les archives de leurs auteurs, elles révèlent quelque chose d’essentiel sur le fonctionnement même de ces technologies : leurs limites, leurs biais, mais aussi leur aspect énigmatique et plus sombre.

Pourquoi l’IA génère-t-elle des images étranges ou incohérentes ?

Contrairement à l’être humain, qui perçoit une image dans son ensemble et comprend intuitivement les relations entre les formes, l’IA repose sur une analyse statistique des pixels et des motifs qu’elle a appris à reconnaître dans son immense base de données. Elle ne "comprend" pas l’anatomie, la perspective ou la logique spatiale comme nous le faisons : elle les reproduit en fonction de corrélations qu’elle établit dans ses apprentissages.

Bien que les outils ne cessent d’être améliorés, les imperfections sont encore fréquemment présentes dans le processus de l’imagerie générative. Des erreurs anatomiques comme des mains avec trop de doigts, des visages asymétriques, des postures impossibles surviennent lorsque la machine tente d’assembler des fragments d’informations visuelles sans réelle compréhension des particularités physiques d’un corps.

D’autres incohérences, plus troublantes, peuvent émerger. Il arrive que des figures humaines soient générées dans des positions évoquant le meurtre, l’agonie, la chute ou la désarticulation, même si aucun élément du prompt ne semblait aller dans ce sens. 

Si l’on replace ces déformations dans l’histoire de l’art, elles rappellent les tâtonnements des artistes à travers les siècles. Du Moyen Âge, où la perspective n’était pas encore maîtrisée et où les corps répondaient davantage à des conventions symboliques qu’à un souci de réalisme, jusqu’aux anamorphoses de la Renaissance ou aux déformations volontaires du cubisme ou du surréalisme, chaque époque a produit ses propres formes de distorsion.

Cependant, là où l’humain cherchait souvent à dissimuler ses maladresses ou à s’affranchir des règles par un choix esthétique conscient, l’IA, elle, semble amplifier ses erreurs, comme si ces distorsions faisaient partie intégrante de son langage visuel. Pourquoi ces motifs apparaissent-ils ? Est-ce un simple accident statistique ou le reflet d’une tendance plus profonde dans les ensembles de données qui ont servi à entraîner ces modèles?

 

 

 

 

 

 

 

Quand la machine semble "déborder"

​​

Malgré les mécanismes de censure et de modération intégrés dans des modèles comme MidJourney ou DALL·E, certaines images troublantes continuent d’apparaître. Des scènes insolites, des compositions évoquant l’horreur ou l’absurde, des atmosphères sombres, ou surréalistes s’imposent indépendamment des intentions de l’auteur.

Ces "dérapages" ne sont pas le signe d’une volonté propre de l’IA mais plutôt la conséquence de plusieurs phénomènes , soit :

On pourrait faire un parallèle avec l’histoire des erreurs et des maladresses en art : à la différence près que l’IA ne "corrige" pas ses écarts comme l’aurait fait un peintre de la Renaissance, conscient de ses propres approximations. Elle produit, accumule et amplifie ces anomalies dans une logique où l’intention esthétique lui échappe.

Que nous disent ces anomalies sur les données de notre humanité ?

Derrière l'idéalisme apparent des images génératives et leur vocation à séduire ou à divertir, se cache une autre facette moins exposée et plus confidentielle. Ces anomalies récurrentes — visages distordus, postures grotesques, atmosphères angoissantes — semblent révéler une vérité plus trouble : l’état de nos données. Au-delà des perfectionnements visuels, ce qui se joue ici n’est pas seulement une question d'erreurs algorithmiques, mais un miroir des fractures présentes dans les vastes amas de données numériques qui alimentent l’IA.

Si l'IA est nourrie par nos images, nos mots, nos comportements partagés, il est légitime de s'interroger sur ce qu'elles révèlent de nous. Ces déformations, ces excès d'ombre, de distorsion, sont-elles les témoins d'un monde digital dans lequel les failles, les biais et les tensions sont omniprésents ? Dans l’excès de données collectées et partagées, l’IA semble parfois capturer les zones d’ombre et les angoisses qui traversent nos sociétés. Ce qui pouvait sembler un outil de création idéal se transforme ainsi en une surface sensible où se projettent, peut-être sans le vouloir, les préoccupations, les déséquilibres et les dérives de notre époque.

Ces anomalies ne sont pas simplement des erreurs : elles sont des symptômes d'une époque qui se nourrit de ses propres excès d'informations, de sa production de données incessante et souvent déconnectée des réalités humaines. Elles nous rappellent qu'au-delà du plaisir esthétique ou de la curiosité intellectuelle que suscite l’IA, ces images sont aussi porteuses d’une autre vérité, plus cachée, plus perturbante. Elles sont un miroir de notre humanité, dans sa complexité et ses contradictions.

Que faire de ces failles ?

Plutôt que de voir ces imperfections comme de simples ratés, elles peuvent être envisagées comme une approche esthétique en soi. Elles offrent un terrain d’exploration pour questionner la manière dont la machine construit une image, comment elle 'perçoit' notre monde et ce que nous considérons comme des anomalies : que disent-elles de notre propre regard et de notre rapport à l’autocensure ? Autrement dit, que refusons-nous de voir de nous même dans les distorsions et les dérives que l’IA nous donne à voir ? 

Plutôt que d’être reléguées à l’invisible, ces anomalies pourraient être envisagées comme des indices, des fragments d’une mémoire numérique qui échappent à notre contrôle. Pour les artistes et les chercheurs, elles ouvrent un espace de réflexion et d’expérimentation, permettant d’interroger ce que l’IA révèle, malgré elle, de notre manière d’archiver, de classer et de hiérarchiser les représentations du monde. Ainsi, elles ne sont pas seulement des accidents, mais peut-être des traces significatives d’une imagerie collective en mutation.

Un exemple d'une scène de violence avec des anomalies,  non conforme aux  attentes, générée dans le cadre de
la production de la série Les Progrès  © Justine Van den Driessche
© Justine Van den Driessche, tous droits réservés, 2024-2025
bottom of page