La photo d’illustration de cet article a été générée par Gemini avec le prompt : « Peux-tu générer une photo réaliste au format 4/3 représentant un petit groupe de quelques personnes. » Il s'agit de la première image générée, sans tri ni sélection.

Si vous avez déjà généré des images avec une IA comme Midjourney, DALL·E ou Stable Diffusion, vous avez sûrement remarqué une tendance récurrente : les visages sont souvent jeunes, très beaux, avec des traits européens, des peaux parfaites et une symétrie irréaliste. Ce phénomène n’est pas une coïncidence. Il reflète à la fois les biais des données d'entraînement et les normes culturelles dominantes que ces modèles reproduisent.

Les images générées reflètent ce que l’IA “pense” être la norme esthétique, en fonction de l’ensemble des données sur lesquelles elle a été entraînée. Or, ces bases de données sont très largement peuplées d’images occidentales, blanches et “instagrammables”. Résultat : l’IA reproduit une vision biaisée de l’humanité.

Des bases de données biaisées dès le départ

Les modèles de génération d’images par IA s’appuient sur d’immenses corpus d’images collectées sur internet. Ces images proviennent de banques libres de droits, de réseaux sociaux, de sites grand public, et parfois de corpus moins identifiables. Ces bases ne sont pas représentatives de la diversité du monde réel : elles surreprésentent les personnes blanches, jeunes et minces, notamment dans des situations valorisantes.

Une étude du MIT publiée en 2021 avait déjà mis en évidence ces biais dans les IA de reconnaissance faciale. Les personnes non blanches, et surtout les femmes noires, y étaient systématiquement moins bien reconnues. Le même problème se retrouve dans la génération d’images : si l’on demande à une IA de créer “une personne attirante”, il y a de fortes chances qu’elle génère une femme blanche au physique de mannequin.

Quand la beauté devient une norme algorithmique

Les IA ne font pas que reproduire des images, elles synthétisent ce qu’elles “comprennent” de concepts comme “beauté”, “normalité” ou “humanité”. Et comme elles ont été entraînées sur des millions d’images correspondant à une vision très formatée de ces notions, elles tendent à imposer cette vision comme standard.

C’est ainsi qu’émergent des profils homogènes : des hommes et femmes jeunes, blancs, avec des corps minces et musclés, rarement handicapés, jamais âgés, toujours dans des contextes sociaux valorisés. Ce qui est montré comme “générique” est en fait extrêmement spécifique.

Des conséquences bien réelles

Ce biais esthétique n’est pas anodin. Il renforce des standards de beauté déjà très présents dans les médias et peut invisibiliser encore davantage certaines populations. Les minorités ethniques, les personnes âgées, en situation de handicap ou en surpoids sont moins souvent générées, et donc moins visibles dans l’imaginaire collectif construit par ces nouvelles technologies.

Cela a un impact sur la représentation, sur l’estime de soi et sur la diversité perçue dans les contenus numériques, d’autant plus à l’ère où les images IA envahissent la publicité, les réseaux sociaux, les médias et même les œuvres artistiques.

Vers des IA plus inclusives ?

Les grandes entreprises du secteur affirment être conscientes du problème. OpenAI (créateur de DALL·E) ou Stability AI (Stable Diffusion) disent travailler à améliorer la représentativité dans leurs modèles. Des solutions sont déjà en cours de développement, comme des datasets plus diversifiés ou la possibilité de contrôler plus précisément les caractéristiques ethniques ou corporelles dans les prompts.

Certaines IA “open source” intègrent aussi des outils pour équilibrer la représentation. Mais tant que les corpus initiaux resteront déséquilibrés et que la demande des utilisateurs favorisera certains types de visages, le biais risque de persister.

Un miroir déformant de nos préférences collectives

L’IA générative ne crée pas à partir de rien. Elle synthétise ce qu’elle a appris de l’humain… et en cela, elle nous tend un miroir. Si ce miroir reflète une vision limitée de la beauté ou de la diversité, c’est aussi parce qu’il s’appuie sur les images que nous produisons, que nous partageons, et que nous valorisons en ligne.

En somme, le problème ne vient pas uniquement de l’IA : il vient aussi de la société qui l’a nourrie. L’IA amplifie des tendances déjà présentes, et peut involontairement participer à leur renforcement.