IAG - qu'est-ce que c'est ?

Un biais en IAG désigne une tendance systématique à produire certaines réponses ou comportements de manière non neutre. Ces biais proviennent des données d'entraînement, des choix techniques des concepteurs, ou des contextes d'utilisations.

Image générée par IAG - non créditée
Du fait de leur fonctionnement, les IAG produisent des contenus qui sont le reflet du corpus de données avec lequel elles ont été nourries. Ainsi, les sorties générées par une IAG reproduisent les stéréotypes, discriminations ou inégalités qui la nourrissent (surreprésentation de certains groupes sociaux ou culturels, stéréotypes sexistes ou racistes, etc.).
Certains biais ont été rapidement identifiés et faisaient partie des premières critiques lors du lancement des IAG grand public (par exemple les biais de genre type « docteur = homme, infirmière = femme »), et on observe aujourd'hui une plus faible reproduction des stéréotypes issus des données d'entraînement.
La qualité des résultats générés à partir d’un prompt dépend également en grande partie de la quantité de ressources que l’IAG peut exploiter : les résultats sont par exemple de moins en moins qualitatifs à mesure que l’on utilise une langue de moins en moins utilisée ou moins représentée dans les banques de données.
Certains sujets sont volontairement modérés ou censurés selon l’outil utilisé (par exemple, l’IAG chinoise Deepseek ne fournit pas d’informations sur les manifestations de la place Tian’anmen). La plupart des IAG sont paramétrées pour donner des réponses « politiquement correctes » sur les thèmes sensibles, en répétant des formulations stables et consensuelles, mais certaines sont au contraire volontairement "provocantes" en fonction du but recherché par leurs créateurs.
De même, elles peuvent être configurées pour favoriser certaines réponses au détriment d’autres (par exemple, faire sa propre promotion et celle de son groupe). Le risque est alors une manipulation de l’information, qui se présente comme objective alors qu’elle est paramétrée.

Capture d'écran d'un résultat de prompt généré par Grok, l'IAG d'Elon Musk (2025)
Ainsi, lorsque les critiques ont relevé la reproduction de stéréotypes sexistes ou racistes, les sociétés concevant ces modèles ont ajusté leurs réglages pour gommer ces biais. Aujourd’hui, si vous demandez à une IAG de générer l’image d’une personne dirigeant une entreprise, elle proposera presque toujours en premier lieu l’image d’une femme.

La façon d’utiliser l’IAG influe également sur le résultat issu du prompt, soit par la manière de poser la question, soit parce que l’IAG a précédemment été orientée pour répondre d’une certaine manière. Quand on utilise régulièrement une IAG, elle « s’habitue » à l’utilisateur en gardant en mémoire ses préférences, ses habitudes, sa façon de parler, etc. Les contenus générés sont donc issus à la fois des données du corpus mais également des biais même de l’utilisateur.
Une IAG comme ChatgGPT, qui contredit rarement l’utilisateur, va se conformer à ses attentes et peut ainsi renforcer les biais de confirmation (on accepte plus facilement une information quand elle va dans le sens de ce qu’on pense déjà). Les IAG générant des contenus avec une certaine « autorité », le risque est que les utilisateurs non avertis s’enferment dans un modèle de pensée préexistant et se confortent dans des opinions biaisées.
Vous trouverez ici un petit jeu
qui vous permet d'expérimenter les différents biais des IAG. Partez à
la découverte des nuages verts et des nuages indigos et de leurs
préférences... vraiment ? 