IAG - qu'est-ce que c'est ?

Site: Appui à la Professionnalisation de l’Enseignement Supérieur au Tchad
Cours: Intelligences artificielles génératives - Cours d’Émilie Leroy, ENS Lyon
Livre: IAG - qu'est-ce que c'est ?
Imprimé par: Visiteur anonyme
Date: lundi 16 mars 2026, 03:06


Depuis 2022, l'intelligence artificielle générative (IAG) est présente à peu près partout : articles de presse, réseaux sociaux, émissions, podcasts... il semble que tout le monde parle des IA, utilise les IA et/ou questionne les usages de l'IA. À L'automne 2025, l'agence Graphite publie une étude qui montre que désormais, le contenu "internet" anglophone est généré à plus de la moitié par des intelligences artificielles.


@Graphite - More Articles Are Now Created by AI Than Humans


L'irruption soudaine et massive de ces technologies, avec un accès grand public immédiat (contrairement à d'autres technologies numériques précédentes, il n'y a a priori pas besoin de compétences spécifiques pour utiliser une intelligence artificielle générative) a des conséquences inévitables sur de nombreux aspects de la "vie numérique", et plus spécifiquement dans notre cas sur la façon dont on doit prendre en compte ces technologies dans sa pratique enseignante. 

Dans ce premier module, nous allons voir ce que sont les intelligences artificielles génératives, les biais présents dans les contenus qu'elles génèrent, ainsi que les implications éthiques et juridiques de leur utilisation. 


L'Intelligence Artificielle Générative (IAG) est une technologie d’intelligence artificielle capable de produire divers types de contenus tels que du texte, de l'audio, des images ou tout autre média en réponse à une demande.

Les IAG utilisent généralement des modèles d’apprentissage profond qui sont entraînés sur de très grandes quantités de données pour apprendre des schémas, des styles et des relations. À partir d’une entrée (prompt ou invite), elles produisent une sortie générée (output) en se basant sur les connaissances et les modèles appris à travers un grand modèle de langage (LLM).


@Ed Hall - Cartooning for Peace


Quand vous entrez un prompt, l’IAG va calculer la suite la plus probable en fonction de ce qu’elle a accumulé via les données qui l’ont nourrie. L’IAG ne comprend pas le sens des mots ou des images qu’elle génère, elle se base uniquement sur des probabilités apprises. C’est d’ailleurs pour cela que l’IAG peut générer des suites de mots sans aucun sens, des erreurs ou des « hallucinations » (invention d’informations fausses présentées pourtant comme crédibles, par exemple l’invention d’un livre ou d’un article qui n’existe pas).

Certaines IAG sont dites « multimodales », c’est-à-dire qu’elles peuvent analyser et/ou générer différents types de médias (texte et image par exemple) quand d’autres sont plus spécifiques à une sorte de média (audio, code).

Vous pouvez retrouver sur le site de l'Université Numérique une explication plus complète du fonctionnement global des IAG. 


L’intelligence artificielle, ou IA, désigne l’ensemble des technologies qui permettent à une machine de simuler certaines capacités humaines comme l’analyse, la reconnaissance d’images ou la prédiction de résultats. Elle se contente souvent de traiter ou d’interpréter des données. 

L’intelligence artificielle générative, ou IAG, est une branche spécifique de l’IA qui va plus loin : elle produit du contenu « nouveau ». Cela signifie qu’elle peut écrire un texte, générer une image, composer de la musique ou créer une vidéo à partir d’une consigne. Autrement dit, l’IA analyse, tandis que l’IAG "crée". Toute IAG est une forme d’IA, mais toutes les IA ne sont pas génératives.


@Image générée par ChatGPT 5.1 - 2025


La RAG (pour Retrieval-Augmented Generation ou Génération augmentée de récupération) est une technique qui va combiner un modèle de langage et un modèle de récupération de données qui peut aller puiser dans une base d’informations privée ou propriétaire. Plus simplement, c’est une IAG qui se nourrit en priorité des données spécifiques que vous lui proposez pour élaborer ses réponses à vos prompts. 

Cela peut être très utile dans le cadre de vos cours, car vous pouvez générer des réponses d’IAG qui seront contextualisées avec vos propres ressources et vos besoin spécifiques. Les informations que vous souhaitez utiliser peuvent être de toutes sortes (audio, vidéo, site internet, documents texte, images, etc.).


Un biais en IAG désigne une tendance systématique à produire certaines réponses ou comportements de manière non neutre. Ces biais proviennent des données d'entraînement, des choix techniques des concepteurs, ou des contextes d'utilisations.


Image générée par IAG - non créditée

Du fait de leur fonctionnement, les IAG produisent des contenus qui sont le reflet du corpus de données avec lequel elles ont été nourries. Ainsi, les sorties générées par une IAG reproduisent les stéréotypes, discriminations ou inégalités qui la nourrissent (surreprésentation de certains groupes sociaux ou culturels, stéréotypes sexistes ou racistes, etc.).

Certains biais ont été rapidement identifiés et faisaient partie des premières critiques lors du lancement des IAG grand public (par exemple les biais de genre type « docteur = homme, infirmière = femme »), et on observe aujourd'hui une plus faible reproduction des stéréotypes issus des données d'entraînement. 

La qualité des résultats générés à partir d’un prompt dépend également en grande partie de la quantité de ressources que l’IAG peut exploiter : les résultats sont par exemple de moins en moins qualitatifs à mesure que l’on utilise une langue de moins en moins utilisée ou moins représentée dans les banques de données. 

Certains sujets sont volontairement modérés ou censurés selon l’outil utilisé (par exemple, l’IAG chinoise Deepseek ne fournit pas d’informations sur les manifestations de la place Tian’anmen). La plupart des IAG sont paramétrées pour donner des réponses « politiquement correctes » sur les thèmes sensibles, en répétant des formulations stables et consensuelles, mais certaines sont au contraire volontairement "provocantes" en fonction du but recherché par leurs créateurs. 

De même, elles peuvent être configurées pour favoriser certaines réponses au détriment d’autres (par exemple, faire sa propre promotion et celle de son groupe). Le risque est alors une manipulation de l’information, qui se présente comme objective alors qu’elle est paramétrée. 


Capture d'écran d'un résultat de prompt généré par Grok, l'IAG d'Elon Musk (2025)


Ainsi, lorsque les critiques ont relevé la reproduction de stéréotypes sexistes ou racistes, les sociétés concevant ces modèles ont ajusté leurs réglages pour gommer ces biais. Aujourd’hui, si vous demandez à une IAG de générer l’image d’une personne dirigeant une entreprise, elle proposera presque toujours en premier lieu l’image d’une femme.


La façon d’utiliser l’IAG influe également sur le résultat issu du prompt, soit par la manière de poser la question, soit parce que l’IAG a précédemment été orientée pour répondre d’une certaine manière. Quand on utilise régulièrement une IAG, elle « s’habitue » à l’utilisateur en gardant en mémoire ses préférences, ses habitudes, sa façon de parler, etc. Les contenus générés sont donc issus à la fois des données du corpus mais également des biais même de l’utilisateur. 

Une IAG comme ChatgGPT, qui contredit rarement l’utilisateur, va se conformer à ses attentes et peut ainsi renforcer les biais de confirmation (on accepte plus facilement une information quand elle va dans le sens de ce qu’on pense déjà). Les IAG générant des contenus avec une certaine « autorité », le risque est que les utilisateurs non avertis s’enferment dans un modèle de pensée préexistant et se confortent dans des opinions biaisées.

Vous trouverez ici un petit jeu qui vous permet d'expérimenter les différents biais des IAG. Partez à la découverte des nuages verts et des nuages indigos et de leurs préférences... vraiment ? 

https://apes-tchad.org/pluginfile.php/1455/mod_hvp/content/46/images/file-6909b89a321a7.png

La réglementation autour des IAG est encore en débat, reste très complexe, et dépend du pays. En 2024, l’Union européenne a adopté un IA Act  qui interdit notamment les IA classées comme présentant un « risque inacceptable » (système de notations sociale, catégorisation biométrique, base de données de reconnaissance faciale, etc.) et qui impose un certain nombre de contraintes pour les IA dites « à usage général » (GPAI) comme les IAG : respect de la directive sur le droit d'auteur, rédaction de la documentation technique, résumé détaillé du contenu utilisé pour la formation du modèle, etc.


Pyramide des risques - IA Act 

Le concept d’éthique dans l’utilisation des IAG regroupe plusieurs facettes, qu’il faut prendre en compte et intégrer à sa réflexion et dans son choix d’en utiliser une, ou plusieurs, lesquelles, la fréquence d’utilisation, etc. ou son « boycott » (c’est bien sûr possible !).

Tout d’abord, il y a le coût énergétique et, par extension, écologique, de l’utilisation d’une IAG. De nombreux chiffres circulent quant à la consommation liée aux prompts (et, souvent, en comparaison avec une requête sur moteur de recherche équivalente), mais en moyenne il est estimé qu’un prompt envoyé à une IAG consomme environ 6 fois plus d’électricité pour générer une réponse qu’une recherche Google classique et que générer une image en HD consomme autant d’électricité que la recharge complète d’un téléphone portable (source : DRANE de Versailles).  De plus, l’entraînement des IAG consomme énormément de ressources, en énergie et en eau, sans compter les matières premières et le stockage des données. 

Ensuite, il y a l’impact social de la multiplication de ces intelligences artificielles. On peut alors penser à l’exploitation humaine résultant à la fois de l’extraction des matières premières nécessaires à la fabrication des composants informatiques qui supportent les IA (les mines de cobalt sont notamment pointées du doigt pour employer des enfants) et des travailleurs précaires de pays en voie de développement qui sont chargés de l’entraînement des modèles. Par ailleurs, les IAG auront un impact sur les emplois, et les inégalités d’accès qui existent déjà aujourd’hui ne font que se renforcer à mesure que les IAG se déploient, augmentant d’autant la fracture numérique importante entre les pays « numériques » et les autres.

Enfin, on peut également penser à l’aspect moral de l’utilisation des IAG. De nombreuses sources « aspirées » dans les modèles pour les entraîner sont des productions pour lesquelles les auteurs n’ont pas été consultés et dont les travaux ont été intégrés aux corpus de données sans leur autorisation. 

Les systèmes d’IAG ne peuvent pas être titulaires de droits d’auteur, car le droit d’auteur suppose une création par un être humain. Si l’utilisateur donne des instructions simples ("génère une image d’un chat"), le résultat est souvent considéré comme non protégeable, car l’apport créatif humain est minimal. En revanche, si l’utilisateur intervient de manière créative (choix précis du style, modification manuelle du résultat, processus itératif complexe), il peut revendiquer un droit d’auteur, en tant que co-auteur ou auteur principal.

Illustration générée par IA - source inconnue

Dans un souci de transparence, il est important de signifier clairement lorsque des IAG ont été utilisées dans la production d’un document, cela permet d’éviter tout soupçon de plagiat ou de malhonnêteté intellectuelle. 

Il existe désormais des manières reconnues de citer une IAG, en fonction du style bibliographique utilisé. Ces modèles peuvent encore évoluer, mais pour le moment certaines normes bibliographiques ont publié leurs recommandations. Par exemple, en norme APA (7e éd.), on indiquera : 

Il est recommandé de mentionner la date d'interaction, la version du modèle utilisée (si connue), et de préciser le type de requête. En complément, il est bon de décrire brièvement dans l’introduction ou la méthodologie comment l’IAG a été utilisée : pour reformuler, générer des idées, traduire, résumer, etc. Cela contribue à une posture de transparence et de réflexion critique, essentielle dans un contexte académique.

En tant qu’enseignant, il est important de clarifier vos attentes auprès des étudiants dans leur utilisation des IAG : ce que vous considérez comme acceptable ou non, comment vous vous attendez à être avertis de l’utilisation des IAG dans un devoir, etc.


Il existe depuis 2022 un nombre croissant (et exponentiel) d'Intelligences Artificielles Génératives. Il existe des IAG "généralistes" qui peuvent générer différents médias comme du texte, des images, du code, etc., mais il existe aussi des IAG plus spécialisées qui peuvent répondre à des besoins plus précis. 

Image générée par ChatGPT - Décembre 2025


Vous pouvez trouver un peu partout des banques de liens qui listent les IAG présentes sur le marché en fonction de vos usages : 





Nous avons vu dans ce module que les IAG, loin d'être intelligentes, étaient en fait des outils qui permettaient de générer des contenus de différents types en calculant des suites de caractères, de mots ou de pixels probables pour simuler un langage ou un dessin ressemblant à ce qu'un être humain pourrait produire. De ce constat initial, nous avons pu identifier les biais inhérents aux IAG, ainsi que les différents impacts réglementaires et éthiques des utilisations des IAG. 

Dans le prochain module, et avant de voir concrètement comment utiliser les IAG dans l'enseignement, nous allons recenser les différentes limites, les risques ainsi que les bonnes pratiques à intégrer quand on projette d'utiliser des outils d'IAG.