Comme son nom l'indique, le risque dans l'utilisation des IAG définit un danger, plus ou moins prévisible, qui est probable ou possible. Il s'agit donc ici de répertorier les effets nocifs potentiels, à court ou moyen terme, d'un usage systématique ou régulier des IAG dans sa pratique numérique quotidienne.
Le but ici n'est pas d'être alarmiste ni prophétique, mais de mettre en lumière des points d'attention à garder à l'esprit lorsque l'on fait une utilisation récurrente des outils d'intelligence artificielle générative.

Il y a quelques mois, en juin 2025, une pré-étude portée notamment par des chercheurs du MIT a été largement diffusée et commentée. En substance, cette étude (réalisée sur un panel réduit de 54 participants) montre que l'utilisation de ChatGPT dans l'écriture d'un essai réduit l'engagement cognitif (ainsi, par ailleurs, que le sentiment de "posséder" son travail) et, pire, que l'utilisation répétée d'un outil d'IAG amène à une "dette cognitive" qui ne permet pas de revenir à un niveau d'engagement cognitif "normal", même lorsque l'on n'utilise plus cet outil. Évidemment, ces conclusions ont été largement reprises et simplifiées (voire franchement contrefaites) et présentées comme preuve que les IAG rendraient bêtes, paresseux et amnésiques.
Sans aller jusque dans la caricature, cette pré-étude vient néanmoins pointer l'un des risques les plus « évidents » lorsque l’on parle des IAG : si on utilise les intelligences artificielles génératives pour tout, on ne saura presque plus rien faire. Les mêmes craintes peuvent être appliquées dans d’autres domaines : la calculatrice présente sur les smartphones ferait baisser le niveau en calcul mental, le correcteur orthographique intégré dans tout environnement numérique ferait baisser le niveau en grammaire et orthographe, etc.

La dépendance à l’outil renvoie au risque que l’utilisateur s’appuie excessivement sur l’IAG pour produire analyses, contenus ou synthèses, au point de réduire son propre engagement cognitif et critique. Cette dépendance peut s’installer progressivement, car l’outil offre rapidité et confort, donnant l’illusion de fiabilité et de compétence immédiate. Elle devient problématique dès lors que l’utilisateur cesse de vérifier les informations, de confronter différentes sources ou de mobiliser ses propres savoirs et méthodes d’analyse, transférant à la machine une partie de la responsabilité intellectuelle qu’il devrait conserver.
Ce risque est particulièrement sensible dans un contexte académique, car il peut affaiblir la qualité des productions et la capacité à enseigner, analyser ou évaluer de manière autonome. Il peut également favoriser une homogénéisation des contenus, puisque l’IAG tend à produire des réponses standardisées basées sur ses corpus, réduisant la diversité des points de vue et la créativité conceptuelle.
- Exemple
Un étudiant qui utilise systématiquement l’IAG pour rédiger des synthèses bibliographiques peut progressivement se désengager de la lecture critique des articles originaux, acceptant les résumés proposés comme représentatifs sans vérifier leur exactitude ni leurs nuances.

La fuite de données personnelles désigne le risque que des informations sensibles, transmises à l’IAG, soient stockées, analysées ou potentiellement accessibles par des tiers, en raison du fonctionnement des serveurs ou des protocoles utilisés par le fournisseur de l’outil. Ce risque n’est pas lié à une intention malveillante mais à la manière dont les données sont traitées et conservées : même des informations partagées dans un cadre pédagogique ou de recherche peuvent être enregistrées, utilisées pour améliorer le modèle, ou, dans certains contextes, exposées à des vulnérabilités. L’utilisateur peut ainsi divulguer sans le savoir des éléments confidentiels ou protégés, ce qui peut avoir des conséquences juridiques, éthiques ou professionnelles.
Il s’agit d’un risque majeur car il concerne à la fois la protection des individus et la responsabilité de l’enseignant-chercheur. Les données des étudiants, les résultats d’expérimentations ou les informations internes à un projet peuvent être traitées par l’IAG de manière qui échappe au contrôle de l’utilisateur. La confiance dans l’outil ne doit donc pas remplacer les précautions nécessaires en matière de confidentialité et de conformité réglementaire.
- Exemple
Lors de la correction de travaux, un enseignant pourrait copier-coller des extraits de devoirs dans l’IAG pour générer des commentaires ou des synthèses. Si ces extraits contiennent des données personnelles identifiables (nom, numéro étudiant, contenu sensible), elles peuvent être conservées par le service de l’outil et exposées à des tiers ou utilisées dans un futur entraînement du modèle, créant une violation involontaire de la confidentialité des étudiants.

Le plagiat correspond à la possibilité que le contenu généré par une IAG reproduise, volontairement ou non, des passages existants provenant de textes protégés par le droit d’auteur, ou qu’il soit repris intégralement sans attribution. Les IAG n’ont pas la capacité de distinguer ce qui est original de ce qui est protégé, ce qui peut aboutir à des formulations proches ou identiques à des sources existantes. Ce phénomène expose l’utilisateur à des problèmes de respect de la propriété intellectuelle, en particulier s'il publie ou diffuse le contenu généré comme s’il était entièrement de sa création.
Le risque est accentué dans le contexte universitaire, où la production originale et la citation des sources sont des principes essentiels. Même lorsqu’il n’y a pas d’intention de tricher, l’enseignant ou l’étudiant peut se retrouver en infraction vis-à-vis des règles de l’université ou des lois sur le droit d’auteur, simplement en se reposant sur l’IAG pour générer des contenus scientifiques ou pédagogiques.
- Exemple


La désinformation renvoie au risque de voir circuler des informations fausses ou trompeuses qui, en raison de leur présentation cohérente et assurée, sont perçues comme crédibles par les lecteurs. Ce phénomène s’explique par la capacité des IAG à produire des textes linguistiquement plausibles sans disposer d’un réel accès à la vérité des faits. Ils peuvent ainsi mêler éléments exacts et inventions, ou encore présenter des interprétations comme des constats établis, donnant l’illusion d’un savoir solide alors que le contenu est en partie, voire totalement, erroné. La désinformation constitue dès lors un enjeu majeur, car elle peut se diffuser rapidement et peser sur la compréhension des faits, les choix individuels ou la construction des connaissances.
Par exemple, des erreurs peuvent se retrouver dans des supports de cours, des synthèses de lecture ou des analyses scientifiques, parfois sans être immédiatement détectées. Même des lecteurs avertis peuvent être trompés par un raisonnement apparemment cohérent et convaincant, ce qui rappelle l’importance d’un regard critique et d’une vérification systématique des contenus générés par IAG.
- Exemple
Dans la préparation d’un cours sur les transformations économiques du XXᵉ siècle, une IAG peut produire des chiffres de croissance ou des données sur l’emploi qui semblent plausibles mais qui sont inventés ou obsolètes. Si l’enseignant intègre ces informations dans ses supports sans vérification, les étudiants reçoivent des données incorrectes, ce qui compromet la qualité de l’enseignement et la rigueur scientifique du cours.

Il existe enfin un autre risque, qui peut paraître un peu moins lié au contexte universitaire « pur », mais qui peut affecter les aspects de santé mentale et de bien être des utilisateurs, en particulier des étudiants : c’est l’attachement émotionnel aux outils d’IAG, en relation avec l’ « effet ELIZA ». Il s’agit de la tendance à attribuer à l’IAG des qualités humaines, comme l’intention, la compréhension ou l’empathie, alors que le modèle ne fait que générer des séquences de mots basées sur des probabilités statistiques.
Ce biais cognitif est un risque car il peut conduire à considérer les suggestions de l’outil comme des conseils éclairés et bienveillants plutôt que comme des productions automatisées. La confiance excessive induite par cette humanisation peut réduire la vigilance critique et amener l’utilisateur à déléguer des décisions intellectuelles ou émotionnelles à une entité dépourvue de discernement. Il existe de nombreux témoignages d’utilisateurs ayant déclaré un attachement fort, une relation « patient/psychologue », voire une idylle amoureuse avec une IAG.
Ce risque est particulièrement problématique dans des contextes où le jugement humain, la nuance ou la validation par les pairs sont essentiels. L’illusion d’interlocuteur intelligent peut masquer la nature statistique de l’outil, encourageant des comportements de passivité, de délégation de responsabilités ou de prise de décision irrationnelle seulement suggérés par une IAG. De plus, l’utilisation d’une IAG comme un confident, un ami ou un médecin peut amener à des dérives graves, comme l’ont montré plusieurs cas d’utilisateurs confortés dans leurs idées suicidaires par des IAG au cours de l’année 2025.
Rappel : Si vous ou l’un de vos proches souffrez de détresse émotionnelle ou êtes en proie à des pensées suicidaires, vous pouvez appeler le 3114 (accessible gratuitement 24/24 et 7 jours sur 7).