Le ministre de l’Enseignement Supérieur et de la Recherche a confié une mission sur « l’intelligence artificielle et l'enseignement » à François Taddei et Frédéric Pascal. Dans le contexte de cette mission, un questionnaire a été établi à destination de « l’ensemble des usagers et personnels de l’enseignement supérieur ».

Le questionnaire est anonyme, mais une fois que j'ai déclaré être une femme professeure en machine learning (considéré comme un sous-domaine de l'IA) à Mines Paris–PSL, j'ai l'anonymat d'un cygne au milieu d'un troupeau de canards. J'ai d'ailleurs choisi de donner mon nom à la fin du questionnaire, comme c'était proposé.

Au vu du temps et de l'énergie que répondre à ce questionnaire m'a pris, et des conversations semi-publiques que j'ai eues sur le sujet sur Mastodon, j'ai décidé de partager ici quelques unes de mes réponses. J'ai ajouté des liens hypertexte pour faciliter la lecture.

Tout d'abord il me semble important de noter que le questionnaire utilise « IA » sans définir le terme. Il m'a fallu plusieurs questions pour être sûre que l'enseignement et la recherche de et en intelligence artificielle, machine learning ou discipline approchante n'entraient pas dans le champ couvert par « IA ». Pire, si je suis raisonnablement convaincue qu'il s'agit ici de parler d'outils s'appuyant sur des modèles génératifs de texte ou d'images de grande taille, entraînés sur d'énormes volumes de donnés, je ne sais pas s'il s'agit plutôt de parler d'outils développés par des acteurs privés à destination du grand public (type ChatGPT, LeChat, MidJourney, Gemini, Claude, DeepSeek), ou plutôt des outils développés spécifiquement pour l'éducation (par exemple MathGPT). Je soupçonne que les outils prédatant les réseaux de neurones profonds et développés spécifiquement pour accompagner l'enseignement sont exclus—je pense par exemple au système expert générateur de problèmes de chimie organique pour étudiant·es de licence développé par Jonathan Chen, avec qui je partageais un bureau en thèse il y a une vingtaine d'années (Chen et al., 2009 doi:10.1021/ci900157k).

(Apparté : Jon est d'ailleurs une personne de référence sur l'utilisation d'outils d'IA générative dans le domaine médical, si le sujet vous intéresse.)

De nombreuses questions telles que « utilisez-vous l'IA dans votre vie professionnelle ? » sont donc particulièrement floues. J'ai utilisé les boîtes de texte des champs « Autre » pour préciser ma pensée, mais le sondage me semble mal conçu dès le départ.

Quels sont, selon vous, les risques d’une utilisation systématique de l’IA par les étudiants ?

Les risques directs commencent à être documentés : l'utilisation d'assistants basés sur GPT permet d'améliorer temporairement les performances des étudiantes et étudiants aux examens, mais lorsqu'on leur retire cette béquille, leurs notes se dégradent, montrant qu'ils et elles n'ont en fait pas acquis les compétences attendues (Bastani et al., 2024 doi:10.2139/ssrn.4895486) ; l'utilisation de ce types d'agents conversationnels, surtout quand on leur fait trop confiance, a un effet négatif sur les capacités cognitives des étudiantes et étudiants (Zhai et al., 2024 doi:10.1186/s40561-024-00316-7) ou des travailleuses et travailleurs des professions intellectuelles (Lee et al., 2025 doi:10.1145/3706598.3713778). L'utilisation systématique de ces outils ne permet pas aux étudiantes et étudiants de faire le cheminement mental nécessaire à l'apprentissage.

L'impact négatif sur la qualité du code produit par les développeurs et développeuses utilisant ces outils est aussi largement documenté (par exemple Perry et al., 2023 doi:3576915.3623157) avec les conséquences que l'on peut en tirer sur l'apprentissage de la programmation informatique et du développement numérique.

Un certain nombre de risques indirects existent aussi. L'utilisation de ces outils pose des aspects éthiques majeurs :

Quand bien même ils fonctionneraient (et j'insiste sur le fait que ce n'est pas établi), il n'est pas acceptable de fonder notre pédagogie sur de telles dérives.

Réserves sur l'utilisation d'outils d'IA en cours : Identifiez-vous d'autres risques/réserves ?

Cette question fait suite à une question demandant d'établir une hiérarchie dans mes réserves sur l'utilisation d'outils d'IA en cours, qui propose 5 réserves : pédagogiques (la pédagogie n'est pas automatisable) ; éducatives (temps d'écran, fracture numérique, inégalité d'accès aux ressources) ; écologiques ; techniques (qualité des infrastructures et du matériel) ; juridiques et éthiques.

Mes réserves pédagogiques ne peuvent pas être résumées à « la pédagogie n'est pas automatisable ». Les outils dont on parle ne permettent pas à ce stade d'automatiser la pédagogie, et mes réserves pédagogiques sont que ces outils ne permettent pas d'améliorer l'apprentissage, au contraire. Ils n'ont aucune notion de ce qu'est une réponse correcte ou non, fournissant seulement des réponses statistiquement probables et potentiellement fausses (« hallucinations »), encodant les biais présents dans leurs jeux d'entraînement, et produisant des résultats uniformément pauvres (« AI slop »).

Mes autres réserves sont politiques : la rapidité avec laquelle on essaie de nous pousser à adopter ces outils dans nos pratiques pédagogiques, alors même que les retours d'expérience sont mitigés—on est loin d'avoir vu un tel engouement pour la classe inversée ou non-notée, malgré une riche littérature scientifique sur le sujet depuis des années voire des décennies—est inquiétante. Dans un contexte de réduction des moyens d'un enseignement supérieur déjà exsangue, je crains qu'il ne s'agisse ici pas de pédagogie mais de démanteler encore un peu plus l'université française.

Il est aussi important de remarquer que ce mouvement se fait sous l'impulsion d'acteurs économiques puissants (Google, Microsoft, OpenAI, Anthropic, MistralAI, Nvidia etc), privés, qui défendent ici leurs propres intérêts. Beaucoup de ces acteurs portent une idéologie délétère, contraire à notre mission de service public (Debru & Torres 2024 doi:10.5210/fm.v29i4.13636). Certains d'entre eux entretiennent des liens forts avec l'administration Trump, dont l'autoritarisme et le refroidissement des relations avec l'UE ne font plus aucun doute. L'utilisation de ces outils pose donc des problèmes géopolitiques et de souveraineté nationale.

Selon vous, quel pourrait être le rôle des établissements d’enseignement supérieur dans les transformations sociétales liées à l’IA ?

Comme pour toute transformation sociétale : l'étudier, avant d'y plonger bille en tête.

Quelles sont vos principales inquiétudes concernant le développement de l’IA dans la formation ?

Encore une fois :

  • les outils d'IA générative n'ont pas fait les preuves de leur utilité dans les formations ;
  • on cherche à remplacer les enseignants / réduire les moyens mis dans la formation en utiilsant des outils qui ne fonctionnent pas ;
  • quand bien même ces outils fonctionneraient, leur coût écologique, éthique et géopolitique est trop élevé.

Selon vous, que manque-t-il aujourd’hui pour développer l’IA dans l’enseignement supérieur ?

En supposant une fois de plus que la question se réfère non pas à enseigner l'IA et les disciplines liées, mais à utiliser pour enseigner des outils basés sur des modèles génératifs : des outils fiables, dont l'utilité pédagogique soit prouvée, qui ne posent pas de problèmes écologiques, éthiques, ou géopolitiques.

Dans l’hypothèse d’une omniprésence des IA dans 5 ans, comment concevez-vous les établissements d'enseignement supérieur (formation, gestion…) ?

Je ne suis pas sûre de ce qui est entendu par « omniprésence des IA », mais je ne vois pas en quoi les missions des établissements d'enseignement supérieur seraient affectées. Nous devrons en particulier continuer de former l'esprit critique de nos étudiantes et étudiants, et à leur donner la formation nécessaire à comprendre ces outils au-delà des effets de mode et d'un imaginaire superficiel. S'il s'agit d'imaginer que les outils type ChatGPT soient fortement intégrés à tous les aspects de la formation, indépendamment de leur utilité/nocivité, je ne peux qu'entrevoir un impact négatif sur les établissements d'enseignement supérieur, dont la qualité des formations se trouverait fortement dégradée.

Selon vous, quelles sont les premières mesures à mettre en œuvre concernant l’IA dans les établissements de l’enseignement supérieur ?

Mener une réflexion sur comment faire évoluer nos enseignements étant donné que ces outils existent et que nos étudiantes et étudiants sont susceptibles de s'en servir (de manière intense et systématique). Il s'agit d'une part de leur permettre de comprendre comment ces outils fonctionnent, leurs limites et les nombreux problèmes que leur utilisation pose, et d'autre part de changer nos enseignements et évaluations pour prendre en compte ces pratiques et notamment continuer d'évaluer les étudiantes et étudiants et pas ChatGPT.

Quelle est votre opinion sur le développement et l'intégration de l'IA dans les formations ?

Au vu de la place que l'IA prend dans nos sociétés, il est essentiel que nos formations forment à l'IA : c'est-à-dire à savoir, techniquement, comment fonctionnent les outils qui en relèvent, et socialement, quels sont les problèmes juridiques, éthiques, sociaux, environnementaux que leur utilisation soulève.

Par contre, intégrer des outils d'IA générative à nos pratiques pédagogiques n'est ni fait ni à faire. Dans l'état actuel de l'art, l'immense majorité de ces outils ne répondent à aucun besoin pédagogique, et leur utilisation soulèverait par contre de nombreux problèmes (manque de fiabilité des outils, nocivité contre-productive de leur utilisation en contexte éducatif, nombreuses barrières éthiques). Il est essentiel de prendre le temps d'évaluer l'efficacité pédagogique de telles pratiques, leurs implications éthiques, et plus largement leur impact sur nos sociétés (Giannakos et al. 2024 doi:10.1080/0144929X.2024.2394886).