Nir Eisikovits & Jacob Burley
Le plus grand risque de l’IA dans l’enseignement supérieur n’est pas la tricherie — c’est l’érosion de l’apprentissage lui-même

Pris ensemble, ces développements suggèrent que le plus grand risque posé par l’automatisation dans l’enseignement supérieur n’est pas simplement le remplacement de certaines tâches par des machines, mais l’érosion de l’écosystème plus large de pratiques qui a longtemps soutenu l’enseignement, la recherche et l’apprentissage.

Le débat public sur l’intelligence artificielle dans l’enseignement supérieur a largement tourné autour d’une inquiétude familière : la tricherie. Les étudiants utiliseront-ils des chatbots pour rédiger des dissertations ? Les enseignants peuvent-ils le détecter ? Les universités devraient-elles interdire la technologie ? L’adopter ?

Ces préoccupations sont compréhensibles. Mais se concentrer autant sur la tricherie fait passer à côté de la transformation plus vaste déjà en cours, une transformation qui s’étend bien au-delà de l’inconduite des étudiants et même de la salle de classe.

Les universités adoptent l’IA dans de nombreux domaines de la vie institutionnelle. Certaines utilisations sont largement invisibles, comme les systèmes qui aident à allouer les ressources, à signaler les étudiants « à risque », à optimiser la planification des cours ou à automatiser des décisions administratives routinières. D’autres usages sont plus visibles. Les étudiants utilisent des outils d’IA pour résumer et étudier, les enseignants les utilisent pour élaborer des devoirs et des programmes de cours, et les chercheurs les utilisent pour écrire du code, parcourir la littérature scientifique et condenser des heures de travail fastidieux en quelques minutes.

Les gens peuvent utiliser l’IA pour tricher ou se soustraire à certaines tâches. Mais les nombreuses utilisations de l’IA dans l’enseignement supérieur, et les changements qu’elles annoncent soulèvent une question beaucoup plus profonde : à mesure que les machines deviennent plus capables d’accomplir le travail de recherche et d’apprentissage, que devient l’enseignement supérieur ? À quoi sert l’université ?

Au cours des huit dernières années, nous avons étudié les implications morales de l’engagement généralisé avec l’IA dans le cadre d’un projet de recherche conjoint entre l’Applied Ethics Center à UMass Boston et l’Institute for Ethics and Emerging Technologies. Dans un récent livre blanc, nous soutenons qu’à mesure que les systèmes d’IA deviennent plus autonomes, les enjeux éthiques de l’usage de l’IA dans l’enseignement supérieur augmentent, tout comme ses conséquences potentielles.

À mesure que ces technologies deviennent plus performantes pour produire du travail intellectuel — concevoir des cours, rédiger des articles, suggérer des expériences et résumer des textes difficiles — elles ne rendent pas seulement les universités plus productives. Elles risquent de vider de sa substance l’écosystème d’apprentissage et de mentorat sur lequel ces institutions sont construites et dont elles dépendent.

L’IA non autonome

Considérons trois types de systèmes d’IA et leurs impacts respectifs sur la vie universitaire :

Des logiciels alimentés par l’IA sont déjà utilisés dans l’ensemble de l’enseignement supérieur pour l’examen des admissions, les achats, le conseil académique et l’évaluation des risques institutionnels. Ceux-ci sont considérés comme des systèmes « non autonomes » parce qu’ils automatisent des tâches, mais une personne reste « dans la boucle » et utilise ces systèmes comme des outils.

Ces technologies peuvent présenter un risque pour la vie privée des étudiants et la sécurité de leurs données. Elles peuvent aussi être biaisées. Et elles manquent souvent de transparence suffisante pour déterminer l’origine de ces problèmes. Qui a accès aux données des étudiants ? Comment les « scores de risque » sont-ils générés ? Comment empêcher les systèmes de reproduire des inégalités ou de traiter certains étudiants comme des problèmes à gérer ?

Ces questions sont sérieuses, mais elles ne sont pas conceptuellement nouvelles, du moins dans le domaine de l’informatique. Les universités disposent généralement de bureaux de conformité, de comités d’évaluation institutionnels et de mécanismes de gouvernance conçus pour aider à traiter ou à atténuer ces risques, même s’ils n’atteignent pas toujours ces objectifs.

L’IA hybride

Les systèmes hybrides englobent une gamme d’outils, notamment des chatbots de tutorat assistés par IA, des outils de rétroaction personnalisée et des aides automatisées à l’écriture. Ils reposent souvent sur des technologies d’IA générative, en particulier de grands modèles de langage. Bien que les utilisateurs humains fixent les objectifs généraux, les étapes intermédiaires que le système emprunte pour les atteindre ne sont souvent pas spécifiées.

Les systèmes hybrides façonnent de plus en plus le travail académique quotidien. Les étudiants les utilisent comme compagnons d’écriture, tuteurs, partenaires de réflexion et explicateurs à la demande. Les enseignants les utilisent pour générer des grilles d’évaluation, rédiger des cours magistraux et concevoir des programmes. Les chercheurs les utilisent pour résumer des articles, commenter des brouillons, concevoir des expériences et générer du code.

C’est ici que la conversation sur la « tricherie » trouve sa place. Alors que les étudiants comme les enseignants s’appuient de plus en plus sur la technologie pour obtenir de l’aide, il est légitime de se demander quelles formes d’apprentissage pourraient se perdre en chemin. Mais les systèmes hybrides soulèvent également des questions éthiques plus complexes.

A college student in discussion in a classroom

Si les étudiants comptent sur l’IA générative pour produire leurs travaux, et que les retours sont également générés par l’IA, comment cela affecte-t-il la relation entre l’étudiant et le professeur ? Eric Lee pour The Washington Post via Getty Images

L’une d’elles concerne la transparence. Les chatbots d’IA offrent des interfaces en langage naturel qui rendent difficile de savoir si l’on interagit avec un humain ou avec un agent automatisé. Cela peut être aliénant et distrayant pour ceux qui interagissent avec eux. Un étudiant qui révise pour un examen devrait pouvoir savoir s’il parle avec son assistant d’enseignement ou avec un robot. Un étudiant qui lit des commentaires sur un travail de fin de session doit savoir s’ils ont été écrits par son enseignant. Tout ce qui est moins qu’une transparence complète dans de tels cas sera aliénant pour toutes les personnes concernées et déplacera l’attention des interactions académiques de l’apprentissage vers les moyens ou la technologie de l’apprentissage. Des chercheurs de l’Université de Pittsburgh ont montré que ces dynamiques suscitent chez les étudiants des sentiments d’incertitude, d’anxiété et de méfiance. Ce sont des résultats problématiques.

Une deuxième question éthique concerne la responsabilité et la reconnaissance intellectuelle. Si un enseignant utilise l’IA pour rédiger un devoir et qu’un étudiant utilise l’IA pour rédiger une réponse, qui évalue, et qu’est-ce qui est exactement évalué ? Si les commentaires sont en partie générés par une machine, qui est responsable lorsqu’ils induisent en erreur, découragent ou intègrent des hypothèses cachées ? Et lorsque l’IA contribue de manière substantielle à la synthèse ou à la rédaction de recherches, les universités devront établir des normes plus claires concernant la paternité et la responsabilité — non seulement pour les étudiants, mais aussi pour les enseignants.

Enfin, il y a la question cruciale de la délégation cognitive. L’IA peut réduire les tâches fastidieuses, et ce n’est pas intrinsèquement mauvais. Mais elle peut aussi détourner les utilisateurs des aspects de l’apprentissage qui développent des compétences, comme générer des idées, lutter contre la confusion, réviser un brouillon maladroit et apprendre à repérer ses propres erreurs.

Les agents autonomes

Les changements les plus conséquents pourraient venir de systèmes qui ressemblent moins à des assistants et davantage à des agents. Bien que des technologies véritablement autonomes restent encore une aspiration, le rêve d’un chercheur « dans une boîte » — un système d’IA agentique capable de mener des études par lui-même — devient de plus en plus réaliste.

A biotech researcher working on a computer in a lab

La sophistication et l’autonomie croissantes des systèmes technologiques signifient que la recherche scientifique peut être de plus en plus automatisée, laissant potentiellement aux gens moins d’opportunités d’acquérir des compétences en pratiquant les méthodes de recherche. NurPhoto/Getty Images

On prévoit que les outils agentiques « libéreront du temps » pour un travail axé sur des capacités plus humaines, comme l’empathie et la résolution de problèmes. Dans l’enseignement, cela peut signifier que les enseignants continueront d’enseigner au sens noble du terme, mais qu’une plus grande part du travail quotidien d’instruction pourra être confiée à des systèmes optimisés pour l’efficacité et l’échelle. De même, dans la recherche, la trajectoire pointe vers des systèmes capables d’automatiser de plus en plus le cycle de la recherche. Dans certains domaines, cela ressemble déjà à des laboratoires robotisés qui fonctionnent en continu, automatisent de larges portions de l’expérimentation et sélectionnent même de nouveaux tests en fonction de résultats antérieurs.

À première vue, cela peut sembler être un coup de pouce bienvenu pour la productivité. Mais les universités ne sont pas des usines d’information ; ce sont des systèmes de pratique. Elles reposent sur un vivier d’étudiants diplômés et de jeunes chercheurs qui apprennent à enseigner et à faire de la recherche en participant à ce même travail. Si des agents autonomes absorbent davantage des responsabilités « routinières » qui servaient historiquement de portes d’entrée dans la vie académique, l’université pourrait continuer à produire des cours et des publications tout en amenuisant silencieusement les structures d’opportunité qui soutiennent l’expertise au fil du temps.

La même dynamique s’applique aux étudiants de premier cycle, quoique sous une forme différente. Lorsque des systèmes d’IA peuvent fournir des explications, des brouillons, des solutions et des plans d’étude à la demande, la tentation est de déléguer les parties les plus difficiles de l’apprentissage. Pour l’industrie qui pousse l’IA dans les universités, il peut sembler que ce type de travail est « inefficace » et que les étudiants feraient mieux de laisser une machine s’en charger. Mais c’est précisément la nature de cet effort qui construit une compréhension durable. La psychologie cognitive a montré que les étudiants se développent intellectuellement en faisant le travail de rédaction, de révision, d’échec, de nouvelle tentative, en affrontant la confusion et en révisant des arguments faibles. C’est le travail d’apprendre à apprendre.

Pris ensemble, ces développements suggèrent que le plus grand risque posé par l’automatisation dans l’enseignement supérieur n’est pas simplement le remplacement de certaines tâches par des machines, mais l’érosion de l’écosystème plus large de pratiques qui a longtemps soutenu l’enseignement, la recherche et l’apprentissage.

Un point d’inflexion inconfortable

Alors, à quoi servent les universités dans un monde où le travail intellectuel est de plus en plus automatisé ?

Une réponse possible considère l’université principalement comme un moteur de production de diplômes et de connaissances. Là, la question centrale est le rendement : les étudiants obtiennent-ils leurs diplômes ? Des articles et des découvertes sont-ils produits ? Si des systèmes autonomes peuvent fournir ces résultats plus efficacement, alors l’institution a toutes les raisons de les adopter.

Mais une autre réponse considère l’université comme quelque chose de plus qu’une machine à produire des résultats, reconnaissant que la valeur de l’enseignement supérieur réside en partie dans l’écosystème lui-même. Ce modèle attribue une valeur intrinsèque au parcours d’opportunités par lequel les novices deviennent des experts, aux structures de mentorat par lesquelles le jugement et la responsabilité sont cultivés, et à la conception pédagogique qui encourage un effort productif plutôt que de l’optimiser au point de l’éliminer. Ici, ce qui importe n’est pas seulement de savoir si des connaissances et des diplômes sont produits, mais comment ils sont produits et quels types de personnes, de capacités et de communautés se forment au cours du processus. Dans cette version, l’université est censée servir rien de moins qu’un écosystème qui forme de manière fiable l’expertise et le jugement humains.

Dans un monde où le travail intellectuel lui-même est de plus en plus automatisé, nous pensons que les universités doivent se demander ce que l’enseignement supérieur doit à ses étudiants, à ses jeunes chercheurs et à la société qu’il sert. Les réponses détermineront non seulement la manière dont l’IA est adoptée, mais aussi ce que deviendra l’université moderne.

Nir Eisikovits est professeur de philosophie et directeur, Applied Ethics Center, UMass Boston

Jacob Burley, Junior Research Fellow, Applied Ethics Center, UMass Boston

Texte original publié le 19 février 2026 : https://theconversation.com/the-greatest-risk-of-ai-in-higher-education-isnt-cheating-its-the-erosion-of-learning-itself-270243