Vers des LLM institutionnels ? Repenser l’intégration de l’IA à l’université
L’arrivée des grands modèles de langage (LLM) dans l’enseignement supérieur a d’abord pris la forme d’un choc : celui de l’irruption d’outils commerciaux facilement accessibles comme ChatGPT dans les pratiques étudiantes. Très rapidement, les universités ont été confrontées à une double tension : d’un côté, l’opportunité pédagogique, de l’autre, les enjeux d’intégrité académique, de protection des données et d’alignement curriculaire. Une question taraude les universités : faut-il interdire, tolérer, encadrer … ou intégrer ?
Alors que beaucoup d’établissements se contentent de publier des recommandations, certaines universités ont fait un choix stratégique : elles ont développé leur propre environnement institutionnel d’intelligence artificielle générative, s’appuyant sur des modèles de langage existants.
C’est le cas de l’Open University avec i-AIDA, et de l’Université d’ Amsterdam avec UvA AI Chat. Il ne s’agit pas pour ces institutions d’avoir entraîné leur propre modèle fondationnel, mais d’avoir conçu une couche applicative et pédagogique qui encapsule un LLM existant dans un cadre maîtrisé (données, accès, intégration aux cours, gouvernance).
Leur point commun ? Faire du LLM non pas un outil périphérique, mais une infrastructure pédagogique institutionnelle.
Reprendre la main : et si l’IA devenait un outil didactique comme les autres ?
Les modèles commerciaux sont puissants, mais posent plusieurs questions : où vont les données? Comment sont traités les prompts? Les réponses sont-elles alignées avec les contenus de cours? Comment garantir l’intégrité académique?
Dans les deux cas présentés ci-dessous, le développement interne répond à quatre objectifs communs : la souveraineté numérique, la protection des données, l’alignement pédagogique, l’accès équitable et gratuit. Autrement dit, il ne s’agit pas seulement d’offrir un chatbot, mais de concevoir des dispositifs pédagogiques appuyés sur l’IA, tout en créant un environnement contrôlé et intégré à l’écosystème universitaire.
La maîtrise ne porte pas sur l’entraînement du modèle lui-même, mais sur son orchestration : intégration aux contenus de cours, contrôle des flux de données, paramétrage des usages pédagogiques et gouvernance institutionnelle. Cette distinction est essentielle. La souveraineté reste partielle — le modèle fondationnel demeure externe — mais la maîtrise porte sur l’organisation, l’accès, les données et l’usage pédagogique. Pour la plupart des universités, c’est un compromis réaliste entre autonomie totale (très coûteuse) et dépendance complète aux outils commerciaux.
Deux approches complémentaires
- Le modèle expérimental : i-AIDA (Open University)
À l’Open University, l’assistant a été co-construit pendant 13 mois selon une approche de Design-Based Research (Easterday et al., 2014). L’étude de bêta-test (18 étudiant-es) montre un résultat frappant : les étudiant-es initialement sceptiques deviennent majoritairement positifs après usage. L’analyse mobilise notamment le Technology Acceptance Model (Davis, 1989 ; Venkatesh & Bala, 2008), qui souligne l’importance de la perceived usefulness (utilité perçue) et de la perceived ease of use (facilité d’utilisation perçue). Un élément déterminant ressort : la confiance institutionnelle. Les étudiant-es valorisent le fait que l’outil soit développé et encadré par leur université.
L’architecture repose sur l’incorporation de contenus de cours, permettant de contraindre les réponses du modèle à un corpus académique défini, ce qui limite les risques d’hallucination et renforce la pertinence pédagogique.
- Le modèle stratégique : UvA AI Chat
À l’Université d’Amsterdam, l’approche est davantage infrastructurelle. UvA AI Chat est conçu comme un service institutionnel généralisé: il fonctionne à travers des “personas” spécialisés (par exemple pour le feedback rédactionnel) et s’intègre dans un environnement en ligne institutionnel. L’accent est mis sur le principe Pedagogy first (la pédagogie avant tout), caractérisé par l’alignement sur les learning outcomes, l’usage formatif, et la mise à disposition de modules d’apprentissage sur la littéracie IA. Dix-neuf pilotes disciplinaires ont permis d’observer une valeur ajoutée perçue, notamment pour l’entraînement à l’écriture académique et la préparation aux séminaires, ainsi qu’une réduction des questions répétitives.
Dans les deux cas, le principe est explicite : l’IA doit servir les apprentissages — pas les court-circuiter.
Ce que révèlent ces deux expériences : opportunité pédagogique …et vigilance critique !
- L’acceptation ne va pas de soi
Même dans un cadre institutionnel, l’adoption nécessite formation des enseignant-es, communication claire et intégration pédagogique explicite. Le déploiement technique ne suffit pas. De pus, les pilotes montrent des réserves : certain-es enseignant-es et étudiant-es expriment une méfiance vis-à-vis des réponses générées, malgré le cadre institutionnel.
- Le LLM change la nature du soutien académique
L’analyse des prompts (Open University) révèle principalement trois usages: soutien méthodologique, clarification de contenu, aide pour les questions administratives, ainsi que des usages hors sujet. Autrement dit, les étudiants utilisent le LLM comme un tuteur, un coach, un service FAQ et parfois un moteur de recherche. Le LLM institutionnel devient un méta-service académique.
- Le risque n’est pas seulement l’intégrité académique
Une tension plus subtile apparaît : le risque d’acceptation non critique des réponses. Comme le rappellent plusieurs travaux récents sur l’IA en éducation (Zawacki-Richter et al., 2019 ; Holmes et al., 2022), la question n’est pas seulement “peut-on tricher ?”, mais « comment préserver l’autonomie cognitive et l’esprit critique ? ».
Les universités étudiées insistent donc sur l’alignement du LLM sur les objectifs d’apprentissage, sur la littéracie IA, et sur le rôle complémentaire de l’IA.
- Quels changements pour les enseignants ?
Les expérimentations montrent des aspects positifs : amélioration rapide des brouillons grâce au feedback immédiat, meilleure préparation aux séminaires et réduction des questions répétitives. Mais ces bénéfices n’apparaissent que lorsque l’usage est pédagogiquement scénarisé : modifier une évaluation pour “éviter la triche” ne suffit pas. Repenser les compétences visées (analyse, argumentation, esprit critique, capacité à collaborer avec l’IA) est plus fécond.
Un enjeu stratégique
Mais développer une infrastructure institutionnelle d’intégration des LLM n’est pas neutre. Cela implique des coûts de maintenance, de soutien pédagogique, de gouvernance des données et de suivi de l’évolution rapide des modèles.
Ces initiatives illustrent cependant aussi un enjeu plus large : la dépendance exclusive aux outils commerciaux peut fragiliser l’autonomie académique, alors qu’investir dans une infrastructure institutionnelle d’intégration de l’IA permet de structurer une politique numérique cohérente, d’harmoniser les pratiques, de renforcer l’équité d’accès et de créer une base d’innovation pédagogique.
Conclusion : une étape vers l’“Éducation 5.0” ?
Les initiatives de l’Open University et de l’Université d’Amsterdam montrent que l’intégration institutionnelle des LLM a commencé. Nous ne sommes plus dans la réaction face aux outils publics, mais dans la construction d’une souveraineté pédagogique numérique: si on ne peut pas posséder le modèle, il faut en maîtriser l’utilisation par l’intégration.
La question n’est plus : les étudiant·es utiliseront-ils l’IA ? Mais plutôt : quelle place voulons-nous lui donner dans l’architecture pédagogique de l’université ?
Les prochaines années — et l’analyse des usages à plus grande échelle — permettront d’en mesurer les effets structurels.
Bibliographie
i-AIDA (Open University) :
Rienties, B., Ullmann, T., Tessarolo, F., Kwarteng, J., Domingue, J., Coughlan, T., Coughlan, E., & Bektik, D. (2025). Developing an Institutional AI Digital Assistant in an Age of Industry 5.0. Applied Sciences, 15(12), 6640. https://doi.org/10.3390/app15126640
UvA AI Chat :
Pompe, M. (January 2026). Building UvA AI chat: why we built our own GenAI tool and what we learned, , https://media-and-learning.eu/subject/artificial-intelligence/building-uva-ai-chat-why-we-built-our-own-genai-tool-and-what-we-learned/ (consulté le 2 mars 2026)
Stoop, P. (January 2025). UvA created its own ChatGPT for students and teachers. Is it safer than the original? https://www.folia.nl/en/actueel/164740/uva-created-its-own-chatgpt-for-students-and-teachers-is-it-safer-than-the-original (consulté le 2 mars 2026)
Davis, F. D. (1989). Perceived usefulness, perceived ease of use, and user acceptance of information technology. MIS Quarterly, 13(3), 319–340.
Easterday, M. W., Rees Lewis, D., & Gerber, E. M. (2014). Design-based research process: Problems, phases, and applications. International Journal of Designs for Learning, 5(2).
Holmes, W., Bialik, M., & Fadel, C. (2022). Artificial Intelligence in Education: Promises and Implications for Teaching and Learning. Center for Curriculum Redesign.
Venkatesh, V., & Bala, H. (2008). Technology Acceptance Model 3 and a research agenda on interventions. Decision Sciences, 39(2), 273–315.
Zawacki-Richter, O., Marín, V. I., Bond, M., & Gouverneur, F. (2019). Systematic review of research on artificial intelligence applications in higher education. International Journal of Educational Technology in Higher Education, 16(39).
Lire aussi le billet de blog Ciel: Pas besoin de ChatGPT pour ça!





