• Intelligence Artificielle Générative à l'UNIGE
    Guide d'utilisation de l'intelligence artificielle générative à l'Université de Genève
  • Makeiteasy
    Une plateforme pour tester et améliorer vos compétences numériques à votre rythme
  • Ciel cherche: rédacteurs/trices

Catégorie : Analyses & réflexions

Billet proposant un retour d’expérience, une analyse, une réflexion…


Vers des LLM institutionnels ? Repenser l’intégration de l’IA à l’université

L’arrivée des grands modèles de langage (LLM) dans l’enseignement supérieur a d’abord pris la forme d’un choc : celui de l’irruption d’outils commerciaux facilement accessibles comme ChatGPT dans les pratiques étudiantes. Très rapidement, les universités ont été confrontées à une double tension : d’un côté, l’opportunité pédagogique, de l’autre, les enjeux d’intégrité académique, de protection des données et d’alignement curriculaire. Une question taraude les universités : faut-il interdire, tolérer, encadrer … ou intégrer ?

Alors que beaucoup d’établissements se contentent de publier des recommandations, certaines universités ont fait un choix stratégique : elles ont développé leur propre environnement institutionnel d’intelligence artificielle générative, s’appuyant sur des modèles de langage existants.

C’est le cas de l’Open University avec i-AIDA, et de l’Université d’ Amsterdam avec UvA AI Chat. Il ne s’agit pas pour ces institutions d’avoir entraîné leur propre modèle fondationnel, mais d’avoir conçu une couche applicative et pédagogique qui encapsule un LLM existant dans un cadre maîtrisé (données, accès, intégration aux cours, gouvernance).

Leur point commun ? Faire du LLM non pas un outil périphérique, mais une infrastructure pédagogique institutionnelle.

Reprendre la main : et si l’IA devenait un outil didactique comme les autres ?

Les modèles commerciaux sont puissants, mais posent plusieurs questions : où vont les données? Comment sont traités les prompts? Les réponses sont-elles alignées avec les contenus de cours? Comment garantir l’intégrité académique?

Dans les deux cas présentés ci-dessous, le développement interne répond à quatre objectifs communs : la souveraineté numérique, la protection des données, l’alignement pédagogique, l’accès équitable et gratuit. Autrement dit, il ne s’agit pas seulement d’offrir un chatbot, mais de concevoir des dispositifs pédagogiques appuyés sur l’IA, tout en créant un environnement contrôlé et intégré à l’écosystème universitaire.

La maîtrise ne porte pas sur l’entraînement du modèle lui-même, mais sur son orchestration : intégration aux contenus de cours, contrôle des flux de données, paramétrage des usages pédagogiques et gouvernance institutionnelle. Cette distinction est essentielle. La souveraineté reste partielle — le modèle fondationnel demeure externe — mais la maîtrise porte sur l’organisation, l’accès, les données et l’usage pédagogique. Pour la plupart des universités, c’est un compromis réaliste entre autonomie totale (très coûteuse) et dépendance complète aux outils commerciaux.

Deux approches complémentaires

  • Le modèle expérimental : i-AIDA (Open University)

À l’Open University, l’assistant a été co-construit pendant 13 mois selon une approche de Design-Based Research (Easterday et al., 2014). L’étude de bêta-test (18 étudiant-es) montre un résultat frappant : les étudiant-es initialement sceptiques deviennent majoritairement positifs après usage. L’analyse mobilise notamment le Technology Acceptance Model (Davis, 1989 ; Venkatesh & Bala, 2008), qui souligne l’importance de la perceived usefulness (utilité perçue) et de la perceived ease of use (facilité d’utilisation perçue). Un élément déterminant ressort : la confiance institutionnelle. Les étudiant-es valorisent le fait que l’outil soit développé et encadré par leur université.

L’architecture repose sur l’incorporation de contenus de cours, permettant de contraindre les réponses du modèle à un corpus académique défini, ce qui limite les risques d’hallucination et renforce la pertinence pédagogique.

  • Le modèle stratégique : UvA AI Chat

À l’Université d’Amsterdam, l’approche est davantage infrastructurelle. UvA AI Chat est conçu comme un service institutionnel généralisé: il fonctionne à travers des “personas” spécialisés (par exemple pour le feedback rédactionnel) et s’intègre dans un environnement en ligne institutionnel. L’accent est mis sur le principe Pedagogy first (la pédagogie avant tout), caractérisé par l’alignement sur les learning outcomes, l’usage formatif, et la mise à disposition de modules d’apprentissage sur la littéracie IA. Dix-neuf pilotes disciplinaires ont permis d’observer une valeur ajoutée perçue, notamment pour l’entraînement à l’écriture académique et la préparation aux séminaires, ainsi qu’une réduction des questions répétitives.

Dans les deux cas, le principe est explicite : l’IA doit servir les apprentissages — pas les court-circuiter.

Ce que révèlent ces deux expériences : opportunité pédagogique …et vigilance critique !

  • L’acceptation ne va pas de soi

Même dans un cadre institutionnel, l’adoption nécessite formation des enseignant-es, communication claire et intégration pédagogique explicite. Le déploiement technique ne suffit pas. De pus, les pilotes montrent des réserves : certain-es enseignant-es et étudiant-es expriment une méfiance vis-à-vis des réponses générées, malgré le cadre institutionnel.

  • Le LLM change la nature du soutien académique

L’analyse des prompts (Open University) révèle principalement trois usages: soutien méthodologique, clarification de contenu, aide pour les questions administratives, ainsi que des usages hors sujet. Autrement dit, les étudiants utilisent le LLM comme un tuteur, un coach, un service FAQ et parfois un moteur de recherche. Le LLM institutionnel devient un méta-service académique.

  • Le risque n’est pas seulement l’intégrité académique

Une tension plus subtile apparaît : le risque d’acceptation non critique des réponses. Comme le rappellent plusieurs travaux récents sur l’IA en éducation (Zawacki-Richter et al., 2019 ; Holmes et al., 2022), la question n’est pas seulement “peut-on tricher ?”, mais « comment préserver l’autonomie cognitive et l’esprit critique ? ».

Les universités étudiées insistent donc sur l’alignement du LLM sur les objectifs d’apprentissage, sur la littéracie IA, et sur le rôle complémentaire de l’IA.

  • Quels changements pour les enseignants ?

Les expérimentations montrent des aspects positifs : amélioration rapide des brouillons grâce au feedback immédiat, meilleure préparation aux séminaires et réduction des questions répétitives. Mais ces bénéfices n’apparaissent que lorsque l’usage est pédagogiquement scénarisé : modifier une évaluation pour “éviter la triche” ne suffit pas. Repenser les compétences visées (analyse, argumentation, esprit critique, capacité à collaborer avec l’IA) est plus fécond.

Un enjeu stratégique

Mais développer une infrastructure institutionnelle d’intégration des LLM n’est pas neutre. Cela implique des coûts de maintenance, de soutien pédagogique, de gouvernance des données et de suivi de l’évolution rapide des modèles.

Ces initiatives illustrent cependant aussi un enjeu plus large : la dépendance exclusive aux outils commerciaux peut fragiliser l’autonomie académique, alors qu’investir dans une infrastructure institutionnelle d’intégration de l’IA permet de structurer une politique numérique cohérente, d’harmoniser les pratiques, de renforcer l’équité d’accès et de créer une base d’innovation pédagogique.

Conclusion : une étape vers l’“Éducation 5.0” ?

Les initiatives de l’Open University et de l’Université d’Amsterdam montrent que l’intégration institutionnelle des LLM a commencé. Nous ne sommes plus dans la réaction face aux outils publics, mais dans la construction d’une souveraineté pédagogique numérique: si on ne peut pas posséder le modèle, il faut en maîtriser l’utilisation par l’intégration.

La question n’est plus : les étudiant·es utiliseront-ils l’IA ? Mais plutôt : quelle place voulons-nous lui donner dans l’architecture pédagogique de l’université ?

Les prochaines années — et l’analyse des usages à plus grande échelle — permettront d’en mesurer les effets structurels.

Bibliographie

i-AIDA (Open University) : 

Rienties, B., Ullmann, T., Tessarolo, F., Kwarteng, J., Domingue, J., Coughlan, T., Coughlan, E., & Bektik, D. (2025). Developing an Institutional AI Digital Assistant in an Age of Industry 5.0. Applied Sciences, 15(12), 6640. https://doi.org/10.3390/app15126640

UvA AI Chat : 

Pompe, M. (January 2026). Building UvA AI chat: why we built our own GenAI tool and what we learned, , https://media-and-learning.eu/subject/artificial-intelligence/building-uva-ai-chat-why-we-built-our-own-genai-tool-and-what-we-learned/ (consulté le 2 mars 2026)

Stoop, P. (January 2025). UvA created its own ChatGPT for students and teachers. Is it safer than the original? https://www.folia.nl/en/actueel/164740/uva-created-its-own-chatgpt-for-students-and-teachers-is-it-safer-than-the-original (consulté le 2 mars 2026)

 

Davis, F. D. (1989). Perceived usefulness, perceived ease of use, and user acceptance of information technology. MIS Quarterly, 13(3), 319–340.

Easterday, M. W., Rees Lewis, D., & Gerber, E. M. (2014). Design-based research process: Problems, phases, and applications. International Journal of Designs for Learning, 5(2).

Holmes, W., Bialik, M., & Fadel, C. (2022). Artificial Intelligence in Education: Promises and Implications for Teaching and Learning. Center for Curriculum Redesign.

Venkatesh, V., & Bala, H. (2008). Technology Acceptance Model 3 and a research agenda on interventions. Decision Sciences, 39(2), 273–315.

Zawacki-Richter, O., Marín, V. I., Bond, M., & Gouverneur, F. (2019). Systematic review of research on artificial intelligence applications in higher education. International Journal of Educational Technology in Higher Education, 16(39).

 

Lire aussi le billet de blog Ciel: Pas besoin de ChatGPT pour ça!



GAFAM : mais quelles sont les alternatives ?

Avant de nous lancer dans ce billet, posons quelques notions de base.

Disclaimer : ce texte repose sur des expériences personnelles. Il ne prétend pas être un billet d’experte, mais plutôt le regard d’une utilisatrice lambda des outils GAFAM,  et de leurs alternatives.

GAFAM : que se cache-t-il derrière cet acronyme quelque peu guttural ?

Google (Alphabet), Apple, Facebook (Meta), Amazon, Microsoft.
(Récemment, NVIDIA est parfois ajouté à la liste, en raison de son rôle central dans l’essor de l’IA. C’est un fabricant de puces GPU, indispensables pour l’entraînement et l’utilisation des modèles d’intelligence artificielle.)

Les GAFAM représentent les géants de la technologie de l’information. Leur domination est telle qu’on utilise, de près ou de loin, au moins un de leurs produits dans notre quotidien.

  • Vous utilisez Excel ? → Microsoft.
  • Vous collaborez sur Google Docs ? → Google (Alphabet).
  • Votre série préférée est sur Netflix ? → Netflix repose sur AWS (Amazon Web Services) pour diffuser son contenu.

Un jour, des questions

Pendant des années, je n’ai jamais remis en question l’utilisation de ces outils, ni leur hégémonie sur mon quotidien. En effet, ils n’étaient que des outils informatiques, rien de plus. Mais le contexte politique mondial actuel a changé certaines choses. J’ai pris conscience que ces outils pouvaient collecter nos données, et que celles-ci sont utilisées, notamment, pour entraîner des algorithmes afin de nous pousser à consommer ce que l’algorithme (et les compagnies) mettent en avant.

Ne souhaitant plus que mes données soient utilisées, je me suis penchée sur les alternatives.

C’est dans ce contexte que ce billet a vu le jour : un simple désir de mettre des mots sur une prise de conscience, et surtout, de partager avec vous les alternatives que j’ai découvertes.

Microsoft : Bureautique

Les classiques : Word, Excel, Outlook, PowerPoint.

Alternative : LibreOffice
LibreOffice propose une suite bureautique complète (traitement de texte, tableur, présentation, etc.), gratuite et open source. Son développement est collaboratif : tout le monde peut y contribuer, le modifier, l’améliorer sans dépendre d’un seul éditeur.

🔗 Découvrir LibreOffice

Windows : système d’exploitation

Alternative : Linux / Ubuntu
Linux est un système d’exploitation libre et open source. Souvent, il demande des connaissances informatiques afin de pouvoir l’installer et remplacer Windows.  Ubuntu en est une distribution populaire, facile d’utilisation pour les débutants, avec un écosystème riche et une communauté active.

🔗 Découvrir Ubuntu
🔗 En savoir plus sur Linux

Facebook (Meta) : réseaux sociaux et leurs alternatives

Instagram → Pixelfed

Pixelfed est un réseau social libre, sans publicité, sans algorithme. Les publications s’affichent dans l’ordre chronologique. Un retour à l’essentiel : partager.

🔗 Découvrir Pixelfed

Facebook / Twitter/X → Mastodon

Mastodon est un réseau social décentralisé : pas de plateforme unique, mais des serveurs indépendants (ou “instances”) que vous choisissez. Pas de publicité, pas d’algorithme, pas de surveillance. Vous contrôlez votre expérience.

🔗 Découvrir Mastodon

Amazon : AWS, le cloud omniprésent

AWS (Amazon Web Services) est difficilement remplaçable si vous n’avez pas votre propre infrastructure, mais des alternatives existent, notamment en Europe.

Pour en savoir plus :
Le site European Alternatives recense des alternatives européennes à AWS, avec des critères de souveraineté, de transparence et de respect des données.

🔗 Explorer les alternatives à AWS

Bonus : alternatives aux IA majeures (ChatGPT, Gemini, Claude, DeepSeek)

En France → Mistral AI (Le Chat)

Le Chat de Mistral est un assistant IA développé en France, avec un modèle open weights (pas open source, mais librement utilisable). Il s’inscrit dans une démarche de souveraineté technologique européenne.

🔗 Tester Le Chat de Mistral

En Suisse → Apertus

Apertus est un projet d’IA open source développé en Suisse, notamment par les écoles polytechniques fédérales. Il est conçu pour être transparent, éthique et respectueux des données. Il vise à offrir une IA locale, contrôlable, et adaptée aux besoins européens.

🔗 En savoir plus sur Apertus

Toujours en Suisse → Euria (Infomaniak)

Euria est une IA développée par Infomaniak, 100 % hébergée en Suisse, alimentée par des énergies renouvelables locales, et conçue pour respecter la vie privée. Pas de stockage des données, pas de profilage.

🔗 Découvrir Euria

Conclusion : une liste en construction

Cette liste est un point de départ pour une réflexion collective.
Elle évoluera avec les avancées technologiques, les politiques internationales, et surtout, avec les retours des utilisateurs-trices.

Et vous ? Connaissez-vous d’autres alternatives ?

Partagez-les en commentaires 😊

Texte écrit par Noémie Chappuis, aidée par l’IA Euria pour la mise en forme WordPress et des références, ainsi que pour la correction de syntaxe.

Relecture humaine par Laurent Moccozet



La Conception Universelle de l’Apprentissage (CUA)

Billet rédigé par la Dre Jue Wang Szilas, Centre pour la formation continue et à distance, et Claire Dupont, Pôle techno-pédagogique de la Faculté de médecine, UNIGE

Ces dernières années, la Conception Universelle de l’Apprentissage (CUA) – Universal Design for Learning (UDL) en anglais – s’est imposée comme un cadre de référence majeur pour repenser les pratiques pédagogiques. Initialement développée pour favoriser l’inclusion des personnes apprenantes ayant des besoins spécifiques, la CUA s’adresse aujourd’hui à tous les contextes d’enseignement, en plaçant la variabilité des apprenantes et apprenants au cœur de la conception des parcours.

Ce cadre a été formalisé par le CAST (Center for Applied Special Technology), un organisme de recherche américain pionnier dans le développement de pratiques éducatives inclusives. Dans sa version 3.0 en 2024, le CAST met en avant l’objectif clé : favoriser l’agentivité des personnes apprenantes, c’est-à-dire leur capacité à prendre le contrôle de leur propre apprentissage, de manière réfléchie, stratégique, authentique et orientée vers l’action.

Rendre l’enseignement accessible et motivant pour tout le monde

Les 20 et 21 février 2025, l’association MoodleMoot francophone a organisé un mini-événement à l’Université d’Avignon. Au cœur de ces deux journées : La CUA.

Fidèle à sa mission de rassembler la communauté des Moodleurs et Moodleuses, l’association a proposé un programme riche en pratiques pédagogiques innovantes autour de la plateforme Moodle. Cet événement a ainsi offert une belle opportunité de faire le point sur la CUA, son sens, ses principes fondamentaux, et ses applications concrètes dans des environnements numériques comme Moodle.

Qu’est-ce que la CUA ?

La Conception Universelle de l’Apprentissage est une approche pédagogique inclusive qui anticipe, dès la phase de conception, la diversité des besoins des personnes apprenantes. Elle vise à construire un environnement d’apprentissage accessible, motivant et adapté à chacun et chacune.

💡 À retenir : Contrairement à une idée reçue, la CUA ne s’adresse pas uniquement aux étudiantes et étudiants ayant des besoins spécifiques ou des troubles du neurodéveloppement (TND). Elle bénéficie à toute personne qui étudie, en proposant un cadre souple, engageant et personnalisable.

La CUA repose sur trois grands principes complémentaires :

1. Diversifier les moyens de représentation

Le premier principe consiste à varier les formes de présentation de l’information. Texte, vidéos, schémas, podcasts, infographies… chaque support permet aux personnes de mieux comprendre, selon son profil cognitif, sensoriel ou ses préférences personnelles.

🎓 Exemple :

Lors du Mini MoodleMoot, plusieurs initiatives ont mis en lumière l’importance de proposer des formats variés pour faciliter la compréhension.

Gilles Bonavitacola et Juan Pablo Parra (Université de Lyon) ont présenté un projet de vidéos pédagogiques inclusives, dont l’objectif est de réduire la charge cognitive et améliorer la mémorisation en appliquant quatre bonnes pratiques :

  • présenter uniquement l’essentiel,
  • structurer l’information et guider la lecture,
  • fixer les images clés,
  • limiter à deux informations simultanées.

À l’Université de Caen, Audrey Trehet a mené un travail de modernisation de ressources pédagogiques qui illustre une alternative efficace à la transformation numérique classique. Son approche, qu’on pourrait qualifier de « revitalisante », vise à rendre les contenus plus actuels, accessibles et engageants, tout en limitant la charge de travail. Concrètement, elle a converti des documents Word en livres interactifs avec H5P, transformé des tableaux en HTML accessible, ajusté les couleurs pour respecter la charte graphique institutionnelle, réécrit des schémas complexes sous forme de vidéos narratives, et intégré des éléments sonores interactifs via H5P Active Présentation.
L’adoption de bonnes pratiques simples mais ciblées permet ainsi de redonner vie à des cours existants, tout en renforçant leur inclusivité.

2. Multiplier les moyens d’action et d’expression

Une fois les contenus accessibles, encore faut-il permettre aux étudiantes et étudiants de s’exprimer selon leurs points forts. Ce deuxième principe encourage l’utilisation de modalités variées pour démontrer ses compétences : vidéos, projets collaboratifs, portfolios numériques, forums, productions orales ou écrites, etc.

🎓 Exemple :

Le projet Atypie-Friendly, programme national en France, combine des interfaces personnalisables (Scenari) et des vidéos adaptables (Polymny), afin de proposer des parcours individualisés et conformes au Référentiel Général d’Amélioration de l’accessibilité (RGAA). Il s’adresse en priorité aux personnes ayant des troubles du neurodéveloppement (TND), qui représentent près de 30 % de la population estudiantine en situation de handicap. Grâce à la chaîne documentaire Scenari Opale, les contenus pédagogiques sont adaptables (fil d’Ariane, titres structurés, chapitrage visuel…), permettant de réduire la charge cognitive tout en simplifiant le travail des équipes enseignantes.

Le projet « Signes et vous », porté par Karine Detranchant et Nora Van Reeth (Université Claude Bernard Lyon 1), propose une formation hybride en langue des signes, intégrée aux unités d’enseignement transversales. Face à une forte augmentation du nombre d’inscriptions, l’équipe a mis en place un parcours flexible sur Moodle : cours en tuiles, livre Moodle téléchargeable, alternatives accessibles aux activités interactives (versions Word, H5P Dialog Cards, Genial.ly), et outils innovants comme les Sketchnotes 3D. Des studios d’enregistrement sont également mis à disposition pour accompagner les élèves dans la production vidéo de leur test final, contribuant ainsi à l’inclusion numérique.

Ces deux projets démontrent comment la diversité des moyens d’expression permet de mieux répondre à la variété des profils et de favoriser une expérience d’apprentissage équitable et personnalisée.

3. Renforcer l’engagement

Le troisième pilier de la CUA vise à susciter et maintenir la motivation. Cela passe par des tâches contextualisées, des activités interactives et un suivi personnalisé, favorisant l’autonomie et l’implication des étudiantes et étudiants.

🎓 Exemple :

Le projet Castin, présenté par Olivier Castin (HELB, Bruxelles), illustre parfaitement ce principe. Conçu selon une approche de Learning Experience Design, ce dispositif hybride (en partie à distance et en partie en présentiel) repose sur une organisation différenciée des tâches selon les profils des personnes étudiantes. Moodle y joue un rôle central : un tableau de bord interactif et une barre de progression permettent aux personnes de visualiser leur avancement, d’ajuster leur rythme, de limiter les distractions et de rester engagées tout au long du parcours.

En intégrant des outils comme Genial.ly et H5P, le dispositif propose des activités dynamiques et adaptées aux objectifs personnels. Cette approche individualisée renforce non seulement l’autonomie chez les individus, mais aussi leur motivation à progresser, dans un cadre clair et stimulant.

📌 En résumé,  les 3 leviers de la CUA dans Moodle : 

  • diversifier les représentations : textes, vidéos, schémas, podcasts, etc.
  • multiplier les modes d’expression : quiz, projets multimédias, discussions en ligne, etc.
  • soutenir l’engagement : activités collaboratives, outils interactifs, suivi personnalisé.

Et après ?

Cet article introduit les fondements de la Conception Universelle de l’Apprentissage (CUA) et ses trois principes clés, à travers des exemples concrets présentés lors du Mini MoodleMoot francophone de février 2025.

Une deuxième publication prévue à l’automne 2025 viendra approfondir cette thématique en mettant l’accent sur les recommandations suisses en matière de pédagogie inclusive et les perspectives d’intégration de la CUA dans l’enseignement supérieur.

Dans le prolongement de cette réflexion, nous proposerons également un atelier à destination de la communauté enseignante de l’UNIGE souhaitant s’initier à la CUA et découvrir comment en appliquer les principes de manière concrète dans leurs pratiques pédagogiques.

👉 Pour aller plus loin sur ce sujet, vous pouvez consulter :
– les enregistrements vidéo et présentations liées à la CUA lors du Mini MoodleMoot,
– ainsi qu’une liste de pratiques pédagogiques inclusives à explorer et à adapter à vos contextes.



Une analyse de l’évolution du recours aux examens numérique à l’UNIGE

Pendant la période de confinement causée par l’épidémie de COVID 19, les universités ont dû transformer radicalement la manière dont elles dispensaient les cours et organisaient les examens. Nombre d’entre elles ont opté pour un enseignement et une évaluation entièrement en ligne. Même les enseignant-es les plus réticent-es ont dû, du jour au lendemain, adapter leurs pratiques d’évaluation des connaissances et d’examen aux méthodes en ligne. Cette transition s’est faite dans l’urgence et le passage aux examens en ligne a souvent consisté à réutiliser des méthodes traditionnelles et à les adapter de manière ad hoc et empirique aux outils de communication à distance disponibles.

À l’Université de Genève, bien avant l’épidémie de COVID, une infrastructure et un service de soutien permettant aux enseignant-es d’organiser leurs examens en ligne sur une base volontaire avaient été mis en place. Cependant, cette infrastructure a rapidement été renforcée afin de garantir l’organisation de tous les examens à distance pendant l’épidémie.

Après cette période, il semble intéressant de voir comment les pratiques ont évolué une fois que tout le monde a été systématiquement exposé aux examens en ligne et informatisés. Sommes-nous revenus aux méthodes d’examen traditionnelles de l’ère pré-Covid dans une forme de réaction épidermique de rejet de cette période ? Sommes-nous passés à une adoption massive et volontaire des modalités en ligne ? Dans la suite de ce billet, nous proposons de fournir quelques éléments d’analyse de la situation actuelle au sein de l’Université de Genève. Nous présentons ici l’évolution du nombre d’examens réalisés sur ordinateur avant, pendant et après le COVID et des résultats d’un questionnaire mené auprès d’une population d’enseignant-es sur leurs pratiques post-COVID des examens numériques.

Infrastructure de soutien aux examens numériques à l'UNIGE

Infrastructure de soutien aux examens numériques à l’UNIGE

L’Université de Genève a décidé de mettre à disposition des enseignants une infrastructure de soutien institutionnel pour la réalisation de leurs examens sous forme numérique en 2014. Une partie de cette infrastructure est déployée sous la forme d’un environnement numérique, basé sur le Learning Management System (LMS) Moodle, et en particulier les activités d’évaluation qui y sont proposées, telles que les tests ; sur le navigateur web sécurisé : SEB (Safe Exam Browser), qui est un navigateur open source permettant de prendre le contrôle d’un ordinateur et de définir les ressources locales et en ligne auxquelles l’utilisateur aura accès, et enfin une infrastructure de bureau virtuel. Cet environnement numérique flexible permet de mettre en place plusieurs types de scénarios d’examens numériques, soit sur les ordinateurs de l’institution, soit sur l’équipement des étudiants. L’organisation de l’environnement numérique d’examen est illustrée à la figure 1.

Figure 1 . Organisation de l’environnement d’examens numériques institutionnel

L’infrastructure est complétée par le soutien humain d’une petite équipe de techniciens qui développent et maintiennent l’environnement numérique. Cette équipe de support propose également des formations à la demande et développe une gamme de ressources pour permettre aux enseignants de créer les scénarios d’examens numériques qu’ils souhaitent. L’équipe de support peut également fournir une assistance et des conseils sur la mise en œuvre et être présente lors des examens. Pour faciliter l’appropriation de l’infrastructure, un certain nombre de scénarios types couvrant un large éventail de besoins ont été développés et documentés. La promotion des évaluations numériques repose sur la viralité des expériences personnelles développées par les adopteurs précoces, qui sont constamment à la recherche d’améliorations qu’ils peuvent introduire dans leurs pratiques d’enseignement. Leurs expériences sont documentées et publiées pour servir de modèles à d’autres enseignants. La promotion est également basée sur la sensibilisation directe des facultés et des enseignants par le biais de présentations données par l’équipe de soutien.

Au moment de la pandémie, l’Université de Genève a pris la décision de basculer tous les examens en ligne, en renforçant l’infrastructure existante pour la transposition des examens écrits et en utilisant la plateforme de vidéoconférence Zoom pour les examens oraux. Pour les examens à distance, il a été décidé de ne pas utiliser les technologies de surveillance. Les changements apportés à l’infrastructure de support ont impliqué l’installation et le déploiement d’instances supplémentaires du LMS Moodle sur un cluster de serveurs renforcés et optimisés, dédiés uniquement aux examens. Les instances Moodle ont également été optimisées pour assurer la meilleure qualité de service possible pendant les examens. Le rectorat et les facultés ont été particulièrement impliqués dans le déploiement des ressources et la coordination avec les enseignants. Les facultés ont fait appel à du personnel dédié qui a joué le rôle d’intermédiaire entre l’équipe de support général et les enseignants des facultés.

Après la pandémie et le retour à l’enseignement présentiel, l’Université de Genève a maintenu l’infrastructure numérique de soutien aux examens qui avait été déployée pendant la pandémie. Certaines facultés ont également maintenu une personne ressource pour fournir un soutien direct à leurs enseignants et agir en tant qu’intermédiaire avec l’équipe de soutien global.

Analyse de l’évolution du nombre d’examens numériques

Analyse de l’évolution du nombre d’examens numériques

Figure 2 . Progression du nombre d’examens passés au cours des années académiques selon les 3 modalités principales (BYOD en bleu : sur l’équipement des étudiants sur le campus de l’Université ; INSTIT en rouge : sur les ordinateurs de l’Université, DISTANCE en vert : à distance sur l’équipement des étudiants)

La figure 2 montre l’évolution du nombre d’examens réalisés au cours des années académiques selon les trois principales méthodes soutenues par l’infrastructure institutionnelle :
• Bring Your Own Device (BYOD, en bleu) : sur l’équipement des étudiants sur le campus de l’université.
• Sur les ordinateurs de l’université (INSTIT, en rouge).
• À distance sur l’équipement des étudiants (DISTANCE, en vert).

Il ressort de l’observation de ce graphique, que le retour à la normale à la suite de la crise pandémique n’a pas conduit à un retour à la situation initiale en termes d’utilisation des examens numériques. On peut donc en déduire que la période d’urgence mise en place et l’expérience vécue pendant la pandémie de COVID ont eu un impact significatif sur l’utilisation des examens numériques. On constate aussi que le changement post-COVID constaté se démarque de ce qui a pu s’observer pendant la période de confinement. Cette évolution est encore plus remarquable si l’on considère une nouvelle méthode d’examen introduite durant l’année académique 2021/22 sur Moodle, les quiz offline, en réponse à une demande des enseignants à la suite de leurs expériences pendant la période de confinement. Il s’agit d’un système qui permet de passer des tests sur Moodle, d’imprimer divers documents pour passer les tests sur papier en salle, puis de corriger automatiquement les tests sur Moodle après avoir numérisé les feuilles de réponses des élèves. Cette modalité vient s’ajouter aux 3 déjà disponibles qui sont représentées dans la figure 2 et elle est en forte augmentation depuis sa mise à disposition.

Si l’on considère les 3 périodes, pré-COVID, COVID et post-COVID, on constate que les tendances à l’intérieur de chaque période sont cohérentes. Pendant la période pré-COVID, les modalités sont très peu utilisées, ce qui correspond principalement à une utilisation par des enseignants motivés. On observe le pic de la modalité distance et la disparition des autres modalités pendant la période COVID. Enfin, pour la période post-COVID, on observe une diminution globale du nombre d’examens numériques, mais une augmentation considérable par rapport à la période pré-COVID, avec un glissement principalement vers les modalités institutionnelles et quiz offline. Parallèlement, les modalités BYOD et à distance restent très faibles, et on constate même qu’elles ont tendance à diminuer au fil du temps.

Analyse des freins au recours aux examens numériques par les enseignants

Analyse des freins au recours aux examens numériques par les enseignants

Une étude des pratiques post-COVID concernant les examens numériques a été menée auprès d’une population d’enseignants de l’Université de Genève. L’étude a consisté en un questionnaire. Les données ont été collectées de manière anonyme. Le questionnaire a été envoyé à 36 enseignants et 24 réponses ont été reçues. Toutes les méthodes d’examen numérique sont représentées dans cet échantillon. Il couvre des classes allant de 30 à plus de 400 élèves.

Figure 3 . Réponses des enseignants concernant les obstacles à la transition des examens vers le mode numérique

La figure 3 montre les résultats concernant les obstacles identifiés par les enseignants qui les empêchent de passer un examen en mode numérique. Il y a 4 grandes catégories de réactions pour lesquelles le schéma des réponses est similaire. Tout d’abord, la zone 1, qui correspond à la seule question concernant le manque de familiarité avec l’informatique. On constate que ce n’est un obstacle pour personne. Ceci est probablement dû au fait que la période COVID a obligé tout le monde à se familiariser avec l’informatique, même les plus réfractaires. La zone 2 correspond aux obstacles qu’engendrerait l’utilisation de Moodle pour la réalisation de l’examen : la production de l’examen, la réalisation et la surveillance de l’examen et enfin la correction de l’examen. Là encore, on constate que ces blocages ne sont pas très forts, ce qui est probablement le résultat de l’utilisation forcée de Moodle durant la période COVID. La zone 3 correspond à des causes de blocage encore fortes liées à l’exécution de l’examen et qui sont particulièrement importantes pour les examens sur le campus. On constate que ces points ont sans doute été des points critiques difficilement maîtrisables et pour lesquels les enseignants souhaiteraient un soutien. Enfin, la dernière zone, 4, correspond à un critère de blocage auquel tous les enseignants ont été confrontés pendant la période COVID et pour lequel ils ont sans doute constaté qu’ils n’avaient pas ou trop peu de contrôle : la tricherie.

Pour conclure la présentation de ces différents éléments, on peut avancer que pour l’Université de Genève, la période de confinement due au COVID et le passage aux examens à distance, a impacté la pratique actuelle vis-à-vis des examens sur ordinateur. On peut avancer l’hypothèse que cette évolution est probablement due au fait qu’elle a forcé toute la communauté enseignante et les facultés à s’exposer à la mise en place et à l’utilisation des examens sous une forme numérique.

Omar Benkacem, Allan Bowman, André Camacho, Laurent Moccozet, Patrick Roth 



L’ «importation intelligente / Smart Import» peut-elle créer un contenu d’apprentissage intelligent ?

Article proposé par la Dre Jue Wang Szilas et la Dre Patrizia Birchler Emery, CFCD

Ce billet explore le potentiel pédagogique des moteurs d’intelligence artificielle Smart Import et Nolej.

H5P Smart Import et Nolej sont des solutions innovantes en matière de conception pédagogique assistée par l’IA, en particulier pour la création de contenus d’apprentissage interactifs basés sur du texte. Ces deux outils s’appuient sur l’IA pour analyser et transformer des documents existants – tels que des textes, des images et des vidéos – en formats interactifs et attrayants.

Nous avons testé chacun de ces outils, afin de mieux comprendre leurs capacités et limites : le premier test avec H5P Smart Import utilise une vidéo YouTube de trente minutes d’une présentation destinée à un large public, et le deuxième test avec Nolej a été effectué avec une vidéo de trois minutes sur une technique particulière d’imagerie numérique. Les résultats sont similaires.

Présentation des outils: H5P Smart Import et Nolej

En matière de personnalisation, H5P Smart Import et Nolej offrent des ajustements de base, avec Nolej proposant des options avancées. Les deux outils s’intègrent facilement aux principales plateformes LMS (Moodle, Canvas, Blackboard), rendant leur utilisation dans divers environnements pédagogiques simple. H5P Smart Import est particulièrement efficace pour les contenus structurés, tandis que Nolej excelle avec des supports plus variés et favorise la collaboration entre enseignant-es. 

Pour l’accès, H5P Smart Import propose une période d’essai de 30 jours, alors que Nolej permet un essai de 10 jours pour créer jusqu’à trois modules d’apprentissage. Avec H5P Smart Import les contenus générés sont réutilisables, mais nécessitent un abonnement pour un accès permanent après l’essai, alors que sur Nolej ils restent visibles même sans abonnement. En termes de langues, H5P Smart Import est limité à l’anglais, tandis que Nolej est disponible en plusieurs langues, avec des variations d’efficacité selon la complexité. 

Ces outils conviennent à un large éventail d’enseignant-es, du primaire au supérieur, et sont adaptés à différents types d’enseignement, y compris la formation professionnelle. Il est recommandé de posséder des compétences numériques de base pour les intégrer efficacement dans la pratique éducative. 

En conclusion, H5P Smart Import et Nolej offrent des solutions complémentaires pour créer des activités interactives, répondant aux besoins variés des enseignant-es  selon la nature et la complexité des contenus pédagogiques. 

Pour tester ces outils, nous avons réalisé un essai avec H5P Smart Import et un autre avec Nolej. Les résultats se sont avérés très similaires pour les deux outils. Cependant, comme H5P Smart Import nécessite un abonnement pour partager les résultats, nous n’avons pas pu les diffuser et avons donc réutilisé les résultats obtenus via Nolej. Pour ces tests, nous avons utilisé deux ressources différentes : une conférence de 30 minutes et une vidéo YouTube de 3 minutes. Nous allons présenter ici le déroulement des tests, les résultats obtenus, ainsi qu’une analyse et des commentaires sur chaque étape. 

Test avec H5P Smart Import

1. Contexte et ressources utilisées

Suite à une démonstration convaincante de l’équipe de H5P, les auteur-es ont obtenu un accès temporaire pour tester les fonctionnalités de Smart Import avec des collègues. Pour cette évaluation, un extrait de vidéo d’une conférence de 30 minutes en anglais a été sélectionné : il s’agit d’une présentation sur un MOOC visant à préserver une écriture en voie de disparition intitulée Teaching an Endangered Script through MOOC. Cette ressource a été choisie afin d’évaluer la capacité de H5P Smart Import à générer des activités pédagogiques interactives à partir d’un contenu à la fois long et complexe. Dans cette vidéo, l’auteure aborde plusieurs points clés : 

  • Écriture Dongba : un patrimoine culturel unique.
  • Objectif du MOOC : sensibilisation et préservation de la culture Naxi.
  • Scénarisation du cours : une approche pédagogique interactive.
  • Enseignement multilingue : promotion du plurilinguisme et de la diversité culturelle.
  • Défis de conception : standardisation et accessibilité de l’écriture.
  • MOOCs comme plateformes de recherche : vers une science citoyenne.

2. Déroulement et résultat

Les auteur-es ont utilisé Smart Import pour convertir la vidéo en transcription textuelle. Une relecture humaine a permis de corriger les éventuelles erreurs, garantissant ainsi la qualité du texte de base. À partir de ce contenu corrigé, Smart Import a généré huit types d’activités d’apprentissage, incluant une vidéo interactive avec mots-clés et questions, un quiz, un glossaire, une carte de concepts, une activité glisser-déposer, des flashcards, ainsi qu’un résumé. Ces activités ont ensuite été partagées avec des collègues, invité-es à les compléter et à donner leur avis.

Cliquez ici pour voir vers le contenu créé (lien vers le site Nolej pour les raisons mentionnées plus haut).

3. Analyse des résultats d’utilisation

Points positifs:  

  • Qualité de la transcription : la transcription automatique de la vidéo est généralement précise, mais nécessite une relecture humaine pour assurer sa fiabilité.
  • Pertinence des mots-clés : les mots-clés proposés sont pertinents et enrichis d’explications claires, comme Cultural heritage, Didactic principles, Dongba script, Endangered languages, Hieroglyph instructional design, MOOC, Multilingual interface, Naxi ethnic group, Scripts, et World Endangered Writing Day.
  • Qualité des exercices de compréhension : les exercices tels que les quiz, flashcards et activités de glisser-déposer sont efficaces pour renforcer les connaissances factuelles basées sur le texte, facilitant ainsi la révision des concepts clés. 

Points à améliorer: 

  • Répétition : les activités générées présentent parfois des redondances, certaines questions se répétant dans les quiz. Cette redondance est également fréquente dans les mots-clés, le glossaire et les flashcards.
  • Incohérence dans les réponses proposées : des divergences existent entre les réponses attendues dans différents types d’exercices. Par exemple, pour la question « What is the goal of the MOOC? », la réponse dans le quiz est “To preserve and revitalize the ancient Dongba script and Naxi Dongba culture”, tandis que la carte de concept indique que “The MOOC aims to explore the role of multilingualism in preserving and transmitting endangered languages and scripts and its potential impact could revolutionize attitudes and practices towards language conservation.”
  • Feedback erroné : certains retours automatiques sont inexacts, proposant des réponses ou explications incorrectes. Sur la même question « What is the goal of the MOOC? », des informations fournies sont inexactes.
  • Questions ouvertes manquantes : l’absence de questions ouvertes dans les exercices limite l’apprentissage à un niveau très basique, ne permettant pas de développer des compétences de réflexion critique.

4. Conclusion

Les résultats indiquent que H5P Smart Import est efficace pour générer des activités d’apprentissage basées sur le texte, en particulier pour l’acquisition de connaissances déclaratives. L’outil renforce la maîtrise des concepts clés en intégrant ces éléments de manière répétée dans les activités proposées. Cependant, certaines limites demeurent. H5P Smart Import n’est pas encore en mesure de générer des questions ouvertes stimulant une réflexion critique, ni de concevoir des distracteurs complexes dans les questions à choix multiples, ou de faciliter l’apprentissage collaboratif. De plus, l’outil ne prend actuellement en charge que des contenus en langue anglaise, ce qui souligne la nécessité d’ajouter d’autres langues pour accroître l’accessibilité et l’utilité de l’outil. 

Test avec Nolej

1. Contexte et ressources utilisées 

La vidéo servant de base au test avec Nolej a été présentée dans le cadre d’un cours sur les techniques d’imagerie numérique (niveau universitaire) destiné aux étudiant-es en humanités numériques, actifs/ves dans toutes les branches où des objets sont impliqués (archéologie, histoire de l’art, manuscrits, etc.).  Différents types d’imagerie sont passés en revue et testés, afin de connaître leurs spécificités et leurs utilisations pratiques, dans le but de pouvoir ensuite appliquer la technique la plus appropriée dans le contexte de la recherche.   

La vidéo utilisée présente l’une de ces techniques, la RTI (Reflectance Transformation Imaging), et son application à l’archéologie. Il s’agit d’une vidéo faisant la publicité d’un outil commercial et les étudiant-es sont invité-es à garder un œil critique en la visionnant.   

Il ne s’agit donc pas d’une vidéo de cours, mais d’une vidéo de démonstration (ce qui n’a aucune incidence sur les résultats du test). La vidéo est visionnée après une introduction théorique sur la RTI et son fonctionnement, pour les raisons suivantes :  

  • Elle présente visuellement un outil spécifique pour la RTI : composants, manipulation de l’équipement, mise en place, etc.  
  • Elle montre l’outil en cours d’utilisation.  
  • Elle présente les résultats obtenus.  
  • Elle présente l’utilité et l’intérêt de photographier des objets avec cet outil et cette technique (sans toutefois en mentionner les limites). 

  2. Déroulement et résultat 

La première étape a consisté en l’utilisation de Nolej pour convertir la vidéo en transcription textuelle. Comme pour Smart Import, une relecture humaine a été nécessaire enlever les quelques erreurs de transcription. C’est à partir de ce contenu corrigé, que Nolej a généré des activités d’apprentissage, vidéo interactive, cartes conceptuelles, quiz, drag the word, flashcard, ainsi qu’un glossaire, des points clés et un résumé. Nolej a proposé également des contenus supplémentaires : mots croisés, mots secrets, idées d’apprentissage par projet.  

Cliquez ici pour voir le contenu créé.

 3. Analyse des résultats d’utilisation 

 Points positifs: 

  • Qualité de la transcription : la transcription automatique de la vidéo est généralement précise, mais nécessite une relecture humaine pour assurer sa fiabilité.
  • Qualité de certains exercices de compréhension : les quiz et les flashcards, basés sur des phrases entières de la transcription et non sur des mots clés étaient satisfaisants, même si limités en raison de la brièveté de la vidéo.
  • Idées d’apprentissage par projet : trois des quatre suggestions étaient intéressantes. 

Limites et points d’amélioration : 

  • Mots-clés et redondance : les mots clés retenus par l’AI sont trop basiques et généraux, alors que d’autres termes cités dans la vidéo auraient été plus importants et plus appropriés. Il en découle que toutes les activités créées à partir des mots clés (redondance) étaient peu pertinentes (vidéo interactive, glossaire, cartes conceptuelles, drag the word, mots croisés, mots secrets). .
  • Questions ouvertes manquantes : aucune proposition de questions ouvertes, nécessitant analyse et réflexion (par exemple: quelles sont les caractéristiques communes des objets soumis à la RTI, la technique s’applique-t-elle ou est-elle utile à tout objet archéologique, etc.)
  • Limites liées à la reconnaissance du texte uniquement : l‘IA étant basée sur du texte, il manque au cours interactif proposé un ensemble de questions à explorer sur ce qui est montré dans la vidéo et qui peut être tout aussi important que le discours en termes d’objectifs de visionnage (par exemple : la taille et les composants de l’équipement, l’environnement dans lequel la RTI est réalisée, la taille et les caractéristiques des objets traités, etc.) 

 4. Conclusion  

Nolej est un outil efficace, mais il est préférable de générer le texte de base soi-même, en y intégrant les mots-clés et les concepts dont les étudiant-es doivent se saisir. Le modèle d’apprentissage de cette IA est encore basique, ne correspondant qu’au premier niveau de la taxonomie de Bloom. 

Un défaut majeur est que l’IA n’analyse pas les images et ne génère donc pas de mots-clés ou de quiz sur ce qui est montré dans une vidéo, alors que de nombreux domaines d’études comportent des apprentissages liés à un ensemble de gestes à pratiquer ou des items à observer.  

Enfin, les questions de réflexion et d’analyse ainsi que les questions ouvertes sont totalement absentes. 

 

Conclusion

Les résultats ont révélé que ces deux outils généraient efficacement de nombreuses activités d’enseignement basées sur le texte, améliorant principalement l’apprentissage des connaissances déclaratives. Ils ont notamment amélioré la maîtrise et la compréhension des concepts clés en augmentant leur fréquence dans les activités. Cependant, des limites ont été identifiées, par exemple l’incapacité de générer des questions ouvertes nécessitant une réflexion critique, ou d’incorporer des distracteurs approfondis dans les questions à choix multiples, ou de faciliter l’apprentissage collaboratif. De plus, ces outils ne permettent pas de développer des activités sur des objets visuels, ce qui en limite la portée dans de nombreux domaines. En outre, la version actuelle Smart Import ne prend en charge que les ressources en langue anglaise, d’autres langues devant encore être développées.  

Grâce à cet essai, les avantages d’un moteur d’IA ont pu être reconnus, de même que son potentiel pour augmenter de manière significative la productivité dans la création de contenu d’apprentissage interactif basé sur le texte et pour améliorer l’accessibilité. Simultanément, le test a permis d’acquérir une meilleure compréhension des risques, en particulier des préoccupations concernant l’étouffement de la créativité et la nécessité d’une intervention humaine pour maintenir l’intégrité pédagogique. 

Questions pour le futur...?

Il est clair cependant que l’utilisation de ces outils d’IA dans la conception pédagogique interpelle et ce, à plusieurs niveaux. Par exemple, dans quelle mesure les contenus d’apprentissage interactifs créés par des outils d’IA seront-ils crédibles dans un environnement universitaire ? Ou encore, comment trouver un équilibre entre l’automatisation et la créativité dans la conception des contenus d’apprentissage ? Lors de l’intégration d’outils d’IA tels que Smart Import dans la conception pédagogique, où les rôles humains ne peuvent-ils pas être remplacés par l’IA ?  

Le test effectué et ses résultats invitent à la réflexion sur l’évolution du rôle de l’IA dans l’élaboration future de la création de contenus d’apprentissage intelligents.