• Intelligence Artificielle Générative à l'UNIGE
    Guide d'utilisation de l'intelligence artificielle générative à l'Université de Genève
  • Makeiteasy
    Une plateforme pour tester et améliorer vos compétences numériques à votre rythme
  • Ciel cherche: rédacteurs/trices

Catégorie : Usages pédagogiques

Billet dont l’orientation est clairement pédagogique.


Vers des LLM institutionnels ? Repenser l’intégration de l’IA à l’université

L’arrivée des grands modèles de langage (LLM) dans l’enseignement supérieur a d’abord pris la forme d’un choc : celui de l’irruption d’outils commerciaux facilement accessibles comme ChatGPT dans les pratiques étudiantes. Très rapidement, les universités ont été confrontées à une double tension : d’un côté, l’opportunité pédagogique, de l’autre, les enjeux d’intégrité académique, de protection des données et d’alignement curriculaire. Une question taraude les universités : faut-il interdire, tolérer, encadrer … ou intégrer ?

Alors que beaucoup d’établissements se contentent de publier des recommandations, certaines universités ont fait un choix stratégique : elles ont développé leur propre environnement institutionnel d’intelligence artificielle générative, s’appuyant sur des modèles de langage existants.

C’est le cas de l’Open University avec i-AIDA, et de l’Université d’ Amsterdam avec UvA AI Chat. Il ne s’agit pas pour ces institutions d’avoir entraîné leur propre modèle fondationnel, mais d’avoir conçu une couche applicative et pédagogique qui encapsule un LLM existant dans un cadre maîtrisé (données, accès, intégration aux cours, gouvernance).

Leur point commun ? Faire du LLM non pas un outil périphérique, mais une infrastructure pédagogique institutionnelle.

Reprendre la main : et si l’IA devenait un outil didactique comme les autres ?

Les modèles commerciaux sont puissants, mais posent plusieurs questions : où vont les données? Comment sont traités les prompts? Les réponses sont-elles alignées avec les contenus de cours? Comment garantir l’intégrité académique?

Dans les deux cas présentés ci-dessous, le développement interne répond à quatre objectifs communs : la souveraineté numérique, la protection des données, l’alignement pédagogique, l’accès équitable et gratuit. Autrement dit, il ne s’agit pas seulement d’offrir un chatbot, mais de concevoir des dispositifs pédagogiques appuyés sur l’IA, tout en créant un environnement contrôlé et intégré à l’écosystème universitaire.

La maîtrise ne porte pas sur l’entraînement du modèle lui-même, mais sur son orchestration : intégration aux contenus de cours, contrôle des flux de données, paramétrage des usages pédagogiques et gouvernance institutionnelle. Cette distinction est essentielle. La souveraineté reste partielle — le modèle fondationnel demeure externe — mais la maîtrise porte sur l’organisation, l’accès, les données et l’usage pédagogique. Pour la plupart des universités, c’est un compromis réaliste entre autonomie totale (très coûteuse) et dépendance complète aux outils commerciaux.

Deux approches complémentaires

  • Le modèle expérimental : i-AIDA (Open University)

À l’Open University, l’assistant a été co-construit pendant 13 mois selon une approche de Design-Based Research (Easterday et al., 2014). L’étude de bêta-test (18 étudiant-es) montre un résultat frappant : les étudiant-es initialement sceptiques deviennent majoritairement positifs après usage. L’analyse mobilise notamment le Technology Acceptance Model (Davis, 1989 ; Venkatesh & Bala, 2008), qui souligne l’importance de la perceived usefulness (utilité perçue) et de la perceived ease of use (facilité d’utilisation perçue). Un élément déterminant ressort : la confiance institutionnelle. Les étudiant-es valorisent le fait que l’outil soit développé et encadré par leur université.

L’architecture repose sur l’incorporation de contenus de cours, permettant de contraindre les réponses du modèle à un corpus académique défini, ce qui limite les risques d’hallucination et renforce la pertinence pédagogique.

  • Le modèle stratégique : UvA AI Chat

À l’Université d’Amsterdam, l’approche est davantage infrastructurelle. UvA AI Chat est conçu comme un service institutionnel généralisé: il fonctionne à travers des “personas” spécialisés (par exemple pour le feedback rédactionnel) et s’intègre dans un environnement en ligne institutionnel. L’accent est mis sur le principe Pedagogy first (la pédagogie avant tout), caractérisé par l’alignement sur les learning outcomes, l’usage formatif, et la mise à disposition de modules d’apprentissage sur la littéracie IA. Dix-neuf pilotes disciplinaires ont permis d’observer une valeur ajoutée perçue, notamment pour l’entraînement à l’écriture académique et la préparation aux séminaires, ainsi qu’une réduction des questions répétitives.

Dans les deux cas, le principe est explicite : l’IA doit servir les apprentissages — pas les court-circuiter.

Ce que révèlent ces deux expériences : opportunité pédagogique …et vigilance critique !

  • L’acceptation ne va pas de soi

Même dans un cadre institutionnel, l’adoption nécessite formation des enseignant-es, communication claire et intégration pédagogique explicite. Le déploiement technique ne suffit pas. De pus, les pilotes montrent des réserves : certain-es enseignant-es et étudiant-es expriment une méfiance vis-à-vis des réponses générées, malgré le cadre institutionnel.

  • Le LLM change la nature du soutien académique

L’analyse des prompts (Open University) révèle principalement trois usages: soutien méthodologique, clarification de contenu, aide pour les questions administratives, ainsi que des usages hors sujet. Autrement dit, les étudiants utilisent le LLM comme un tuteur, un coach, un service FAQ et parfois un moteur de recherche. Le LLM institutionnel devient un méta-service académique.

  • Le risque n’est pas seulement l’intégrité académique

Une tension plus subtile apparaît : le risque d’acceptation non critique des réponses. Comme le rappellent plusieurs travaux récents sur l’IA en éducation (Zawacki-Richter et al., 2019 ; Holmes et al., 2022), la question n’est pas seulement “peut-on tricher ?”, mais « comment préserver l’autonomie cognitive et l’esprit critique ? ».

Les universités étudiées insistent donc sur l’alignement du LLM sur les objectifs d’apprentissage, sur la littéracie IA, et sur le rôle complémentaire de l’IA.

  • Quels changements pour les enseignants ?

Les expérimentations montrent des aspects positifs : amélioration rapide des brouillons grâce au feedback immédiat, meilleure préparation aux séminaires et réduction des questions répétitives. Mais ces bénéfices n’apparaissent que lorsque l’usage est pédagogiquement scénarisé : modifier une évaluation pour “éviter la triche” ne suffit pas. Repenser les compétences visées (analyse, argumentation, esprit critique, capacité à collaborer avec l’IA) est plus fécond.

Un enjeu stratégique

Mais développer une infrastructure institutionnelle d’intégration des LLM n’est pas neutre. Cela implique des coûts de maintenance, de soutien pédagogique, de gouvernance des données et de suivi de l’évolution rapide des modèles.

Ces initiatives illustrent cependant aussi un enjeu plus large : la dépendance exclusive aux outils commerciaux peut fragiliser l’autonomie académique, alors qu’investir dans une infrastructure institutionnelle d’intégration de l’IA permet de structurer une politique numérique cohérente, d’harmoniser les pratiques, de renforcer l’équité d’accès et de créer une base d’innovation pédagogique.

Conclusion : une étape vers l’“Éducation 5.0” ?

Les initiatives de l’Open University et de l’Université d’Amsterdam montrent que l’intégration institutionnelle des LLM a commencé. Nous ne sommes plus dans la réaction face aux outils publics, mais dans la construction d’une souveraineté pédagogique numérique: si on ne peut pas posséder le modèle, il faut en maîtriser l’utilisation par l’intégration.

La question n’est plus : les étudiant·es utiliseront-ils l’IA ? Mais plutôt : quelle place voulons-nous lui donner dans l’architecture pédagogique de l’université ?

Les prochaines années — et l’analyse des usages à plus grande échelle — permettront d’en mesurer les effets structurels.

Bibliographie

i-AIDA (Open University) : 

Rienties, B., Ullmann, T., Tessarolo, F., Kwarteng, J., Domingue, J., Coughlan, T., Coughlan, E., & Bektik, D. (2025). Developing an Institutional AI Digital Assistant in an Age of Industry 5.0. Applied Sciences, 15(12), 6640. https://doi.org/10.3390/app15126640

UvA AI Chat : 

Pompe, M. (January 2026). Building UvA AI chat: why we built our own GenAI tool and what we learned, , https://media-and-learning.eu/subject/artificial-intelligence/building-uva-ai-chat-why-we-built-our-own-genai-tool-and-what-we-learned/ (consulté le 2 mars 2026)

Stoop, P. (January 2025). UvA created its own ChatGPT for students and teachers. Is it safer than the original? https://www.folia.nl/en/actueel/164740/uva-created-its-own-chatgpt-for-students-and-teachers-is-it-safer-than-the-original (consulté le 2 mars 2026)

 

Davis, F. D. (1989). Perceived usefulness, perceived ease of use, and user acceptance of information technology. MIS Quarterly, 13(3), 319–340.

Easterday, M. W., Rees Lewis, D., & Gerber, E. M. (2014). Design-based research process: Problems, phases, and applications. International Journal of Designs for Learning, 5(2).

Holmes, W., Bialik, M., & Fadel, C. (2022). Artificial Intelligence in Education: Promises and Implications for Teaching and Learning. Center for Curriculum Redesign.

Venkatesh, V., & Bala, H. (2008). Technology Acceptance Model 3 and a research agenda on interventions. Decision Sciences, 39(2), 273–315.

Zawacki-Richter, O., Marín, V. I., Bond, M., & Gouverneur, F. (2019). Systematic review of research on artificial intelligence applications in higher education. International Journal of Educational Technology in Higher Education, 16(39).

 

Lire aussi le billet de blog Ciel: Pas besoin de ChatGPT pour ça!



Lectures collaboratives pour l’enseignement

Une difficulté souvent rencontrée dans des enseignements pour lesquels une appropriation de connaissances provenant d’un parcours pédagogique de lectures est nécessaire, est représentée par la nature souvent variable de l’engagement des participants. Ceci peut-être d’autant plus problématique s’il est proposé de conduire une discussion en classe sur ces lectures et que le travail de lecture n’a pas été effectué avant les séances.

Après avoir essayé plusieurs techniques telles que des fiches de lectures individuelles ou en groupes, évaluées ou non, l’idée d’utiliser un canevas numérique collectif offre une certaine amélioration dans le processus. Les résultats restent somme toute assez variables et dépendent encore grandement de l’engagement des étudiants. Mais globalement la participation et l’engagement semblent meilleurs.

L’idée consiste à intégrer progressivement les lectures dans un canevas numérique graphique et de demander aux participants, organisés en groupes, de relever sous forme de notes les éléments saillants et importants de chaque article dans un espace de groupe propre. Les lectures sont organisées selon un parcours pédagogique établi par l’enseignant et suivant un fil rouge (pointillés rouges dans le canevas d’exemple). Dans le cas d’exemple, nous utilisons Miro (https://miro.com/)

De façon opérationnelle, l’initialisation de la démarche consiste à lancer la formation des groupes par l’intermédiaire d’un LMS (e.g., Moodle). Dans le cas d’exemple, il s’agissait d’un cours d’environ 25 participant-es. Il a été convenu de faire des groupes de 4 à 5 personnes.

Pour chaque lecture, l’article est annoncé et mis à disposition sur le canevas et ouvert pour le travail de lecture collaborative. Les participant-es s’organisent comme ils/elles veulent. Chaque groupe effectue le travail en préparation de la séance de discussion. Pour chaque papier, un groupe est responsable de lancer la discussion. Les autres groupes participent pour compléter, réagir, poser des questions. L’enseignant-e assure la modération et intervient pour appuyer, renforcer et compléter selon son expérience. La durée de l’échange peut-être très variable selon l’intérêt et la qualité des discussions.

Une propriété intéressante de l’approche réside dans l’ouverture. Tou-tes les participant-es ont accès au même espace, ce qui offre l’avantage de pouvoir observer le travail des autres groupes et ainsi remarquer d’autres éléments lors de la préparation.

Un canevas d’exemple dans le cadre d’un cours de Système d’Information d’Entreprise est proposé comme illustration en suivant le lien ci-dessous :
https://miro.com/app/board/uXjVLh7hXog=/?share_link_id=207022290125

Vous pouvez commenter, suggérer, critiquer et partager en ajoutant des notes dans le canevas. N’hésitez pas à laisser des liens en commentaires y compris sur vos propres espaces afin d’étendre les exemples et de partager nos expériences.

Jean-Henry Morin, professeur, CUI/SDS



Une analyse de l’évolution du recours aux examens numérique à l’UNIGE

Pendant la période de confinement causée par l’épidémie de COVID 19, les universités ont dû transformer radicalement la manière dont elles dispensaient les cours et organisaient les examens. Nombre d’entre elles ont opté pour un enseignement et une évaluation entièrement en ligne. Même les enseignant-es les plus réticent-es ont dû, du jour au lendemain, adapter leurs pratiques d’évaluation des connaissances et d’examen aux méthodes en ligne. Cette transition s’est faite dans l’urgence et le passage aux examens en ligne a souvent consisté à réutiliser des méthodes traditionnelles et à les adapter de manière ad hoc et empirique aux outils de communication à distance disponibles.

À l’Université de Genève, bien avant l’épidémie de COVID, une infrastructure et un service de soutien permettant aux enseignant-es d’organiser leurs examens en ligne sur une base volontaire avaient été mis en place. Cependant, cette infrastructure a rapidement été renforcée afin de garantir l’organisation de tous les examens à distance pendant l’épidémie.

Après cette période, il semble intéressant de voir comment les pratiques ont évolué une fois que tout le monde a été systématiquement exposé aux examens en ligne et informatisés. Sommes-nous revenus aux méthodes d’examen traditionnelles de l’ère pré-Covid dans une forme de réaction épidermique de rejet de cette période ? Sommes-nous passés à une adoption massive et volontaire des modalités en ligne ? Dans la suite de ce billet, nous proposons de fournir quelques éléments d’analyse de la situation actuelle au sein de l’Université de Genève. Nous présentons ici l’évolution du nombre d’examens réalisés sur ordinateur avant, pendant et après le COVID et des résultats d’un questionnaire mené auprès d’une population d’enseignant-es sur leurs pratiques post-COVID des examens numériques.

Infrastructure de soutien aux examens numériques à l'UNIGE

Infrastructure de soutien aux examens numériques à l’UNIGE

L’Université de Genève a décidé de mettre à disposition des enseignants une infrastructure de soutien institutionnel pour la réalisation de leurs examens sous forme numérique en 2014. Une partie de cette infrastructure est déployée sous la forme d’un environnement numérique, basé sur le Learning Management System (LMS) Moodle, et en particulier les activités d’évaluation qui y sont proposées, telles que les tests ; sur le navigateur web sécurisé : SEB (Safe Exam Browser), qui est un navigateur open source permettant de prendre le contrôle d’un ordinateur et de définir les ressources locales et en ligne auxquelles l’utilisateur aura accès, et enfin une infrastructure de bureau virtuel. Cet environnement numérique flexible permet de mettre en place plusieurs types de scénarios d’examens numériques, soit sur les ordinateurs de l’institution, soit sur l’équipement des étudiants. L’organisation de l’environnement numérique d’examen est illustrée à la figure 1.

Figure 1 . Organisation de l’environnement d’examens numériques institutionnel

L’infrastructure est complétée par le soutien humain d’une petite équipe de techniciens qui développent et maintiennent l’environnement numérique. Cette équipe de support propose également des formations à la demande et développe une gamme de ressources pour permettre aux enseignants de créer les scénarios d’examens numériques qu’ils souhaitent. L’équipe de support peut également fournir une assistance et des conseils sur la mise en œuvre et être présente lors des examens. Pour faciliter l’appropriation de l’infrastructure, un certain nombre de scénarios types couvrant un large éventail de besoins ont été développés et documentés. La promotion des évaluations numériques repose sur la viralité des expériences personnelles développées par les adopteurs précoces, qui sont constamment à la recherche d’améliorations qu’ils peuvent introduire dans leurs pratiques d’enseignement. Leurs expériences sont documentées et publiées pour servir de modèles à d’autres enseignants. La promotion est également basée sur la sensibilisation directe des facultés et des enseignants par le biais de présentations données par l’équipe de soutien.

Au moment de la pandémie, l’Université de Genève a pris la décision de basculer tous les examens en ligne, en renforçant l’infrastructure existante pour la transposition des examens écrits et en utilisant la plateforme de vidéoconférence Zoom pour les examens oraux. Pour les examens à distance, il a été décidé de ne pas utiliser les technologies de surveillance. Les changements apportés à l’infrastructure de support ont impliqué l’installation et le déploiement d’instances supplémentaires du LMS Moodle sur un cluster de serveurs renforcés et optimisés, dédiés uniquement aux examens. Les instances Moodle ont également été optimisées pour assurer la meilleure qualité de service possible pendant les examens. Le rectorat et les facultés ont été particulièrement impliqués dans le déploiement des ressources et la coordination avec les enseignants. Les facultés ont fait appel à du personnel dédié qui a joué le rôle d’intermédiaire entre l’équipe de support général et les enseignants des facultés.

Après la pandémie et le retour à l’enseignement présentiel, l’Université de Genève a maintenu l’infrastructure numérique de soutien aux examens qui avait été déployée pendant la pandémie. Certaines facultés ont également maintenu une personne ressource pour fournir un soutien direct à leurs enseignants et agir en tant qu’intermédiaire avec l’équipe de soutien global.

Analyse de l’évolution du nombre d’examens numériques

Analyse de l’évolution du nombre d’examens numériques

Figure 2 . Progression du nombre d’examens passés au cours des années académiques selon les 3 modalités principales (BYOD en bleu : sur l’équipement des étudiants sur le campus de l’Université ; INSTIT en rouge : sur les ordinateurs de l’Université, DISTANCE en vert : à distance sur l’équipement des étudiants)

La figure 2 montre l’évolution du nombre d’examens réalisés au cours des années académiques selon les trois principales méthodes soutenues par l’infrastructure institutionnelle :
• Bring Your Own Device (BYOD, en bleu) : sur l’équipement des étudiants sur le campus de l’université.
• Sur les ordinateurs de l’université (INSTIT, en rouge).
• À distance sur l’équipement des étudiants (DISTANCE, en vert).

Il ressort de l’observation de ce graphique, que le retour à la normale à la suite de la crise pandémique n’a pas conduit à un retour à la situation initiale en termes d’utilisation des examens numériques. On peut donc en déduire que la période d’urgence mise en place et l’expérience vécue pendant la pandémie de COVID ont eu un impact significatif sur l’utilisation des examens numériques. On constate aussi que le changement post-COVID constaté se démarque de ce qui a pu s’observer pendant la période de confinement. Cette évolution est encore plus remarquable si l’on considère une nouvelle méthode d’examen introduite durant l’année académique 2021/22 sur Moodle, les quiz offline, en réponse à une demande des enseignants à la suite de leurs expériences pendant la période de confinement. Il s’agit d’un système qui permet de passer des tests sur Moodle, d’imprimer divers documents pour passer les tests sur papier en salle, puis de corriger automatiquement les tests sur Moodle après avoir numérisé les feuilles de réponses des élèves. Cette modalité vient s’ajouter aux 3 déjà disponibles qui sont représentées dans la figure 2 et elle est en forte augmentation depuis sa mise à disposition.

Si l’on considère les 3 périodes, pré-COVID, COVID et post-COVID, on constate que les tendances à l’intérieur de chaque période sont cohérentes. Pendant la période pré-COVID, les modalités sont très peu utilisées, ce qui correspond principalement à une utilisation par des enseignants motivés. On observe le pic de la modalité distance et la disparition des autres modalités pendant la période COVID. Enfin, pour la période post-COVID, on observe une diminution globale du nombre d’examens numériques, mais une augmentation considérable par rapport à la période pré-COVID, avec un glissement principalement vers les modalités institutionnelles et quiz offline. Parallèlement, les modalités BYOD et à distance restent très faibles, et on constate même qu’elles ont tendance à diminuer au fil du temps.

Analyse des freins au recours aux examens numériques par les enseignants

Analyse des freins au recours aux examens numériques par les enseignants

Une étude des pratiques post-COVID concernant les examens numériques a été menée auprès d’une population d’enseignants de l’Université de Genève. L’étude a consisté en un questionnaire. Les données ont été collectées de manière anonyme. Le questionnaire a été envoyé à 36 enseignants et 24 réponses ont été reçues. Toutes les méthodes d’examen numérique sont représentées dans cet échantillon. Il couvre des classes allant de 30 à plus de 400 élèves.

Figure 3 . Réponses des enseignants concernant les obstacles à la transition des examens vers le mode numérique

La figure 3 montre les résultats concernant les obstacles identifiés par les enseignants qui les empêchent de passer un examen en mode numérique. Il y a 4 grandes catégories de réactions pour lesquelles le schéma des réponses est similaire. Tout d’abord, la zone 1, qui correspond à la seule question concernant le manque de familiarité avec l’informatique. On constate que ce n’est un obstacle pour personne. Ceci est probablement dû au fait que la période COVID a obligé tout le monde à se familiariser avec l’informatique, même les plus réfractaires. La zone 2 correspond aux obstacles qu’engendrerait l’utilisation de Moodle pour la réalisation de l’examen : la production de l’examen, la réalisation et la surveillance de l’examen et enfin la correction de l’examen. Là encore, on constate que ces blocages ne sont pas très forts, ce qui est probablement le résultat de l’utilisation forcée de Moodle durant la période COVID. La zone 3 correspond à des causes de blocage encore fortes liées à l’exécution de l’examen et qui sont particulièrement importantes pour les examens sur le campus. On constate que ces points ont sans doute été des points critiques difficilement maîtrisables et pour lesquels les enseignants souhaiteraient un soutien. Enfin, la dernière zone, 4, correspond à un critère de blocage auquel tous les enseignants ont été confrontés pendant la période COVID et pour lequel ils ont sans doute constaté qu’ils n’avaient pas ou trop peu de contrôle : la tricherie.

Pour conclure la présentation de ces différents éléments, on peut avancer que pour l’Université de Genève, la période de confinement due au COVID et le passage aux examens à distance, a impacté la pratique actuelle vis-à-vis des examens sur ordinateur. On peut avancer l’hypothèse que cette évolution est probablement due au fait qu’elle a forcé toute la communauté enseignante et les facultés à s’exposer à la mise en place et à l’utilisation des examens sous une forme numérique.

Omar Benkacem, Allan Bowman, André Camacho, Laurent Moccozet, Patrick Roth 



L’ «importation intelligente / Smart Import» peut-elle créer un contenu d’apprentissage intelligent ?

Article proposé par la Dre Jue Wang Szilas et la Dre Patrizia Birchler Emery, CFCD

Ce billet explore le potentiel pédagogique des moteurs d’intelligence artificielle Smart Import et Nolej.

H5P Smart Import et Nolej sont des solutions innovantes en matière de conception pédagogique assistée par l’IA, en particulier pour la création de contenus d’apprentissage interactifs basés sur du texte. Ces deux outils s’appuient sur l’IA pour analyser et transformer des documents existants – tels que des textes, des images et des vidéos – en formats interactifs et attrayants.

Nous avons testé chacun de ces outils, afin de mieux comprendre leurs capacités et limites : le premier test avec H5P Smart Import utilise une vidéo YouTube de trente minutes d’une présentation destinée à un large public, et le deuxième test avec Nolej a été effectué avec une vidéo de trois minutes sur une technique particulière d’imagerie numérique. Les résultats sont similaires.

Présentation des outils: H5P Smart Import et Nolej

En matière de personnalisation, H5P Smart Import et Nolej offrent des ajustements de base, avec Nolej proposant des options avancées. Les deux outils s’intègrent facilement aux principales plateformes LMS (Moodle, Canvas, Blackboard), rendant leur utilisation dans divers environnements pédagogiques simple. H5P Smart Import est particulièrement efficace pour les contenus structurés, tandis que Nolej excelle avec des supports plus variés et favorise la collaboration entre enseignant-es. 

Pour l’accès, H5P Smart Import propose une période d’essai de 30 jours, alors que Nolej permet un essai de 10 jours pour créer jusqu’à trois modules d’apprentissage. Avec H5P Smart Import les contenus générés sont réutilisables, mais nécessitent un abonnement pour un accès permanent après l’essai, alors que sur Nolej ils restent visibles même sans abonnement. En termes de langues, H5P Smart Import est limité à l’anglais, tandis que Nolej est disponible en plusieurs langues, avec des variations d’efficacité selon la complexité. 

Ces outils conviennent à un large éventail d’enseignant-es, du primaire au supérieur, et sont adaptés à différents types d’enseignement, y compris la formation professionnelle. Il est recommandé de posséder des compétences numériques de base pour les intégrer efficacement dans la pratique éducative. 

En conclusion, H5P Smart Import et Nolej offrent des solutions complémentaires pour créer des activités interactives, répondant aux besoins variés des enseignant-es  selon la nature et la complexité des contenus pédagogiques. 

Pour tester ces outils, nous avons réalisé un essai avec H5P Smart Import et un autre avec Nolej. Les résultats se sont avérés très similaires pour les deux outils. Cependant, comme H5P Smart Import nécessite un abonnement pour partager les résultats, nous n’avons pas pu les diffuser et avons donc réutilisé les résultats obtenus via Nolej. Pour ces tests, nous avons utilisé deux ressources différentes : une conférence de 30 minutes et une vidéo YouTube de 3 minutes. Nous allons présenter ici le déroulement des tests, les résultats obtenus, ainsi qu’une analyse et des commentaires sur chaque étape. 

Test avec H5P Smart Import

1. Contexte et ressources utilisées

Suite à une démonstration convaincante de l’équipe de H5P, les auteur-es ont obtenu un accès temporaire pour tester les fonctionnalités de Smart Import avec des collègues. Pour cette évaluation, un extrait de vidéo d’une conférence de 30 minutes en anglais a été sélectionné : il s’agit d’une présentation sur un MOOC visant à préserver une écriture en voie de disparition intitulée Teaching an Endangered Script through MOOC. Cette ressource a été choisie afin d’évaluer la capacité de H5P Smart Import à générer des activités pédagogiques interactives à partir d’un contenu à la fois long et complexe. Dans cette vidéo, l’auteure aborde plusieurs points clés : 

  • Écriture Dongba : un patrimoine culturel unique.
  • Objectif du MOOC : sensibilisation et préservation de la culture Naxi.
  • Scénarisation du cours : une approche pédagogique interactive.
  • Enseignement multilingue : promotion du plurilinguisme et de la diversité culturelle.
  • Défis de conception : standardisation et accessibilité de l’écriture.
  • MOOCs comme plateformes de recherche : vers une science citoyenne.

2. Déroulement et résultat

Les auteur-es ont utilisé Smart Import pour convertir la vidéo en transcription textuelle. Une relecture humaine a permis de corriger les éventuelles erreurs, garantissant ainsi la qualité du texte de base. À partir de ce contenu corrigé, Smart Import a généré huit types d’activités d’apprentissage, incluant une vidéo interactive avec mots-clés et questions, un quiz, un glossaire, une carte de concepts, une activité glisser-déposer, des flashcards, ainsi qu’un résumé. Ces activités ont ensuite été partagées avec des collègues, invité-es à les compléter et à donner leur avis.

Cliquez ici pour voir vers le contenu créé (lien vers le site Nolej pour les raisons mentionnées plus haut).

3. Analyse des résultats d’utilisation

Points positifs:  

  • Qualité de la transcription : la transcription automatique de la vidéo est généralement précise, mais nécessite une relecture humaine pour assurer sa fiabilité.
  • Pertinence des mots-clés : les mots-clés proposés sont pertinents et enrichis d’explications claires, comme Cultural heritage, Didactic principles, Dongba script, Endangered languages, Hieroglyph instructional design, MOOC, Multilingual interface, Naxi ethnic group, Scripts, et World Endangered Writing Day.
  • Qualité des exercices de compréhension : les exercices tels que les quiz, flashcards et activités de glisser-déposer sont efficaces pour renforcer les connaissances factuelles basées sur le texte, facilitant ainsi la révision des concepts clés. 

Points à améliorer: 

  • Répétition : les activités générées présentent parfois des redondances, certaines questions se répétant dans les quiz. Cette redondance est également fréquente dans les mots-clés, le glossaire et les flashcards.
  • Incohérence dans les réponses proposées : des divergences existent entre les réponses attendues dans différents types d’exercices. Par exemple, pour la question « What is the goal of the MOOC? », la réponse dans le quiz est “To preserve and revitalize the ancient Dongba script and Naxi Dongba culture”, tandis que la carte de concept indique que “The MOOC aims to explore the role of multilingualism in preserving and transmitting endangered languages and scripts and its potential impact could revolutionize attitudes and practices towards language conservation.”
  • Feedback erroné : certains retours automatiques sont inexacts, proposant des réponses ou explications incorrectes. Sur la même question « What is the goal of the MOOC? », des informations fournies sont inexactes.
  • Questions ouvertes manquantes : l’absence de questions ouvertes dans les exercices limite l’apprentissage à un niveau très basique, ne permettant pas de développer des compétences de réflexion critique.

4. Conclusion

Les résultats indiquent que H5P Smart Import est efficace pour générer des activités d’apprentissage basées sur le texte, en particulier pour l’acquisition de connaissances déclaratives. L’outil renforce la maîtrise des concepts clés en intégrant ces éléments de manière répétée dans les activités proposées. Cependant, certaines limites demeurent. H5P Smart Import n’est pas encore en mesure de générer des questions ouvertes stimulant une réflexion critique, ni de concevoir des distracteurs complexes dans les questions à choix multiples, ou de faciliter l’apprentissage collaboratif. De plus, l’outil ne prend actuellement en charge que des contenus en langue anglaise, ce qui souligne la nécessité d’ajouter d’autres langues pour accroître l’accessibilité et l’utilité de l’outil. 

Test avec Nolej

1. Contexte et ressources utilisées 

La vidéo servant de base au test avec Nolej a été présentée dans le cadre d’un cours sur les techniques d’imagerie numérique (niveau universitaire) destiné aux étudiant-es en humanités numériques, actifs/ves dans toutes les branches où des objets sont impliqués (archéologie, histoire de l’art, manuscrits, etc.).  Différents types d’imagerie sont passés en revue et testés, afin de connaître leurs spécificités et leurs utilisations pratiques, dans le but de pouvoir ensuite appliquer la technique la plus appropriée dans le contexte de la recherche.   

La vidéo utilisée présente l’une de ces techniques, la RTI (Reflectance Transformation Imaging), et son application à l’archéologie. Il s’agit d’une vidéo faisant la publicité d’un outil commercial et les étudiant-es sont invité-es à garder un œil critique en la visionnant.   

Il ne s’agit donc pas d’une vidéo de cours, mais d’une vidéo de démonstration (ce qui n’a aucune incidence sur les résultats du test). La vidéo est visionnée après une introduction théorique sur la RTI et son fonctionnement, pour les raisons suivantes :  

  • Elle présente visuellement un outil spécifique pour la RTI : composants, manipulation de l’équipement, mise en place, etc.  
  • Elle montre l’outil en cours d’utilisation.  
  • Elle présente les résultats obtenus.  
  • Elle présente l’utilité et l’intérêt de photographier des objets avec cet outil et cette technique (sans toutefois en mentionner les limites). 

  2. Déroulement et résultat 

La première étape a consisté en l’utilisation de Nolej pour convertir la vidéo en transcription textuelle. Comme pour Smart Import, une relecture humaine a été nécessaire enlever les quelques erreurs de transcription. C’est à partir de ce contenu corrigé, que Nolej a généré des activités d’apprentissage, vidéo interactive, cartes conceptuelles, quiz, drag the word, flashcard, ainsi qu’un glossaire, des points clés et un résumé. Nolej a proposé également des contenus supplémentaires : mots croisés, mots secrets, idées d’apprentissage par projet.  

Cliquez ici pour voir le contenu créé.

 3. Analyse des résultats d’utilisation 

 Points positifs: 

  • Qualité de la transcription : la transcription automatique de la vidéo est généralement précise, mais nécessite une relecture humaine pour assurer sa fiabilité.
  • Qualité de certains exercices de compréhension : les quiz et les flashcards, basés sur des phrases entières de la transcription et non sur des mots clés étaient satisfaisants, même si limités en raison de la brièveté de la vidéo.
  • Idées d’apprentissage par projet : trois des quatre suggestions étaient intéressantes. 

Limites et points d’amélioration : 

  • Mots-clés et redondance : les mots clés retenus par l’AI sont trop basiques et généraux, alors que d’autres termes cités dans la vidéo auraient été plus importants et plus appropriés. Il en découle que toutes les activités créées à partir des mots clés (redondance) étaient peu pertinentes (vidéo interactive, glossaire, cartes conceptuelles, drag the word, mots croisés, mots secrets). .
  • Questions ouvertes manquantes : aucune proposition de questions ouvertes, nécessitant analyse et réflexion (par exemple: quelles sont les caractéristiques communes des objets soumis à la RTI, la technique s’applique-t-elle ou est-elle utile à tout objet archéologique, etc.)
  • Limites liées à la reconnaissance du texte uniquement : l‘IA étant basée sur du texte, il manque au cours interactif proposé un ensemble de questions à explorer sur ce qui est montré dans la vidéo et qui peut être tout aussi important que le discours en termes d’objectifs de visionnage (par exemple : la taille et les composants de l’équipement, l’environnement dans lequel la RTI est réalisée, la taille et les caractéristiques des objets traités, etc.) 

 4. Conclusion  

Nolej est un outil efficace, mais il est préférable de générer le texte de base soi-même, en y intégrant les mots-clés et les concepts dont les étudiant-es doivent se saisir. Le modèle d’apprentissage de cette IA est encore basique, ne correspondant qu’au premier niveau de la taxonomie de Bloom. 

Un défaut majeur est que l’IA n’analyse pas les images et ne génère donc pas de mots-clés ou de quiz sur ce qui est montré dans une vidéo, alors que de nombreux domaines d’études comportent des apprentissages liés à un ensemble de gestes à pratiquer ou des items à observer.  

Enfin, les questions de réflexion et d’analyse ainsi que les questions ouvertes sont totalement absentes. 

 

Conclusion

Les résultats ont révélé que ces deux outils généraient efficacement de nombreuses activités d’enseignement basées sur le texte, améliorant principalement l’apprentissage des connaissances déclaratives. Ils ont notamment amélioré la maîtrise et la compréhension des concepts clés en augmentant leur fréquence dans les activités. Cependant, des limites ont été identifiées, par exemple l’incapacité de générer des questions ouvertes nécessitant une réflexion critique, ou d’incorporer des distracteurs approfondis dans les questions à choix multiples, ou de faciliter l’apprentissage collaboratif. De plus, ces outils ne permettent pas de développer des activités sur des objets visuels, ce qui en limite la portée dans de nombreux domaines. En outre, la version actuelle Smart Import ne prend en charge que les ressources en langue anglaise, d’autres langues devant encore être développées.  

Grâce à cet essai, les avantages d’un moteur d’IA ont pu être reconnus, de même que son potentiel pour augmenter de manière significative la productivité dans la création de contenu d’apprentissage interactif basé sur le texte et pour améliorer l’accessibilité. Simultanément, le test a permis d’acquérir une meilleure compréhension des risques, en particulier des préoccupations concernant l’étouffement de la créativité et la nécessité d’une intervention humaine pour maintenir l’intégrité pédagogique. 

Questions pour le futur...?

Il est clair cependant que l’utilisation de ces outils d’IA dans la conception pédagogique interpelle et ce, à plusieurs niveaux. Par exemple, dans quelle mesure les contenus d’apprentissage interactifs créés par des outils d’IA seront-ils crédibles dans un environnement universitaire ? Ou encore, comment trouver un équilibre entre l’automatisation et la créativité dans la conception des contenus d’apprentissage ? Lors de l’intégration d’outils d’IA tels que Smart Import dans la conception pédagogique, où les rôles humains ne peuvent-ils pas être remplacés par l’IA ?  

Le test effectué et ses résultats invitent à la réflexion sur l’évolution du rôle de l’IA dans l’élaboration future de la création de contenus d’apprentissage intelligents. 



Les IA génératives à l’Université de Genève: prise de position du Rectorat et ressources

Le 6 juillet dernier, le Rectorat faisait part de sa prise de position concernant l’utilisation d’intelligences artificielles génératives dans le contexte académique.

Dans le texte publié sur son site internet, l’Université de Genève reconnaît l’importance et les avantages offerts par l’IA générative, mais également ses limites et les défis éthiques qu’elle présente. Elle indique qu’il revient aux facultés et aux enseignant-es de définir les conditions d’utilisation de ces outils et de promouvoir la transparence en matière de citation.

L’UNIGE fait les recommandations suivantes:

  • Former les étudiant-es et les enseignant-es à l’usage de chatGPT ou outils apparentés
  • Poser un cadre clair à l’échelle facultaire et de chaque enseignement
  • Rappeler la notion d’intégrité académique et des objectifs d’une formation universitaire
  • Rappeler l’importance des compétences rédactionnelles dans la formation universitaire
  • Valoriser la notion d’auteur-e d’un travail scientifique/académique et la responsabilité qu’il ou elle porte

Le même cadre et la même transparence doivent être appliqués à l’utilisation d’IA générant des images.

Dans son message, le Rectorat met à disposition deux ressources pour alimenter une réflexion appelée à évoluer et à s’élargir : un guide interactif sur l’IA générative dans l’enseignement universitaire et un mur virtuel (padlet) rassemblant de nombreuses références, articles, blogs et sites internet.

Guide interactif sur l’IA générative dans l’enseignement universitaire

Le guide interactif présente ChatGPT et d’autres IA génératives de texte et met à disposition de nombreuses ressources. Il comprend une partie sur les considérations éthiques à prendre en compte lors de l’utilisation de tels outils, mais fournit également des exemples pratique pour l’utilisation de ChaGPT dans l’enseignement et l’évaluation. Une partie s’intéresse particulièrement au renforcement de l’apprentissage des étudiant-es en utilisant l’IA générative

Padlet / Mur virtuel

Le padlet rassemble des ressources de typedivers : actualité des IA génératives, qu’est-ce que ChatGPT, IA génératives dans l’éducation : pour le e-learning, les évaluations, ainsi qu’outils et applications à disposition, notions et questions de plagiat, d’aigiarisme (plagiat assisté d’une IA) et de droit d’auteur.

Références et autres ressources

J. Érard, L’UNIGE prend position sur l’intelligence artificielle dans le contexte académique, Le Journal de l’UNIGE, printemps 2023 : article présentant la prise de position du Rectorat et un éclairage sur l’IA du Prof. Christian Lovis (Faculté de médecine)

D. Birchmeier, ChatGPT pour la recherche académique, Blog Ciel, 16 mai 2023 : un étudiant en Services et systèmes numérique documente son utilisation cadrée de ChatGPT pour la rédaction de son mémoire de bachelor

R. Zaffran, ChatGPT: An Ongoing and Unprecedented Disruption for Education and Training?, NewSpecial Magazine, avril 2023, p. 28-30: l’article met en évidence l’impact de l’IA, les avantages et les limites de ChatGPT dans l’éducation, et offre des recommandations pour une utilisation éclairée de ces technologies dans les établissements éducatifs.

Unesco : Guidance for generative AI in education and research, 2023: le texte propose des recommandations concrète pour les décideurs politiques et les établissements éducatifs, mais émet aussi des exigences à l’intention des fournisseurs d’IA génératives,  tout en invitant la communauté internationale à réfléchir aux conséquences à long terme de ces outils sur l’enseignement, l’apprentissage, et l’évaluation.