• Intelligence Artificielle Générative à l'UNIGE
    Guide d'utilisation de l'intelligence artificielle générative à l'Université de Genève
  • Makeiteasy
    Une plateforme pour tester et améliorer vos compétences numériques à votre rythme
  • Ciel cherche: rédacteurs/trices

Encore du nouveau sur Zoom ! (Oui encore).

Pour beaucoup d’entre nous, Zoom est un outil incontournable du quotidien. Que ce soit pour des réunions formelles, des discussions informelles avec les collègues, des visioconférences, ou même parfois en remplacement du téléphone, il est devenu une pièce maîtresse de notre arsenal numérique. Pourtant, ses mises à jour et nouvelles fonctionnalités peuvent parfois passer inaperçues.

C’est ainsi, qu’un matin, alors que nous savourions notre petit-déjeuner devant notre écran, nous sommes tombées sur une nouveauté intrigante : Zoom Clips.

Cet ajout discret pourrait bien devenir un de nos nouveau outil favoris pour aider à accompagner nos étudiants et collaborer avec nos collègues.

Zoom Clips : qu’est-ce que c’est ?

Zoom Clips permet de capturer facilement le contenu de votre écran en vidéo. En quelques clics, vous pouvez enregistrer vos actions à l’écran accompagnées de votre voix, de votre image, voire de votre avatar, et partager le tout rapidement avec vos interlocuteurs. Une solution simple et efficace pour transmettre des instructions ou des démonstrations.

À quoi cela sert-il ?

Zoom Clips trouve son utilité dans de nombreuses situations, que ce soit pour :

  • Former vos collègues sur l’utilisation d’un logiciel ou d’une plateforme. Par exemple, quelqu’un a besoin d’aide pour modifier des paramètres sur son ordinateur ? Enregistrez rapidement une vidéo expliquant la démarche, puis envoyez-la.
  • Aider vos étudiants à résoudre un problème complexe. Un étudiant a du mal à utiliser LaTeX ou un autre outil technique ? Montrez-lui les étapes nécessaires à travers une démonstration vidéo claire et concise.
  • Simplifier les manipulations pour un public varié. Zoom Clips est un bon allié pour expliquer des processus de manière visuelle et personnalisée.

Comment ça marche ?

Utiliser Zoom Clips est assez simple:

  1. Lancez l’outil Clips depuis l’application Zoom Workplace.
  2. Sélectionnez la zone de l’écran que vous souhaitez capturer.
  3. Commentez en direct ce que vous faites, en expliquant chaque étape.
  4. Arrêtez l’enregistrement et partagez-le directement avec la personne concernée.

Pourquoi adopter Zoom Clips ?

Parce qu’il allie praticité, rapidité, et accessibilité. Vous pouvez substituer vos e-mails remplis de captures d’écran ou d’explications détaillées avec une vidéo. Zoom Clips vous permet de transmettre vos connaissances de manière fluide, et adaptée aux besoins de vos interlocuteurs.

En conclusion, Zoom Clips est une véritable aubaine pour les enseignants, les professionnels, et quiconque souhaite partager du savoir-faire technique ou pédagogique en quelques clics. Alors, pourquoi ne pas l’essayer dès aujourd’hui ?

Et pour complémenter cette note de blog, voici des extraits des possibilités de Zoom Clip.

https://support.zoom.com/hc/en/article?id=zm_kb&sysparm_article=KB0057723



Une analyse de l’évolution du recours aux examens numérique à l’UNIGE

Pendant la période de confinement causée par l’épidémie de COVID 19, les universités ont dû transformer radicalement la manière dont elles dispensaient les cours et organisaient les examens. Nombre d’entre elles ont opté pour un enseignement et une évaluation entièrement en ligne. Même les enseignant-es les plus réticent-es ont dû, du jour au lendemain, adapter leurs pratiques d’évaluation des connaissances et d’examen aux méthodes en ligne. Cette transition s’est faite dans l’urgence et le passage aux examens en ligne a souvent consisté à réutiliser des méthodes traditionnelles et à les adapter de manière ad hoc et empirique aux outils de communication à distance disponibles.

À l’Université de Genève, bien avant l’épidémie de COVID, une infrastructure et un service de soutien permettant aux enseignant-es d’organiser leurs examens en ligne sur une base volontaire avaient été mis en place. Cependant, cette infrastructure a rapidement été renforcée afin de garantir l’organisation de tous les examens à distance pendant l’épidémie.

Après cette période, il semble intéressant de voir comment les pratiques ont évolué une fois que tout le monde a été systématiquement exposé aux examens en ligne et informatisés. Sommes-nous revenus aux méthodes d’examen traditionnelles de l’ère pré-Covid dans une forme de réaction épidermique de rejet de cette période ? Sommes-nous passés à une adoption massive et volontaire des modalités en ligne ? Dans la suite de ce billet, nous proposons de fournir quelques éléments d’analyse de la situation actuelle au sein de l’Université de Genève. Nous présentons ici l’évolution du nombre d’examens réalisés sur ordinateur avant, pendant et après le COVID et des résultats d’un questionnaire mené auprès d’une population d’enseignant-es sur leurs pratiques post-COVID des examens numériques.

Infrastructure de soutien aux examens numériques à l'UNIGE

Infrastructure de soutien aux examens numériques à l’UNIGE

L’Université de Genève a décidé de mettre à disposition des enseignants une infrastructure de soutien institutionnel pour la réalisation de leurs examens sous forme numérique en 2014. Une partie de cette infrastructure est déployée sous la forme d’un environnement numérique, basé sur le Learning Management System (LMS) Moodle, et en particulier les activités d’évaluation qui y sont proposées, telles que les tests ; sur le navigateur web sécurisé : SEB (Safe Exam Browser), qui est un navigateur open source permettant de prendre le contrôle d’un ordinateur et de définir les ressources locales et en ligne auxquelles l’utilisateur aura accès, et enfin une infrastructure de bureau virtuel. Cet environnement numérique flexible permet de mettre en place plusieurs types de scénarios d’examens numériques, soit sur les ordinateurs de l’institution, soit sur l’équipement des étudiants. L’organisation de l’environnement numérique d’examen est illustrée à la figure 1.

Figure 1 . Organisation de l’environnement d’examens numériques institutionnel

L’infrastructure est complétée par le soutien humain d’une petite équipe de techniciens qui développent et maintiennent l’environnement numérique. Cette équipe de support propose également des formations à la demande et développe une gamme de ressources pour permettre aux enseignants de créer les scénarios d’examens numériques qu’ils souhaitent. L’équipe de support peut également fournir une assistance et des conseils sur la mise en œuvre et être présente lors des examens. Pour faciliter l’appropriation de l’infrastructure, un certain nombre de scénarios types couvrant un large éventail de besoins ont été développés et documentés. La promotion des évaluations numériques repose sur la viralité des expériences personnelles développées par les adopteurs précoces, qui sont constamment à la recherche d’améliorations qu’ils peuvent introduire dans leurs pratiques d’enseignement. Leurs expériences sont documentées et publiées pour servir de modèles à d’autres enseignants. La promotion est également basée sur la sensibilisation directe des facultés et des enseignants par le biais de présentations données par l’équipe de soutien.

Au moment de la pandémie, l’Université de Genève a pris la décision de basculer tous les examens en ligne, en renforçant l’infrastructure existante pour la transposition des examens écrits et en utilisant la plateforme de vidéoconférence Zoom pour les examens oraux. Pour les examens à distance, il a été décidé de ne pas utiliser les technologies de surveillance. Les changements apportés à l’infrastructure de support ont impliqué l’installation et le déploiement d’instances supplémentaires du LMS Moodle sur un cluster de serveurs renforcés et optimisés, dédiés uniquement aux examens. Les instances Moodle ont également été optimisées pour assurer la meilleure qualité de service possible pendant les examens. Le rectorat et les facultés ont été particulièrement impliqués dans le déploiement des ressources et la coordination avec les enseignants. Les facultés ont fait appel à du personnel dédié qui a joué le rôle d’intermédiaire entre l’équipe de support général et les enseignants des facultés.

Après la pandémie et le retour à l’enseignement présentiel, l’Université de Genève a maintenu l’infrastructure numérique de soutien aux examens qui avait été déployée pendant la pandémie. Certaines facultés ont également maintenu une personne ressource pour fournir un soutien direct à leurs enseignants et agir en tant qu’intermédiaire avec l’équipe de soutien global.

Analyse de l’évolution du nombre d’examens numériques

Analyse de l’évolution du nombre d’examens numériques

Figure 2 . Progression du nombre d’examens passés au cours des années académiques selon les 3 modalités principales (BYOD en bleu : sur l’équipement des étudiants sur le campus de l’Université ; INSTIT en rouge : sur les ordinateurs de l’Université, DISTANCE en vert : à distance sur l’équipement des étudiants)

La figure 2 montre l’évolution du nombre d’examens réalisés au cours des années académiques selon les trois principales méthodes soutenues par l’infrastructure institutionnelle :
• Bring Your Own Device (BYOD, en bleu) : sur l’équipement des étudiants sur le campus de l’université.
• Sur les ordinateurs de l’université (INSTIT, en rouge).
• À distance sur l’équipement des étudiants (DISTANCE, en vert).

Il ressort de l’observation de ce graphique, que le retour à la normale à la suite de la crise pandémique n’a pas conduit à un retour à la situation initiale en termes d’utilisation des examens numériques. On peut donc en déduire que la période d’urgence mise en place et l’expérience vécue pendant la pandémie de COVID ont eu un impact significatif sur l’utilisation des examens numériques. On constate aussi que le changement post-COVID constaté se démarque de ce qui a pu s’observer pendant la période de confinement. Cette évolution est encore plus remarquable si l’on considère une nouvelle méthode d’examen introduite durant l’année académique 2021/22 sur Moodle, les quiz offline, en réponse à une demande des enseignants à la suite de leurs expériences pendant la période de confinement. Il s’agit d’un système qui permet de passer des tests sur Moodle, d’imprimer divers documents pour passer les tests sur papier en salle, puis de corriger automatiquement les tests sur Moodle après avoir numérisé les feuilles de réponses des élèves. Cette modalité vient s’ajouter aux 3 déjà disponibles qui sont représentées dans la figure 2 et elle est en forte augmentation depuis sa mise à disposition.

Si l’on considère les 3 périodes, pré-COVID, COVID et post-COVID, on constate que les tendances à l’intérieur de chaque période sont cohérentes. Pendant la période pré-COVID, les modalités sont très peu utilisées, ce qui correspond principalement à une utilisation par des enseignants motivés. On observe le pic de la modalité distance et la disparition des autres modalités pendant la période COVID. Enfin, pour la période post-COVID, on observe une diminution globale du nombre d’examens numériques, mais une augmentation considérable par rapport à la période pré-COVID, avec un glissement principalement vers les modalités institutionnelles et quiz offline. Parallèlement, les modalités BYOD et à distance restent très faibles, et on constate même qu’elles ont tendance à diminuer au fil du temps.

Analyse des freins au recours aux examens numériques par les enseignants

Analyse des freins au recours aux examens numériques par les enseignants

Une étude des pratiques post-COVID concernant les examens numériques a été menée auprès d’une population d’enseignants de l’Université de Genève. L’étude a consisté en un questionnaire. Les données ont été collectées de manière anonyme. Le questionnaire a été envoyé à 36 enseignants et 24 réponses ont été reçues. Toutes les méthodes d’examen numérique sont représentées dans cet échantillon. Il couvre des classes allant de 30 à plus de 400 élèves.

Figure 3 . Réponses des enseignants concernant les obstacles à la transition des examens vers le mode numérique

La figure 3 montre les résultats concernant les obstacles identifiés par les enseignants qui les empêchent de passer un examen en mode numérique. Il y a 4 grandes catégories de réactions pour lesquelles le schéma des réponses est similaire. Tout d’abord, la zone 1, qui correspond à la seule question concernant le manque de familiarité avec l’informatique. On constate que ce n’est un obstacle pour personne. Ceci est probablement dû au fait que la période COVID a obligé tout le monde à se familiariser avec l’informatique, même les plus réfractaires. La zone 2 correspond aux obstacles qu’engendrerait l’utilisation de Moodle pour la réalisation de l’examen : la production de l’examen, la réalisation et la surveillance de l’examen et enfin la correction de l’examen. Là encore, on constate que ces blocages ne sont pas très forts, ce qui est probablement le résultat de l’utilisation forcée de Moodle durant la période COVID. La zone 3 correspond à des causes de blocage encore fortes liées à l’exécution de l’examen et qui sont particulièrement importantes pour les examens sur le campus. On constate que ces points ont sans doute été des points critiques difficilement maîtrisables et pour lesquels les enseignants souhaiteraient un soutien. Enfin, la dernière zone, 4, correspond à un critère de blocage auquel tous les enseignants ont été confrontés pendant la période COVID et pour lequel ils ont sans doute constaté qu’ils n’avaient pas ou trop peu de contrôle : la tricherie.

Pour conclure la présentation de ces différents éléments, on peut avancer que pour l’Université de Genève, la période de confinement due au COVID et le passage aux examens à distance, a impacté la pratique actuelle vis-à-vis des examens sur ordinateur. On peut avancer l’hypothèse que cette évolution est probablement due au fait qu’elle a forcé toute la communauté enseignante et les facultés à s’exposer à la mise en place et à l’utilisation des examens sous une forme numérique.

Omar Benkacem, Allan Bowman, André Camacho, Laurent Moccozet, Patrick Roth 



Tour d’horizon de recommandations des facultés UNIGE sur l’utilisation de l’IA générative dans l’enseignement

Suite à une première prise de position datant de l’automne 2023, le Rectorat a actualisé, le 1er juillet 2024, la position de l’Université sur l’intelligence artificielle (IA), en mettant l’accent sur les principes de responsabilité individuelle, de respect de l’intégrité académique et de protection des données personnelles.

Ce positionnement s’accompagne de diverses ressources, notamment un guide d’utilisation des IA génératives, ainsi que des guides interactifs et des murs virtuels destinés à différents publics.

Dans ce cadre, il est précisé que : « Il revient aux facultés et aux centres interfacultaires de décider des modalités de l’intégration de l’IA dans leurs activités d’enseignement et d’élaborer les conditions d’utilisation spécifiques des outils d’IA génératives pour les activités de recherche, d’enseignement et d’apprentissage. »

Dans ce billet, nous proposons un tour d’horizon des directives établies et publiés à ce jour par plusieurs facultés. Il s’agit dans certains cas de directives explicitement liées à l’utilisation des IA génératives par les étudiant-es et ou les enseignant-es, dans d’autre cas de directives à propos du plagiat, qui traitent également des IA génératives, ou encore d’autres type de ressources mises à disposition de collaborateur-trices. Cette liste, non exhaustive, reflète des ressources en constante évolution, que nous tâcherons de mettre à jour régulièrement.

Faculté de médecine

Faculté de théologie

Faculté de psychologie et sciences de l’éducation

Recommandations et consignes facultaires sur l’utilisation de l’IA générative dans l’enseignement : https://www.unige.ch/fapse/actualites/une/utilisation-ia/

Faculté de traduction et interprétation

Directive régissant le recours à l’intelligence artificielle pour l’exécution de travaux : https://www.unige.ch/fti/files/6317/2925/9342/2024-10_Directive_IAgnerative.pdf

Faculté de droit

Directive sur le plagiat et la transparence des sources, qui mentionne également l’IA : https://www.unige.ch/droit/reglements/facdroit/plagiat/

Faculté de sciences de la société

De manière générale, ces directives visent à établir un cadre clair pour l’usage de l’IA générative, en régulant le recours à ces outils. Il est notamment souvent indiqué aux enseignant-es de préciser explicitement aux étudiant-es si l’utilisation de ces outils est autorisée ou non dans le cadre de leurs cours.

Par ailleurs, plusieurs documents détaillent des normes pour la citation de textes produits à l’aide d’outils d’IA générative. Ces normes renvoient notamment au guide sur l’usage des IA génératives dans vos travaux, élaboré par la bibliothèque.

Un autre aspect fréquemment abordé dans ces directives concerne l’évaluation des travaux écrits des étudiant-es, en particulier les mémoires de fin d’études. Diverses solutions sont proposées, telles que l’introduction d’une déclaration sur l’honneur, l’accent mis sur une soutenance orale, ou encore une pondération accrue de cette dernière dans le cadre de l’évaluation globale.

 

Frédéric Geoffroy & Giulia Ortoleva



Retour sur la Semaine Zéro Plagiat à l’UNIGE

Du 4 au 8 novembre 2024, la Bibliothèque de l’Université de Genève a organisé pour la première fois la Semaine Zéro Plagiat afin d’ouvrir la discussion sur cette thématique avec les étudiant-es. Stands d’information avec jeu de plateau et ateliers pratiques se sont succédé tout au long de la semaine dans les différents espaces de la Bibliothèque, au Point Vie de Campus et en ligne, avec l’objectif de promouvoir les bonnes pratiques pour éviter toute mauvaise surprise.

Des stands et des ateliers

Stand et matériel de la Semaine Zéro Plagiat

Matériel proposé sur les stands lors de la Semaine Zéro Plagiat

Sensibiliser au risque de plagiat, ou, plus largement de manquement à l’intégrité académique, n’est pas facile quand le public auquel on s’adresse n’a pas conscience d’effectuer du plagiat. En effet, pendant le premier cycle universitaire, une grande partie du plagiat est involontaire, en majeure partie en raison d’une méconnaissance des bonnes pratiques de travail et de citation. La Bibliothèque a donc développé le jeu de plateau « La Course à la citation », qui a permis de jouer autour de la thématique avec les étudiant-es sur les stands. Des posters d’information et des marque-page « questions-réponses » reprenant les contenus de la plateforme InfoTrack y ont aussi été présentés. L’objectif des stands était de créer des occasions lors desquelles les étudiant-es puissent poser leurs questions en toute confiance. Les ateliers, quant à eux, ont principalement abordé les meilleures pratiques à mettre œuvre, comme l’utilisation d’un logiciel de référence tel que Zotero pour garder une trace précise de toutes les références à citer et générer une bibliographie en quelques clics.

L’inquiétude face aux IA génératives

Sans grande surprise, une bonne partie des questions a porté sur l’usage des outils d’IA générative pour les travaux académiques. Bien que l’institution ait posé un cadre avec sa prise de position et que les directives facultaires la complètent petit à petit, force est de constater que la transposition pratique soulève de nombreuses interrogations auprès des étudiant-es. Pour les soutenir, la Bibliothèque a tout spécialement élaboré le guide « Référencer le recours aux IA génératives » qui donne des pistes pour citer ou mentionner l’usage des IA génératives en toute intégrité, quand leur usage est autorisé par le corps enseignant.

Un bilan satisfaisant

Atelier donné pendant la Semaine Zéro Plagiat

L’atelier sur Zotero donné pendant la Semaine Zéro Plagiat

Les 6 ateliers proposés ont totalisé 65 inscriptions. Les stands, quant à eux, ont connu des fréquentations diverses en fonction des espaces. La communication effectuée autour de cette semaine a cependant permis de toucher un public plus large, jusqu’aux médias suisses romands qui ont relayé le sujet dans le 20 Minutes et sur OneFM. S’il s’agissait de la première édition de cette semaine de sensibilisation en 2024, ce ne sera donc certainement pas la dernière.

Et pour celles et ceux qui n’auraient pas eu l’occasion de venir poser leurs questions à cette occasion, la Bibliothèque de l’UNIGE et en particulier le service d’aide à la recherche documentaire reste à disposition tout au long de l’année pour porter conseil sur les bonnes pratiques à respecter dans ses travaux académiques.



L’ «importation intelligente / Smart Import» peut-elle créer un contenu d’apprentissage intelligent ?

Article proposé par la Dre Jue Wang Szilas et la Dre Patrizia Birchler Emery, CFCD

Ce billet explore le potentiel pédagogique des moteurs d’intelligence artificielle Smart Import et Nolej.

H5P Smart Import et Nolej sont des solutions innovantes en matière de conception pédagogique assistée par l’IA, en particulier pour la création de contenus d’apprentissage interactifs basés sur du texte. Ces deux outils s’appuient sur l’IA pour analyser et transformer des documents existants – tels que des textes, des images et des vidéos – en formats interactifs et attrayants.

Nous avons testé chacun de ces outils, afin de mieux comprendre leurs capacités et limites : le premier test avec H5P Smart Import utilise une vidéo YouTube de trente minutes d’une présentation destinée à un large public, et le deuxième test avec Nolej a été effectué avec une vidéo de trois minutes sur une technique particulière d’imagerie numérique. Les résultats sont similaires.

Présentation des outils: H5P Smart Import et Nolej

En matière de personnalisation, H5P Smart Import et Nolej offrent des ajustements de base, avec Nolej proposant des options avancées. Les deux outils s’intègrent facilement aux principales plateformes LMS (Moodle, Canvas, Blackboard), rendant leur utilisation dans divers environnements pédagogiques simple. H5P Smart Import est particulièrement efficace pour les contenus structurés, tandis que Nolej excelle avec des supports plus variés et favorise la collaboration entre enseignant-es. 

Pour l’accès, H5P Smart Import propose une période d’essai de 30 jours, alors que Nolej permet un essai de 10 jours pour créer jusqu’à trois modules d’apprentissage. Avec H5P Smart Import les contenus générés sont réutilisables, mais nécessitent un abonnement pour un accès permanent après l’essai, alors que sur Nolej ils restent visibles même sans abonnement. En termes de langues, H5P Smart Import est limité à l’anglais, tandis que Nolej est disponible en plusieurs langues, avec des variations d’efficacité selon la complexité. 

Ces outils conviennent à un large éventail d’enseignant-es, du primaire au supérieur, et sont adaptés à différents types d’enseignement, y compris la formation professionnelle. Il est recommandé de posséder des compétences numériques de base pour les intégrer efficacement dans la pratique éducative. 

En conclusion, H5P Smart Import et Nolej offrent des solutions complémentaires pour créer des activités interactives, répondant aux besoins variés des enseignant-es  selon la nature et la complexité des contenus pédagogiques. 

Pour tester ces outils, nous avons réalisé un essai avec H5P Smart Import et un autre avec Nolej. Les résultats se sont avérés très similaires pour les deux outils. Cependant, comme H5P Smart Import nécessite un abonnement pour partager les résultats, nous n’avons pas pu les diffuser et avons donc réutilisé les résultats obtenus via Nolej. Pour ces tests, nous avons utilisé deux ressources différentes : une conférence de 30 minutes et une vidéo YouTube de 3 minutes. Nous allons présenter ici le déroulement des tests, les résultats obtenus, ainsi qu’une analyse et des commentaires sur chaque étape. 

Test avec H5P Smart Import

1. Contexte et ressources utilisées

Suite à une démonstration convaincante de l’équipe de H5P, les auteur-es ont obtenu un accès temporaire pour tester les fonctionnalités de Smart Import avec des collègues. Pour cette évaluation, un extrait de vidéo d’une conférence de 30 minutes en anglais a été sélectionné : il s’agit d’une présentation sur un MOOC visant à préserver une écriture en voie de disparition intitulée Teaching an Endangered Script through MOOC. Cette ressource a été choisie afin d’évaluer la capacité de H5P Smart Import à générer des activités pédagogiques interactives à partir d’un contenu à la fois long et complexe. Dans cette vidéo, l’auteure aborde plusieurs points clés : 

  • Écriture Dongba : un patrimoine culturel unique.
  • Objectif du MOOC : sensibilisation et préservation de la culture Naxi.
  • Scénarisation du cours : une approche pédagogique interactive.
  • Enseignement multilingue : promotion du plurilinguisme et de la diversité culturelle.
  • Défis de conception : standardisation et accessibilité de l’écriture.
  • MOOCs comme plateformes de recherche : vers une science citoyenne.

2. Déroulement et résultat

Les auteur-es ont utilisé Smart Import pour convertir la vidéo en transcription textuelle. Une relecture humaine a permis de corriger les éventuelles erreurs, garantissant ainsi la qualité du texte de base. À partir de ce contenu corrigé, Smart Import a généré huit types d’activités d’apprentissage, incluant une vidéo interactive avec mots-clés et questions, un quiz, un glossaire, une carte de concepts, une activité glisser-déposer, des flashcards, ainsi qu’un résumé. Ces activités ont ensuite été partagées avec des collègues, invité-es à les compléter et à donner leur avis.

Cliquez ici pour voir vers le contenu créé (lien vers le site Nolej pour les raisons mentionnées plus haut).

3. Analyse des résultats d’utilisation

Points positifs:  

  • Qualité de la transcription : la transcription automatique de la vidéo est généralement précise, mais nécessite une relecture humaine pour assurer sa fiabilité.
  • Pertinence des mots-clés : les mots-clés proposés sont pertinents et enrichis d’explications claires, comme Cultural heritage, Didactic principles, Dongba script, Endangered languages, Hieroglyph instructional design, MOOC, Multilingual interface, Naxi ethnic group, Scripts, et World Endangered Writing Day.
  • Qualité des exercices de compréhension : les exercices tels que les quiz, flashcards et activités de glisser-déposer sont efficaces pour renforcer les connaissances factuelles basées sur le texte, facilitant ainsi la révision des concepts clés. 

Points à améliorer: 

  • Répétition : les activités générées présentent parfois des redondances, certaines questions se répétant dans les quiz. Cette redondance est également fréquente dans les mots-clés, le glossaire et les flashcards.
  • Incohérence dans les réponses proposées : des divergences existent entre les réponses attendues dans différents types d’exercices. Par exemple, pour la question « What is the goal of the MOOC? », la réponse dans le quiz est “To preserve and revitalize the ancient Dongba script and Naxi Dongba culture”, tandis que la carte de concept indique que “The MOOC aims to explore the role of multilingualism in preserving and transmitting endangered languages and scripts and its potential impact could revolutionize attitudes and practices towards language conservation.”
  • Feedback erroné : certains retours automatiques sont inexacts, proposant des réponses ou explications incorrectes. Sur la même question « What is the goal of the MOOC? », des informations fournies sont inexactes.
  • Questions ouvertes manquantes : l’absence de questions ouvertes dans les exercices limite l’apprentissage à un niveau très basique, ne permettant pas de développer des compétences de réflexion critique.

4. Conclusion

Les résultats indiquent que H5P Smart Import est efficace pour générer des activités d’apprentissage basées sur le texte, en particulier pour l’acquisition de connaissances déclaratives. L’outil renforce la maîtrise des concepts clés en intégrant ces éléments de manière répétée dans les activités proposées. Cependant, certaines limites demeurent. H5P Smart Import n’est pas encore en mesure de générer des questions ouvertes stimulant une réflexion critique, ni de concevoir des distracteurs complexes dans les questions à choix multiples, ou de faciliter l’apprentissage collaboratif. De plus, l’outil ne prend actuellement en charge que des contenus en langue anglaise, ce qui souligne la nécessité d’ajouter d’autres langues pour accroître l’accessibilité et l’utilité de l’outil. 

Test avec Nolej

1. Contexte et ressources utilisées 

La vidéo servant de base au test avec Nolej a été présentée dans le cadre d’un cours sur les techniques d’imagerie numérique (niveau universitaire) destiné aux étudiant-es en humanités numériques, actifs/ves dans toutes les branches où des objets sont impliqués (archéologie, histoire de l’art, manuscrits, etc.).  Différents types d’imagerie sont passés en revue et testés, afin de connaître leurs spécificités et leurs utilisations pratiques, dans le but de pouvoir ensuite appliquer la technique la plus appropriée dans le contexte de la recherche.   

La vidéo utilisée présente l’une de ces techniques, la RTI (Reflectance Transformation Imaging), et son application à l’archéologie. Il s’agit d’une vidéo faisant la publicité d’un outil commercial et les étudiant-es sont invité-es à garder un œil critique en la visionnant.   

Il ne s’agit donc pas d’une vidéo de cours, mais d’une vidéo de démonstration (ce qui n’a aucune incidence sur les résultats du test). La vidéo est visionnée après une introduction théorique sur la RTI et son fonctionnement, pour les raisons suivantes :  

  • Elle présente visuellement un outil spécifique pour la RTI : composants, manipulation de l’équipement, mise en place, etc.  
  • Elle montre l’outil en cours d’utilisation.  
  • Elle présente les résultats obtenus.  
  • Elle présente l’utilité et l’intérêt de photographier des objets avec cet outil et cette technique (sans toutefois en mentionner les limites). 

  2. Déroulement et résultat 

La première étape a consisté en l’utilisation de Nolej pour convertir la vidéo en transcription textuelle. Comme pour Smart Import, une relecture humaine a été nécessaire enlever les quelques erreurs de transcription. C’est à partir de ce contenu corrigé, que Nolej a généré des activités d’apprentissage, vidéo interactive, cartes conceptuelles, quiz, drag the word, flashcard, ainsi qu’un glossaire, des points clés et un résumé. Nolej a proposé également des contenus supplémentaires : mots croisés, mots secrets, idées d’apprentissage par projet.  

Cliquez ici pour voir le contenu créé.

 3. Analyse des résultats d’utilisation 

 Points positifs: 

  • Qualité de la transcription : la transcription automatique de la vidéo est généralement précise, mais nécessite une relecture humaine pour assurer sa fiabilité.
  • Qualité de certains exercices de compréhension : les quiz et les flashcards, basés sur des phrases entières de la transcription et non sur des mots clés étaient satisfaisants, même si limités en raison de la brièveté de la vidéo.
  • Idées d’apprentissage par projet : trois des quatre suggestions étaient intéressantes. 

Limites et points d’amélioration : 

  • Mots-clés et redondance : les mots clés retenus par l’AI sont trop basiques et généraux, alors que d’autres termes cités dans la vidéo auraient été plus importants et plus appropriés. Il en découle que toutes les activités créées à partir des mots clés (redondance) étaient peu pertinentes (vidéo interactive, glossaire, cartes conceptuelles, drag the word, mots croisés, mots secrets). .
  • Questions ouvertes manquantes : aucune proposition de questions ouvertes, nécessitant analyse et réflexion (par exemple: quelles sont les caractéristiques communes des objets soumis à la RTI, la technique s’applique-t-elle ou est-elle utile à tout objet archéologique, etc.)
  • Limites liées à la reconnaissance du texte uniquement : l‘IA étant basée sur du texte, il manque au cours interactif proposé un ensemble de questions à explorer sur ce qui est montré dans la vidéo et qui peut être tout aussi important que le discours en termes d’objectifs de visionnage (par exemple : la taille et les composants de l’équipement, l’environnement dans lequel la RTI est réalisée, la taille et les caractéristiques des objets traités, etc.) 

 4. Conclusion  

Nolej est un outil efficace, mais il est préférable de générer le texte de base soi-même, en y intégrant les mots-clés et les concepts dont les étudiant-es doivent se saisir. Le modèle d’apprentissage de cette IA est encore basique, ne correspondant qu’au premier niveau de la taxonomie de Bloom. 

Un défaut majeur est que l’IA n’analyse pas les images et ne génère donc pas de mots-clés ou de quiz sur ce qui est montré dans une vidéo, alors que de nombreux domaines d’études comportent des apprentissages liés à un ensemble de gestes à pratiquer ou des items à observer.  

Enfin, les questions de réflexion et d’analyse ainsi que les questions ouvertes sont totalement absentes. 

 

Conclusion

Les résultats ont révélé que ces deux outils généraient efficacement de nombreuses activités d’enseignement basées sur le texte, améliorant principalement l’apprentissage des connaissances déclaratives. Ils ont notamment amélioré la maîtrise et la compréhension des concepts clés en augmentant leur fréquence dans les activités. Cependant, des limites ont été identifiées, par exemple l’incapacité de générer des questions ouvertes nécessitant une réflexion critique, ou d’incorporer des distracteurs approfondis dans les questions à choix multiples, ou de faciliter l’apprentissage collaboratif. De plus, ces outils ne permettent pas de développer des activités sur des objets visuels, ce qui en limite la portée dans de nombreux domaines. En outre, la version actuelle Smart Import ne prend en charge que les ressources en langue anglaise, d’autres langues devant encore être développées.  

Grâce à cet essai, les avantages d’un moteur d’IA ont pu être reconnus, de même que son potentiel pour augmenter de manière significative la productivité dans la création de contenu d’apprentissage interactif basé sur le texte et pour améliorer l’accessibilité. Simultanément, le test a permis d’acquérir une meilleure compréhension des risques, en particulier des préoccupations concernant l’étouffement de la créativité et la nécessité d’une intervention humaine pour maintenir l’intégrité pédagogique. 

Questions pour le futur...?

Il est clair cependant que l’utilisation de ces outils d’IA dans la conception pédagogique interpelle et ce, à plusieurs niveaux. Par exemple, dans quelle mesure les contenus d’apprentissage interactifs créés par des outils d’IA seront-ils crédibles dans un environnement universitaire ? Ou encore, comment trouver un équilibre entre l’automatisation et la créativité dans la conception des contenus d’apprentissage ? Lors de l’intégration d’outils d’IA tels que Smart Import dans la conception pédagogique, où les rôles humains ne peuvent-ils pas être remplacés par l’IA ?  

Le test effectué et ses résultats invitent à la réflexion sur l’évolution du rôle de l’IA dans l’élaboration future de la création de contenus d’apprentissage intelligents.