• Intelligence Artificielle Générative à l'UNIGE
    Guide d'utilisation de l'intelligence artificielle générative à l'Université de Genève
  • Makeiteasy
    Une plateforme pour tester et améliorer vos compétences numériques à votre rythme
  • Ciel cherche: rédacteurs/trices

Catégorie : Usages pédagogiques

Billet dont l’orientation est clairement pédagogique.


Lectures collaboratives pour l’enseignement

Une difficulté souvent rencontrée dans des enseignements pour lesquels une appropriation de connaissances provenant d’un parcours pédagogique de lectures est nécessaire, est représentée par la nature souvent variable de l’engagement des participants. Ceci peut-être d’autant plus problématique s’il est proposé de conduire une discussion en classe sur ces lectures et que le travail de lecture n’a pas été effectué avant les séances.

Après avoir essayé plusieurs techniques telles que des fiches de lectures individuelles ou en groupes, évaluées ou non, l’idée d’utiliser un canevas numérique collectif offre une certaine amélioration dans le processus. Les résultats restent somme toute assez variables et dépendent encore grandement de l’engagement des étudiants. Mais globalement la participation et l’engagement semblent meilleurs.

L’idée consiste à intégrer progressivement les lectures dans un canevas numérique graphique et de demander aux participants, organisés en groupes, de relever sous forme de notes les éléments saillants et importants de chaque article dans un espace de groupe propre. Les lectures sont organisées selon un parcours pédagogique établi par l’enseignant et suivant un fil rouge (pointillés rouges dans le canevas d’exemple). Dans le cas d’exemple, nous utilisons Miro (https://miro.com/)

De façon opérationnelle, l’initialisation de la démarche consiste à lancer la formation des groupes par l’intermédiaire d’un LMS (e.g., Moodle). Dans le cas d’exemple, il s’agissait d’un cours d’environ 25 participant-es. Il a été convenu de faire des groupes de 4 à 5 personnes.

Pour chaque lecture, l’article est annoncé et mis à disposition sur le canevas et ouvert pour le travail de lecture collaborative. Les participant-es s’organisent comme ils/elles veulent. Chaque groupe effectue le travail en préparation de la séance de discussion. Pour chaque papier, un groupe est responsable de lancer la discussion. Les autres groupes participent pour compléter, réagir, poser des questions. L’enseignant-e assure la modération et intervient pour appuyer, renforcer et compléter selon son expérience. La durée de l’échange peut-être très variable selon l’intérêt et la qualité des discussions.

Une propriété intéressante de l’approche réside dans l’ouverture. Tou-tes les participant-es ont accès au même espace, ce qui offre l’avantage de pouvoir observer le travail des autres groupes et ainsi remarquer d’autres éléments lors de la préparation.

Un canevas d’exemple dans le cadre d’un cours de Système d’Information d’Entreprise est proposé comme illustration en suivant le lien ci-dessous :
https://miro.com/app/board/uXjVLh7hXog=/?share_link_id=207022290125

Vous pouvez commenter, suggérer, critiquer et partager en ajoutant des notes dans le canevas. N’hésitez pas à laisser des liens en commentaires y compris sur vos propres espaces afin d’étendre les exemples et de partager nos expériences.

Jean-Henry Morin, professeur, CUI/SDS



Une analyse de l’évolution du recours aux examens numérique à l’UNIGE

Pendant la période de confinement causée par l’épidémie de COVID 19, les universités ont dû transformer radicalement la manière dont elles dispensaient les cours et organisaient les examens. Nombre d’entre elles ont opté pour un enseignement et une évaluation entièrement en ligne. Même les enseignant-es les plus réticent-es ont dû, du jour au lendemain, adapter leurs pratiques d’évaluation des connaissances et d’examen aux méthodes en ligne. Cette transition s’est faite dans l’urgence et le passage aux examens en ligne a souvent consisté à réutiliser des méthodes traditionnelles et à les adapter de manière ad hoc et empirique aux outils de communication à distance disponibles.

À l’Université de Genève, bien avant l’épidémie de COVID, une infrastructure et un service de soutien permettant aux enseignant-es d’organiser leurs examens en ligne sur une base volontaire avaient été mis en place. Cependant, cette infrastructure a rapidement été renforcée afin de garantir l’organisation de tous les examens à distance pendant l’épidémie.

Après cette période, il semble intéressant de voir comment les pratiques ont évolué une fois que tout le monde a été systématiquement exposé aux examens en ligne et informatisés. Sommes-nous revenus aux méthodes d’examen traditionnelles de l’ère pré-Covid dans une forme de réaction épidermique de rejet de cette période ? Sommes-nous passés à une adoption massive et volontaire des modalités en ligne ? Dans la suite de ce billet, nous proposons de fournir quelques éléments d’analyse de la situation actuelle au sein de l’Université de Genève. Nous présentons ici l’évolution du nombre d’examens réalisés sur ordinateur avant, pendant et après le COVID et des résultats d’un questionnaire mené auprès d’une population d’enseignant-es sur leurs pratiques post-COVID des examens numériques.

Infrastructure de soutien aux examens numériques à l'UNIGE

Infrastructure de soutien aux examens numériques à l’UNIGE

L’Université de Genève a décidé de mettre à disposition des enseignants une infrastructure de soutien institutionnel pour la réalisation de leurs examens sous forme numérique en 2014. Une partie de cette infrastructure est déployée sous la forme d’un environnement numérique, basé sur le Learning Management System (LMS) Moodle, et en particulier les activités d’évaluation qui y sont proposées, telles que les tests ; sur le navigateur web sécurisé : SEB (Safe Exam Browser), qui est un navigateur open source permettant de prendre le contrôle d’un ordinateur et de définir les ressources locales et en ligne auxquelles l’utilisateur aura accès, et enfin une infrastructure de bureau virtuel. Cet environnement numérique flexible permet de mettre en place plusieurs types de scénarios d’examens numériques, soit sur les ordinateurs de l’institution, soit sur l’équipement des étudiants. L’organisation de l’environnement numérique d’examen est illustrée à la figure 1.

Figure 1 . Organisation de l’environnement d’examens numériques institutionnel

L’infrastructure est complétée par le soutien humain d’une petite équipe de techniciens qui développent et maintiennent l’environnement numérique. Cette équipe de support propose également des formations à la demande et développe une gamme de ressources pour permettre aux enseignants de créer les scénarios d’examens numériques qu’ils souhaitent. L’équipe de support peut également fournir une assistance et des conseils sur la mise en œuvre et être présente lors des examens. Pour faciliter l’appropriation de l’infrastructure, un certain nombre de scénarios types couvrant un large éventail de besoins ont été développés et documentés. La promotion des évaluations numériques repose sur la viralité des expériences personnelles développées par les adopteurs précoces, qui sont constamment à la recherche d’améliorations qu’ils peuvent introduire dans leurs pratiques d’enseignement. Leurs expériences sont documentées et publiées pour servir de modèles à d’autres enseignants. La promotion est également basée sur la sensibilisation directe des facultés et des enseignants par le biais de présentations données par l’équipe de soutien.

Au moment de la pandémie, l’Université de Genève a pris la décision de basculer tous les examens en ligne, en renforçant l’infrastructure existante pour la transposition des examens écrits et en utilisant la plateforme de vidéoconférence Zoom pour les examens oraux. Pour les examens à distance, il a été décidé de ne pas utiliser les technologies de surveillance. Les changements apportés à l’infrastructure de support ont impliqué l’installation et le déploiement d’instances supplémentaires du LMS Moodle sur un cluster de serveurs renforcés et optimisés, dédiés uniquement aux examens. Les instances Moodle ont également été optimisées pour assurer la meilleure qualité de service possible pendant les examens. Le rectorat et les facultés ont été particulièrement impliqués dans le déploiement des ressources et la coordination avec les enseignants. Les facultés ont fait appel à du personnel dédié qui a joué le rôle d’intermédiaire entre l’équipe de support général et les enseignants des facultés.

Après la pandémie et le retour à l’enseignement présentiel, l’Université de Genève a maintenu l’infrastructure numérique de soutien aux examens qui avait été déployée pendant la pandémie. Certaines facultés ont également maintenu une personne ressource pour fournir un soutien direct à leurs enseignants et agir en tant qu’intermédiaire avec l’équipe de soutien global.

Analyse de l’évolution du nombre d’examens numériques

Analyse de l’évolution du nombre d’examens numériques

Figure 2 . Progression du nombre d’examens passés au cours des années académiques selon les 3 modalités principales (BYOD en bleu : sur l’équipement des étudiants sur le campus de l’Université ; INSTIT en rouge : sur les ordinateurs de l’Université, DISTANCE en vert : à distance sur l’équipement des étudiants)

La figure 2 montre l’évolution du nombre d’examens réalisés au cours des années académiques selon les trois principales méthodes soutenues par l’infrastructure institutionnelle :
• Bring Your Own Device (BYOD, en bleu) : sur l’équipement des étudiants sur le campus de l’université.
• Sur les ordinateurs de l’université (INSTIT, en rouge).
• À distance sur l’équipement des étudiants (DISTANCE, en vert).

Il ressort de l’observation de ce graphique, que le retour à la normale à la suite de la crise pandémique n’a pas conduit à un retour à la situation initiale en termes d’utilisation des examens numériques. On peut donc en déduire que la période d’urgence mise en place et l’expérience vécue pendant la pandémie de COVID ont eu un impact significatif sur l’utilisation des examens numériques. On constate aussi que le changement post-COVID constaté se démarque de ce qui a pu s’observer pendant la période de confinement. Cette évolution est encore plus remarquable si l’on considère une nouvelle méthode d’examen introduite durant l’année académique 2021/22 sur Moodle, les quiz offline, en réponse à une demande des enseignants à la suite de leurs expériences pendant la période de confinement. Il s’agit d’un système qui permet de passer des tests sur Moodle, d’imprimer divers documents pour passer les tests sur papier en salle, puis de corriger automatiquement les tests sur Moodle après avoir numérisé les feuilles de réponses des élèves. Cette modalité vient s’ajouter aux 3 déjà disponibles qui sont représentées dans la figure 2 et elle est en forte augmentation depuis sa mise à disposition.

Si l’on considère les 3 périodes, pré-COVID, COVID et post-COVID, on constate que les tendances à l’intérieur de chaque période sont cohérentes. Pendant la période pré-COVID, les modalités sont très peu utilisées, ce qui correspond principalement à une utilisation par des enseignants motivés. On observe le pic de la modalité distance et la disparition des autres modalités pendant la période COVID. Enfin, pour la période post-COVID, on observe une diminution globale du nombre d’examens numériques, mais une augmentation considérable par rapport à la période pré-COVID, avec un glissement principalement vers les modalités institutionnelles et quiz offline. Parallèlement, les modalités BYOD et à distance restent très faibles, et on constate même qu’elles ont tendance à diminuer au fil du temps.

Analyse des freins au recours aux examens numériques par les enseignants

Analyse des freins au recours aux examens numériques par les enseignants

Une étude des pratiques post-COVID concernant les examens numériques a été menée auprès d’une population d’enseignants de l’Université de Genève. L’étude a consisté en un questionnaire. Les données ont été collectées de manière anonyme. Le questionnaire a été envoyé à 36 enseignants et 24 réponses ont été reçues. Toutes les méthodes d’examen numérique sont représentées dans cet échantillon. Il couvre des classes allant de 30 à plus de 400 élèves.

Figure 3 . Réponses des enseignants concernant les obstacles à la transition des examens vers le mode numérique

La figure 3 montre les résultats concernant les obstacles identifiés par les enseignants qui les empêchent de passer un examen en mode numérique. Il y a 4 grandes catégories de réactions pour lesquelles le schéma des réponses est similaire. Tout d’abord, la zone 1, qui correspond à la seule question concernant le manque de familiarité avec l’informatique. On constate que ce n’est un obstacle pour personne. Ceci est probablement dû au fait que la période COVID a obligé tout le monde à se familiariser avec l’informatique, même les plus réfractaires. La zone 2 correspond aux obstacles qu’engendrerait l’utilisation de Moodle pour la réalisation de l’examen : la production de l’examen, la réalisation et la surveillance de l’examen et enfin la correction de l’examen. Là encore, on constate que ces blocages ne sont pas très forts, ce qui est probablement le résultat de l’utilisation forcée de Moodle durant la période COVID. La zone 3 correspond à des causes de blocage encore fortes liées à l’exécution de l’examen et qui sont particulièrement importantes pour les examens sur le campus. On constate que ces points ont sans doute été des points critiques difficilement maîtrisables et pour lesquels les enseignants souhaiteraient un soutien. Enfin, la dernière zone, 4, correspond à un critère de blocage auquel tous les enseignants ont été confrontés pendant la période COVID et pour lequel ils ont sans doute constaté qu’ils n’avaient pas ou trop peu de contrôle : la tricherie.

Pour conclure la présentation de ces différents éléments, on peut avancer que pour l’Université de Genève, la période de confinement due au COVID et le passage aux examens à distance, a impacté la pratique actuelle vis-à-vis des examens sur ordinateur. On peut avancer l’hypothèse que cette évolution est probablement due au fait qu’elle a forcé toute la communauté enseignante et les facultés à s’exposer à la mise en place et à l’utilisation des examens sous une forme numérique.

Omar Benkacem, Allan Bowman, André Camacho, Laurent Moccozet, Patrick Roth 



L’ «importation intelligente / Smart Import» peut-elle créer un contenu d’apprentissage intelligent ?

Article proposé par la Dre Jue Wang Szilas et la Dre Patrizia Birchler Emery, CFCD

Ce billet explore le potentiel pédagogique des moteurs d’intelligence artificielle Smart Import et Nolej.

H5P Smart Import et Nolej sont des solutions innovantes en matière de conception pédagogique assistée par l’IA, en particulier pour la création de contenus d’apprentissage interactifs basés sur du texte. Ces deux outils s’appuient sur l’IA pour analyser et transformer des documents existants – tels que des textes, des images et des vidéos – en formats interactifs et attrayants.

Nous avons testé chacun de ces outils, afin de mieux comprendre leurs capacités et limites : le premier test avec H5P Smart Import utilise une vidéo YouTube de trente minutes d’une présentation destinée à un large public, et le deuxième test avec Nolej a été effectué avec une vidéo de trois minutes sur une technique particulière d’imagerie numérique. Les résultats sont similaires.

Présentation des outils: H5P Smart Import et Nolej

En matière de personnalisation, H5P Smart Import et Nolej offrent des ajustements de base, avec Nolej proposant des options avancées. Les deux outils s’intègrent facilement aux principales plateformes LMS (Moodle, Canvas, Blackboard), rendant leur utilisation dans divers environnements pédagogiques simple. H5P Smart Import est particulièrement efficace pour les contenus structurés, tandis que Nolej excelle avec des supports plus variés et favorise la collaboration entre enseignant-es. 

Pour l’accès, H5P Smart Import propose une période d’essai de 30 jours, alors que Nolej permet un essai de 10 jours pour créer jusqu’à trois modules d’apprentissage. Avec H5P Smart Import les contenus générés sont réutilisables, mais nécessitent un abonnement pour un accès permanent après l’essai, alors que sur Nolej ils restent visibles même sans abonnement. En termes de langues, H5P Smart Import est limité à l’anglais, tandis que Nolej est disponible en plusieurs langues, avec des variations d’efficacité selon la complexité. 

Ces outils conviennent à un large éventail d’enseignant-es, du primaire au supérieur, et sont adaptés à différents types d’enseignement, y compris la formation professionnelle. Il est recommandé de posséder des compétences numériques de base pour les intégrer efficacement dans la pratique éducative. 

En conclusion, H5P Smart Import et Nolej offrent des solutions complémentaires pour créer des activités interactives, répondant aux besoins variés des enseignant-es  selon la nature et la complexité des contenus pédagogiques. 

Pour tester ces outils, nous avons réalisé un essai avec H5P Smart Import et un autre avec Nolej. Les résultats se sont avérés très similaires pour les deux outils. Cependant, comme H5P Smart Import nécessite un abonnement pour partager les résultats, nous n’avons pas pu les diffuser et avons donc réutilisé les résultats obtenus via Nolej. Pour ces tests, nous avons utilisé deux ressources différentes : une conférence de 30 minutes et une vidéo YouTube de 3 minutes. Nous allons présenter ici le déroulement des tests, les résultats obtenus, ainsi qu’une analyse et des commentaires sur chaque étape. 

Test avec H5P Smart Import

1. Contexte et ressources utilisées

Suite à une démonstration convaincante de l’équipe de H5P, les auteur-es ont obtenu un accès temporaire pour tester les fonctionnalités de Smart Import avec des collègues. Pour cette évaluation, un extrait de vidéo d’une conférence de 30 minutes en anglais a été sélectionné : il s’agit d’une présentation sur un MOOC visant à préserver une écriture en voie de disparition intitulée Teaching an Endangered Script through MOOC. Cette ressource a été choisie afin d’évaluer la capacité de H5P Smart Import à générer des activités pédagogiques interactives à partir d’un contenu à la fois long et complexe. Dans cette vidéo, l’auteure aborde plusieurs points clés : 

  • Écriture Dongba : un patrimoine culturel unique.
  • Objectif du MOOC : sensibilisation et préservation de la culture Naxi.
  • Scénarisation du cours : une approche pédagogique interactive.
  • Enseignement multilingue : promotion du plurilinguisme et de la diversité culturelle.
  • Défis de conception : standardisation et accessibilité de l’écriture.
  • MOOCs comme plateformes de recherche : vers une science citoyenne.

2. Déroulement et résultat

Les auteur-es ont utilisé Smart Import pour convertir la vidéo en transcription textuelle. Une relecture humaine a permis de corriger les éventuelles erreurs, garantissant ainsi la qualité du texte de base. À partir de ce contenu corrigé, Smart Import a généré huit types d’activités d’apprentissage, incluant une vidéo interactive avec mots-clés et questions, un quiz, un glossaire, une carte de concepts, une activité glisser-déposer, des flashcards, ainsi qu’un résumé. Ces activités ont ensuite été partagées avec des collègues, invité-es à les compléter et à donner leur avis.

Cliquez ici pour voir vers le contenu créé (lien vers le site Nolej pour les raisons mentionnées plus haut).

3. Analyse des résultats d’utilisation

Points positifs:  

  • Qualité de la transcription : la transcription automatique de la vidéo est généralement précise, mais nécessite une relecture humaine pour assurer sa fiabilité.
  • Pertinence des mots-clés : les mots-clés proposés sont pertinents et enrichis d’explications claires, comme Cultural heritage, Didactic principles, Dongba script, Endangered languages, Hieroglyph instructional design, MOOC, Multilingual interface, Naxi ethnic group, Scripts, et World Endangered Writing Day.
  • Qualité des exercices de compréhension : les exercices tels que les quiz, flashcards et activités de glisser-déposer sont efficaces pour renforcer les connaissances factuelles basées sur le texte, facilitant ainsi la révision des concepts clés. 

Points à améliorer: 

  • Répétition : les activités générées présentent parfois des redondances, certaines questions se répétant dans les quiz. Cette redondance est également fréquente dans les mots-clés, le glossaire et les flashcards.
  • Incohérence dans les réponses proposées : des divergences existent entre les réponses attendues dans différents types d’exercices. Par exemple, pour la question « What is the goal of the MOOC? », la réponse dans le quiz est “To preserve and revitalize the ancient Dongba script and Naxi Dongba culture”, tandis que la carte de concept indique que “The MOOC aims to explore the role of multilingualism in preserving and transmitting endangered languages and scripts and its potential impact could revolutionize attitudes and practices towards language conservation.”
  • Feedback erroné : certains retours automatiques sont inexacts, proposant des réponses ou explications incorrectes. Sur la même question « What is the goal of the MOOC? », des informations fournies sont inexactes.
  • Questions ouvertes manquantes : l’absence de questions ouvertes dans les exercices limite l’apprentissage à un niveau très basique, ne permettant pas de développer des compétences de réflexion critique.

4. Conclusion

Les résultats indiquent que H5P Smart Import est efficace pour générer des activités d’apprentissage basées sur le texte, en particulier pour l’acquisition de connaissances déclaratives. L’outil renforce la maîtrise des concepts clés en intégrant ces éléments de manière répétée dans les activités proposées. Cependant, certaines limites demeurent. H5P Smart Import n’est pas encore en mesure de générer des questions ouvertes stimulant une réflexion critique, ni de concevoir des distracteurs complexes dans les questions à choix multiples, ou de faciliter l’apprentissage collaboratif. De plus, l’outil ne prend actuellement en charge que des contenus en langue anglaise, ce qui souligne la nécessité d’ajouter d’autres langues pour accroître l’accessibilité et l’utilité de l’outil. 

Test avec Nolej

1. Contexte et ressources utilisées 

La vidéo servant de base au test avec Nolej a été présentée dans le cadre d’un cours sur les techniques d’imagerie numérique (niveau universitaire) destiné aux étudiant-es en humanités numériques, actifs/ves dans toutes les branches où des objets sont impliqués (archéologie, histoire de l’art, manuscrits, etc.).  Différents types d’imagerie sont passés en revue et testés, afin de connaître leurs spécificités et leurs utilisations pratiques, dans le but de pouvoir ensuite appliquer la technique la plus appropriée dans le contexte de la recherche.   

La vidéo utilisée présente l’une de ces techniques, la RTI (Reflectance Transformation Imaging), et son application à l’archéologie. Il s’agit d’une vidéo faisant la publicité d’un outil commercial et les étudiant-es sont invité-es à garder un œil critique en la visionnant.   

Il ne s’agit donc pas d’une vidéo de cours, mais d’une vidéo de démonstration (ce qui n’a aucune incidence sur les résultats du test). La vidéo est visionnée après une introduction théorique sur la RTI et son fonctionnement, pour les raisons suivantes :  

  • Elle présente visuellement un outil spécifique pour la RTI : composants, manipulation de l’équipement, mise en place, etc.  
  • Elle montre l’outil en cours d’utilisation.  
  • Elle présente les résultats obtenus.  
  • Elle présente l’utilité et l’intérêt de photographier des objets avec cet outil et cette technique (sans toutefois en mentionner les limites). 

  2. Déroulement et résultat 

La première étape a consisté en l’utilisation de Nolej pour convertir la vidéo en transcription textuelle. Comme pour Smart Import, une relecture humaine a été nécessaire enlever les quelques erreurs de transcription. C’est à partir de ce contenu corrigé, que Nolej a généré des activités d’apprentissage, vidéo interactive, cartes conceptuelles, quiz, drag the word, flashcard, ainsi qu’un glossaire, des points clés et un résumé. Nolej a proposé également des contenus supplémentaires : mots croisés, mots secrets, idées d’apprentissage par projet.  

Cliquez ici pour voir le contenu créé.

 3. Analyse des résultats d’utilisation 

 Points positifs: 

  • Qualité de la transcription : la transcription automatique de la vidéo est généralement précise, mais nécessite une relecture humaine pour assurer sa fiabilité.
  • Qualité de certains exercices de compréhension : les quiz et les flashcards, basés sur des phrases entières de la transcription et non sur des mots clés étaient satisfaisants, même si limités en raison de la brièveté de la vidéo.
  • Idées d’apprentissage par projet : trois des quatre suggestions étaient intéressantes. 

Limites et points d’amélioration : 

  • Mots-clés et redondance : les mots clés retenus par l’AI sont trop basiques et généraux, alors que d’autres termes cités dans la vidéo auraient été plus importants et plus appropriés. Il en découle que toutes les activités créées à partir des mots clés (redondance) étaient peu pertinentes (vidéo interactive, glossaire, cartes conceptuelles, drag the word, mots croisés, mots secrets). .
  • Questions ouvertes manquantes : aucune proposition de questions ouvertes, nécessitant analyse et réflexion (par exemple: quelles sont les caractéristiques communes des objets soumis à la RTI, la technique s’applique-t-elle ou est-elle utile à tout objet archéologique, etc.)
  • Limites liées à la reconnaissance du texte uniquement : l‘IA étant basée sur du texte, il manque au cours interactif proposé un ensemble de questions à explorer sur ce qui est montré dans la vidéo et qui peut être tout aussi important que le discours en termes d’objectifs de visionnage (par exemple : la taille et les composants de l’équipement, l’environnement dans lequel la RTI est réalisée, la taille et les caractéristiques des objets traités, etc.) 

 4. Conclusion  

Nolej est un outil efficace, mais il est préférable de générer le texte de base soi-même, en y intégrant les mots-clés et les concepts dont les étudiant-es doivent se saisir. Le modèle d’apprentissage de cette IA est encore basique, ne correspondant qu’au premier niveau de la taxonomie de Bloom. 

Un défaut majeur est que l’IA n’analyse pas les images et ne génère donc pas de mots-clés ou de quiz sur ce qui est montré dans une vidéo, alors que de nombreux domaines d’études comportent des apprentissages liés à un ensemble de gestes à pratiquer ou des items à observer.  

Enfin, les questions de réflexion et d’analyse ainsi que les questions ouvertes sont totalement absentes. 

 

Conclusion

Les résultats ont révélé que ces deux outils généraient efficacement de nombreuses activités d’enseignement basées sur le texte, améliorant principalement l’apprentissage des connaissances déclaratives. Ils ont notamment amélioré la maîtrise et la compréhension des concepts clés en augmentant leur fréquence dans les activités. Cependant, des limites ont été identifiées, par exemple l’incapacité de générer des questions ouvertes nécessitant une réflexion critique, ou d’incorporer des distracteurs approfondis dans les questions à choix multiples, ou de faciliter l’apprentissage collaboratif. De plus, ces outils ne permettent pas de développer des activités sur des objets visuels, ce qui en limite la portée dans de nombreux domaines. En outre, la version actuelle Smart Import ne prend en charge que les ressources en langue anglaise, d’autres langues devant encore être développées.  

Grâce à cet essai, les avantages d’un moteur d’IA ont pu être reconnus, de même que son potentiel pour augmenter de manière significative la productivité dans la création de contenu d’apprentissage interactif basé sur le texte et pour améliorer l’accessibilité. Simultanément, le test a permis d’acquérir une meilleure compréhension des risques, en particulier des préoccupations concernant l’étouffement de la créativité et la nécessité d’une intervention humaine pour maintenir l’intégrité pédagogique. 

Questions pour le futur...?

Il est clair cependant que l’utilisation de ces outils d’IA dans la conception pédagogique interpelle et ce, à plusieurs niveaux. Par exemple, dans quelle mesure les contenus d’apprentissage interactifs créés par des outils d’IA seront-ils crédibles dans un environnement universitaire ? Ou encore, comment trouver un équilibre entre l’automatisation et la créativité dans la conception des contenus d’apprentissage ? Lors de l’intégration d’outils d’IA tels que Smart Import dans la conception pédagogique, où les rôles humains ne peuvent-ils pas être remplacés par l’IA ?  

Le test effectué et ses résultats invitent à la réflexion sur l’évolution du rôle de l’IA dans l’élaboration future de la création de contenus d’apprentissage intelligents. 



Les IA génératives à l’Université de Genève: prise de position du Rectorat et ressources

Le 6 juillet dernier, le Rectorat faisait part de sa prise de position concernant l’utilisation d’intelligences artificielles génératives dans le contexte académique.

Dans le texte publié sur son site internet, l’Université de Genève reconnaît l’importance et les avantages offerts par l’IA générative, mais également ses limites et les défis éthiques qu’elle présente. Elle indique qu’il revient aux facultés et aux enseignant-es de définir les conditions d’utilisation de ces outils et de promouvoir la transparence en matière de citation.

L’UNIGE fait les recommandations suivantes:

  • Former les étudiant-es et les enseignant-es à l’usage de chatGPT ou outils apparentés
  • Poser un cadre clair à l’échelle facultaire et de chaque enseignement
  • Rappeler la notion d’intégrité académique et des objectifs d’une formation universitaire
  • Rappeler l’importance des compétences rédactionnelles dans la formation universitaire
  • Valoriser la notion d’auteur-e d’un travail scientifique/académique et la responsabilité qu’il ou elle porte

Le même cadre et la même transparence doivent être appliqués à l’utilisation d’IA générant des images.

Dans son message, le Rectorat met à disposition deux ressources pour alimenter une réflexion appelée à évoluer et à s’élargir : un guide interactif sur l’IA générative dans l’enseignement universitaire et un mur virtuel (padlet) rassemblant de nombreuses références, articles, blogs et sites internet.

Guide interactif sur l’IA générative dans l’enseignement universitaire

Le guide interactif présente ChatGPT et d’autres IA génératives de texte et met à disposition de nombreuses ressources. Il comprend une partie sur les considérations éthiques à prendre en compte lors de l’utilisation de tels outils, mais fournit également des exemples pratique pour l’utilisation de ChaGPT dans l’enseignement et l’évaluation. Une partie s’intéresse particulièrement au renforcement de l’apprentissage des étudiant-es en utilisant l’IA générative

Padlet / Mur virtuel

Le padlet rassemble des ressources de typedivers : actualité des IA génératives, qu’est-ce que ChatGPT, IA génératives dans l’éducation : pour le e-learning, les évaluations, ainsi qu’outils et applications à disposition, notions et questions de plagiat, d’aigiarisme (plagiat assisté d’une IA) et de droit d’auteur.

Références et autres ressources

J. Érard, L’UNIGE prend position sur l’intelligence artificielle dans le contexte académique, Le Journal de l’UNIGE, printemps 2023 : article présentant la prise de position du Rectorat et un éclairage sur l’IA du Prof. Christian Lovis (Faculté de médecine)

D. Birchmeier, ChatGPT pour la recherche académique, Blog Ciel, 16 mai 2023 : un étudiant en Services et systèmes numérique documente son utilisation cadrée de ChatGPT pour la rédaction de son mémoire de bachelor

R. Zaffran, ChatGPT: An Ongoing and Unprecedented Disruption for Education and Training?, NewSpecial Magazine, avril 2023, p. 28-30: l’article met en évidence l’impact de l’IA, les avantages et les limites de ChatGPT dans l’éducation, et offre des recommandations pour une utilisation éclairée de ces technologies dans les établissements éducatifs.

Unesco : Guidance for generative AI in education and research, 2023: le texte propose des recommandations concrète pour les décideurs politiques et les établissements éducatifs, mais émet aussi des exigences à l’intention des fournisseurs d’IA génératives,  tout en invitant la communauté internationale à réfléchir aux conséquences à long terme de ces outils sur l’enseignement, l’apprentissage, et l’évaluation.

 



ChatGPT pour la recherche académique

Introduction

Le 30 novembre 2022, OpenAI lance ChatGPT. En seulement 5 jours, la plateforme atteint le million d’utilisateurs[1]. Cette intelligence artificielle a, en seulement quelques mois, bouleversé notre rapport à l’information et à la connaissance, créant pour beaucoup de professionnels de l’éducation des craintes sur l’avenir de leur discipline.

Je ne suis ni un professionnel de l’éducation, ni un expert de l’intelligence artificielle. Je suis un étudiant en Services et systèmes numériques, un passionné d’informatique et un paresseux aguerri. En décembre de l’année passée, je commençais à écrire ma thèse de Bachelor, sur laquelle je travaillais depuis déjà un certain temps. Ma curiosité, comme pour beaucoup d’autres, m’a poussé à explorer ChatGPT.

« I choose a lazy person to do a hard job. Because a lazy person will find an easy way to do it. »  – Bill Gates

Je voulais tester ses capacités à traiter des sujets complexes, mais pour pouvoir correctement évaluer la qualité des réponses, il me fallait trouver un sujet que je maîtrise. 90% de mes pensées étant consacré à ma thèse, il m’a paru évident de le questionner sur ce sujet. Je me suis rendu compte du potentiel énorme de cet outil lorsque, en quelques interactions, l’IA est arrivée aux mêmes conclusions que moi après environ 10 mois de travail…

Après avoir remis en question mes trois dernières années de formations, j’ai pris du recul et compris que ces résultats n’étaient pas le produit d’une réflexion de la part de ChatGPT mais d’une agrégation très bien formulée de recherches menées par de brillants humains.

Après quelques heures d’utilisation, j’étais convaincu. J’allais utiliser ChatGPT pour écrire ma thèse. Laissez-moi maintenant vous expliquer pourquoi ce billet ne s’intitule pas “Comment j’ai utilisé une intelligence artificielle pour écrire mon travail de Bachelor à ma place”.

Définir un cadre et une méthodologie

ChatGPT n’ayant pas encore fêté ses 1 mois d’existence, il n’existait pas encore de cas concret de son utilisation dans le cadre de la recherche académique et donc pas de directives précises à suivre. Il était donc nécessaire, afin de légitimer mon travail, de définir un cadre et une méthodologie clairs, afin d’utiliser l’outil de manière responsable et éthique. Sous la supervision de Laurent Moccozet, j’ai défini quatre règles fondamentales à respecter:

I. Comprendre l’outil

ChatGPT est un outil performant, mais peut produire des informations erronées ou de mauvaises qualités, il est donc important de comprendre ses limites et son fonctionnement, afin de réduire ces risques. En se basant sur le nom du service, nous pouvons définir 2 méthodes, qui permettent d’améliorer la qualité et la pertinence des réponses, celles-ci sont les suivantes:

Chat : L’une des grandes forces de cet outil est sa capacité à adapter ses réponses, également appelées « prompts », en fonction des retours de l’utilisateur. Il est crucial d’utiliser cette fonctionnalité pour orienter l’IA vers la réponse la plus pertinente. Cette fonctionnalité a même entraîné l’émergence d’un nouveau domaine de recherche, appelé le « prompt engineering ». C’est-à-dire étudier la façon dont l’utilisateur interagit avec le programme et trouver les formulations les plus à même de produire des réponses pertinentes. Par exemple, lorsqu’on utilise une calculatrice, il est plus efficace d’écrire 3³ plutôt que 3×3×3 .

GPT (Generative Pre-trained Transformer) : GPT-3 et 4 sont ce qu’on appelle des LLM ou large language model. En d’autres termes, ce sont des systèmes capables de générer du texte sur une vaste quantité de sujets. Afin d’optimiser ses réponses, il est souhaitable de poser un cadre, en définissant le niveau de précision de ses réponses, ainsi que le contexte d’utilisation, par exemple: « Tu es un étudiant en Bachelor. Tu écris une thèse sur … ». Ce genre de méthodes rentre dans le domaine du prompt engineering et vaut la peine d’être étudié plus en détail afin de vraiment s’approprier l’outil.

II. Connaissances préliminaires

Pour assurer une utilisation efficace des capacités conversationnelles de ChatGPT, l’utilisateur doit posséder des connaissances préalables sur le sujet qu’il interroge, afin d’être en mesure de vérifier et de comprendre les informations données par l’IA.

Ce prérequis est essentiel pour assurer une utilisation optimale de ce service, en tant qu’outil de recherche.

III. Relecture et recherche additionnelles

Chaque réponse fournie par ChatGPT doit être examinée et soumise à une recherche supplémentaire pour vérifier son exactitude, sa pertinence et la source des informations présentées.

ChatGPT ne peut pas être référencé comme source de l’information qu’il fournit, il est donc essentiel de mener des recherches additionnelles, dans le but de soutenir ses affirmations avec des sources fiables.

Il est important de préciser que ChatGPT, contrairement à Bing ou Google, n’est pas un moteur de recherche. Bien qu’il soit capable de générer des informations sur une variété de sujets, il ne vérifie pas leurs exactitudes et véracité car il n’a pas la capacité de précisément déterminer l’origine des informations utilisées pour produire ses réponses. Il reste néanmoins un bon complément aux moteurs de recherche pour donner une direction et/ou afin d’expliquer des concepts résultants de recherches classiques.

Ce processus peut être facilité par l’utilisation de Bing, qui a récemment intégré GPT-4 à son moteur de recherche et qui inclut directement dans ses réponses les sources utilisées. La vérification de la fiabilité de ces références, ainsi que la recherche de sources supplémentaires restent néanmoins nécessaire.

IV. Documentation de l’utilisation

Bien que les réponses de ChatGPT ne puissent pas être directement utilisées comme références, il est important de documenter toutes les discussions pertinentes au travail qu’il a aidé à écrire. Cela permet de légitimer le travail de l’auteur et de prouver l’authenticité du résultat final.

Cette étape est particulièrement importante, car elle permet de soutenir l’utilisation éthique de l’IA pour la recherche académique, mais également de créer un précédent dans un contexte où il s’agit encore d’une technologie émergente et controversée.

Applications concrètes

La versatilité des LLM et la vitesse phénoménale de l’innovation dans le domaine permettent d’innombrables cas d’utilisation. J’ai, pour ma part, identifié 4 applications qui ont servit à la rédaction de mon travail de Bachelor, et pour lesquelles j’ai appliqué la méthodologie décrite ci-dessus.

I. Collecte d’informations

J’ai utilisé ChatGPT pour trouver et comprendre des informations sur des articles, des algorithmes, des concepts mathématiques et d’autres sujets plus ou moins complexes. L’avantage de combiner cet outil avec des moteurs de recherches classiques est qu’il permet d’obtenir des informations très précises, basées sur différentes sources agrégées en réponses digestes et compréhensibles pouvant ensuite être développées plus profondément grâce à la fonctionnalité de chat.

Pour assurer l’exactitude des informations collectées, j’ai utilisé des sources alternatives de vérification Si aucune source fiable n’a pu être identifiée, les informations n’ont pas été utilisées.

II. Description des algorithmes

J’ai fourni à ChatGPT des extraits de mon code, dûment annoté, afin qu’il me génère des descriptions des algorithmes utilisés. Les réponses produites, bien que partiellement correctes, m’ont permis de gagner du temps sur la rédaction ainsi qu’à mettre des mots sur des concepts complexes qui ne sont pas toujours évidents à traduire en langage naturel.

III. Amélioration de la qualité d’écriture

L’utilisation régulière de ce nouvel outil a impacté ma façon de rédiger. Là où auparavant je prenais soin de bien formuler chaque phrase les unes après les autres au fur et à mesure que j’écrivais, avec ChatGPT j’ai pu me concentrer sur le contenu et lui déléguer (partiellement) la forme. J’ai rapidement pris l’habitude de rédiger mes idées directement dans le chat sous forme de note afin qu’il me génère des phrases cohérentes et bien écrites.

IV. Utilisation de ChatGPT comme point de départ

Je me suis ensuite servi des réponses de ChatGPT comme fondation pour ma thèse en apportant les modifications nécessaires et en les ordonnant de sorte à former un tout qui soit cohérent et fidèle à mes idées.

Dans certains cas, les phrases générées par ChatGPT étaient suffisamment bonnes pour être utilisées (presque) telles quelles, mais dans la grande majorité des cas, la plupart du contenu a été modifié pour s’adapter à la structure globale du document ainsi qu’à mon propre style d’écriture. Je pense qu’il est important de ne pas trop se reposer sur les formulations produites par le LLM afin d’éviter que la forme rédactionnelle ne devienne trop impersonnelle.

Comme je l’ai précisé plus haut, la conversation utilisée pour générer ce texte a été mise à disposition dans les annexes de mon travail afin qu’elle puisse servir d’exemple de comment utiliser l’IA efficacement pour la rédaction.

“Du coup c’est le robot qui a fait le travail à ta place ?”

C’est la question que tout le monde se pose, et c’est légitime. ChatGPT est un outil incroyable et bien qu’il m’ait aidé à améliorer considérablement ma productivité, il n’a pas inventé les algorithmes présentés dans ma thèse.

Comme on ne remet pas en question le travail d’un mathématicien qui utiliserait une calculatrice, l’utilisation de ChatGPT ne devrait pas non plus remettre en question mon travail. Il est vrai que certains pourraient utiliser cet outil sans documentation ou de manière inappropriée pour accomplir leur travail à leur place. Mais le fait est que les IA existent, continueront d’exister et de s’améliorer. Aujourd’hui, ChatGPT offre un avantage concurrentiel et il serait contre-productif de l’interdire. Au contraire, nous avons l’opportunité de l’intégrer dans le système éducatif, d’offrir aux étudiants un tuteur capable de s’adapter à leur besoin, disponible à tout moment pour répondre à leurs questions et sans crainte d’être jugé.

Je suis profondément convaincu qu’un tel outil, correctement adapté, a le potentiel d’améliorer l’apprentissage des étudiants à chaque étape du système scolaire. Sal Khan, le fondateur de la Khan Academy, a déjà intégré un tel outil à sa plateforme d’apprentissage en ligne et les résultats sont encourageants.

[jwplayer mediaid= »13985″]

Ce nouvel outil et les intelligences artificielles de manière générale ne sont cependant pas sans risques. Au-delà des inquiétudes autour de l’insurrection des machines, les capacités génératives des IA modernes posent de sérieux risques autour de la falsification des informations, et de l’incapacité de ces machines à évaluer les risques liés aux réponses produites. Il est crucial de continuer à améliorer ces systèmes plutôt que d’essayer de les interdire, afin de minimiser les risques et de garder un certain contrôle quant à leurs utilisations.

Le changement est inévitable, autant en faire partie.

[1] Buchholz, K. (2023) ‘ChatGPT Sprints to One Million Users’, Statista, 24 janvier. Disponible à: https://www.statista.com/chart/29174/time-to-one-million-users/ (consulté le 24 mars 2023).