• Séance ouverte de la CIP
    Séance ouverte de la CIP: Présentation des finalistes du prix de l’innovation pédagogique 2024
  • Intelligence Artificielle Générative à l'UNIGE
    Guide d'utilisation de l'intelligence artificielle générative à l'Université de Genève
  • Makeiteasy
    Une plateforme pour tester et améliorer vos compétences numériques à votre rythme
  • Ciel cherche: rédacteurs/trices

Tag : outil

Pas besoin de ChatGPT pour ça

Ce billet fait suite à une présentation réalisée dans le cadre des TAKE OVER, des cours sur le numérique donnés par des étudiant.e.s pour des étudiant.e.s. Le lien de la présentation est disponible ici et la vidéo de l’atelier est disponible ici.

ChatGPT est partout et utilisé par tout le monde. Ce nom est tellement dominant qu’il est pratiquement devenu synonyme du terme « intelligence artificielle ». Pourtant, l’intelligence artificielle est bien plus que ça et nombreux sont les utilisateurs qui gagneraient à en apprendre davantage sur l’IA et à découvrir des alternatives à ChatGPT.

Introduction

Nous avons trop souvent l’habitude de parler de l’intelligence artificielle (IA) de manière générale, mais sans nous attarder sur ce que ça représente. À cet égard, on parle souvent de ChatGPT, ce modèle d’intelligence artificielle utilisé par tout le monde, mais sans aller plus loin. Par exemple, on ne le décline pas sous ses différents modèles (GPT-4o, o1, etc.). Pourtant, il existe tellement de modèles en dehors de ceux proposés par OpenAI, tels que les séries Claude (Anthropic), DeepSeek (DeepSeek), Gemma (Google), LLaMA (Meta) et Qwen (Alibaba Cloud).

En réalité, lorsque l’on s’intéresse davantage au sujet, on parle de modèles d’intelligence artificielle établis sur le deep learning (réseau de neurones). Les Large Language Models (LLM pour Large Language Models), basés sur l’architecture Transformers, ne sont qu’une partie de ce qui est fait dans le domaine de l’intelligence artificielle. Bien qu’ils soient très puissants et permettent des interactions en direct, ils souffrent de nombreuses limites comme l’hallucination, qui n’est en réalité pas un bug, mais bel et bien un élément attendu dans ce type de système. Pour en apprendre davantage sur les fondamentaux techniques des LLMs de façon visuelle, vous pouvez en apprendre plus dans la playlist de 3Blue1Brown sur les réseaux de neurones.

Mais il existe un monde gigantesque en dehors des LLMs. On parle par exemple assez souvent des modèles de diffusion pour les images et les vidéos. Mais L’IA est utilisé dans beaucoup de domaines et a adopté énormément d’usages. Par exemple, il n’y a qu’à voir le site web there is an AI for that qui répertorie actuellement plus de 35’000 outils d’IA. Il n’est pas nécessaire de tout connaître, mais il est bien d’utiliser sa curiosité pour voir ce qu’il est possible de faire au-delà de ChatGPT.

Le problème des LLMs propriétaires comme ChatGPT

Au sujet des modèles commerciaux tels que ChatGPT utilisés par beaucoup de personnes, peu d’attention est portée sur le fait qu’ils sont en fait possédés par de grandes entreprises. Ces dernières sont les seules à pouvoir créer ces modèles de fondation puisqu’elles disposent de systèmes de calcul très puissants. Ce n’est pas à la portée de tout le monde. Bien que ce soit une grande chance pour nous que ces entreprises permettent au plus grand nombre de profiter de ces modèles (souvent gratuitement), cette situation soulève des questions importantes.

Premièrement, ces modèles commerciaux sont problématiques pour l’environnement parce qu’ils consomment davantage d’énergie que la plupart des systèmes que nous avons créés jusqu’à maintenant. De plus, malgré leur accessibilité grâce à la gratuité de certains modèles propriétaires, ce sont principalement quelques compagnies qui en possèdent le contrôle. Beaucoup de personnes ont vu dans l’ouverture et l’accès à ces modèles une démocratisation de l’IA, mais aussi longtemps que ces modèles seront centralisés et la propriété de grandes compagnies, le terme « démocratisation » ne peut pas être employé.

Deuxièmement, en tant qu’utilisateurs, nous avons tendance à utiliser ces modèles pour presque tout. Par exemple, nous utilisons ChatGPT pour écrire une lettre de motivation ou corriger des fautes d’orthographe. On pourrait se questionner sur la nécessité de devoir utiliser un grand modèle capable de grandes prouesses comme la création de code, l’écriture stylisée ou les raisonnements mathématiques avancés, pour ajouter quelques « s » oubliés dans un petit texte. Est-ce que cette consommation d’énergie est nécessaire ? N’aurions-nous pas des modèles tout aussi performants et moins énergivores ? La parcimonie est nécessaire ici.

De plus, une portion significative des utilisateurs discute librement de choses privées avec ces modèles, ce qui est problématique, car ces données sont ensuite utilisées par les compagnies pour le réentraînement de leurs modèles. Notons également qu’un compte sur ces plateformes centralisant toutes nos conversations permettrait d’établir des profils d’utilisateurs très précis. Ces données pourraient être utilisées à des fins de publicités personnalisées à l’intérieur des discussions.

Quelles sont les alternatives ?

DuckDuckGoAI

Heureusement, il y a des solutions pour celles et ceux qui s’intéressent à ces problèmes. Pour la confidentialité, nous pouvons utiliser DuckDuckGoAI qui donne accès à des modèles en ligne d’OpenAI (GPT-40 mini et 03-mini), Anthropic (Claude 2 Haiku), Meta (Llama 7B) et Mistral (Mistral small) gratuitement sans la nécessité d’avoir un compte. La plateforme se charge d’envoyer les requêtes pour nous et donc aucune de nos conversations n’est centralisée dans un seul et même compte. À condition que des informations sensibles ne soient pas transmises, cela garantit une bien meilleure confidentialité. Toutefois, ça ne règle pas forcément le problème environnemental parce que de nombreuses personnes peuvent continuer à utiliser ces grands modèles en ligne pour de petites tâches.

Huggingface Spaces

Nous avons la possibilité d’utiliser une grande variété de modèles d’IA sur la plateforme Huggingface. Ce site donne la possibilité d’utiliser toute une série de modèles gratuitement et sans données collectées. Il suffit de les chercher dans les Huggingface Spaces. Puisque de nombreux fournisseurs de modèles utilisent ce système pour faire de la promotion de leurs produits, il nous est possible de tester des modèles récents et avancés sur Huggingface. Il n’y a pas que des modèles de conversation, mais également des modèles de génération d’image, d’audio ou de vidéo. Notons toutefois qu’il n’est pas garanti que tous les modèles restent disponibles indéfiniment.

SLMs ou Modèles locaux

Une autre approche, qui permet à la fois une meilleure confidentialité et un usage limité d’énergie pour des petites tâches, est l’utilisation de modèles locaux ou Small Language Models (SLM) tels que LLaMA 4, Qwen 3 ou Gemma 3 (il y en a bien plus). Ces modèles se trouvent également sur Huggingface, mais peuvent être téléchargés et utilisés localement. Parce que ces modèles sont beaucoup plus petits et disponibles en différentes tailles, ils peuvent marcher sur nos ordinateurs et restent quand même assez performants pour la taille qu’ils ont. Typiquement, ils sont assez efficaces lorsqu’il faut faire de la traduction ou de la correction textuelle.

Il est aujourd’hui assez simple de les obtenir. Il suffit de choisir un logiciel tel que ollama ou LM Studio. Puis de télécharger un modèle local au travers du logiciel. Notons que les modèles ne sont pas open source mais plutôt open weight qui ont dans la grande majorité des licences permissives, donc pas de restriction pour une utilisation privée. Il existe des ressources francophones disponibles pour les deux logiciels. Une playlist sur ollama et une vidéo sur LM Studio.

Qui dit local, dit indépendance à Internet, ce qui reste un argument assez intéressant. On notera aussi que pour nos amis développeurs, l’utilisation de l’API par le biais des logiciels fournissant ces modèles locaux n’engendre pas de coût contrairement aux modèles commerciaux.

Puisque les modèles sont disponibles directement sur nos ordinateurs, la confidentialité est garantie. Ils ne sont pas aussi puissants que les plus gros modèles commerciaux, mais la plupart du temps, cela suffira pour des tâches textuelles simples. C’est un atout majeur qu’il ne faut pas négliger. Il faut toutefois noter que les SLMs sont beaucoup moins performants que les LLMs (modèles commerciaux) lorsqu’il s’agit de répondre à des questions de connaissance ou de résolution de problème. Mais les petits modèles peuvent combler en bonne partie ce désavantage en utilisant le RAG (Retrieval Augmented Generation). En leur donnant accès à des ressources en local et en ligne, les SLMs comblent leur manque de connaissances.

Notons qu’une des limites de cette approche est de devoir utiliser des modèles plus petits lorsqu’on ne dispose pas de carte graphique assez puissante sur notre ordinateur. Sans cela, les modèles supérieurs à 4b (4 milliards de paramètres) seront très lents. Malgré ces limitations, les modèles locaux restent des alternatives viables aux modèles commerciaux. À l’avenir, ces SLMs vont s’améliorer et devenir de plus en plus performants tout en restant de taille accessible. Pour des tâches spécifiques (surtout après le recours de Fine-Tuning), ils seront vraiment très pratiques et utiles. Voilà pourquoi je recommande l’utilisation de petits modèles locaux pour de petites tâches.

Pas besoin de ChatGPT pour ça

Donc pas besoin de ChatGPT pour ça. « Ça » ? C’est quoi « ça » ? Ce sont des travaux basiques, tels que les résumés simples, les traductions, la correction textuelle, le brainstorming ou la reformulation. Ces tâches peuvent être faites localement et en toute confidentialité en utilisant un SLM. Lorsque des sources sont disponibles, ces modèles sont capables de répondre précisément à des questions dans un domaine spécifique. Pour de nombreuses tâches, nous n’avons pas besoin de ChatGPT ni d’un modèle aussi volumineux. On a simplement besoin d’un modèle compact qui suffit pour répondre à nos emails et écrire des messages, corriger des fautes, traduire nos documents ou tout autre type de tâches de ce type-là. Si vous avez une bonne maîtrise de la programmation, vous pouvez même automatiser des processus localement et gratuitement.

Si l’approche des modèles locaux ne vous plaît pas ou que vous avez besoin de modèles plus grands ou sophistiqués pour répondre à des questions mathématiques, de logique ou de programmation, vous avez toujours la possibilité d’utiliser DuckDuckGoAI qui donne accès gratuitement et de manière confidentielle à de plus grands modèles. Huggingface Spaces et une alternative intéressante qui donne non seulement accès à des LLMs et SLMs de tout genre, mais aussi à des modèles de génération d’audio, d’image ou de vidéo.

Si vous avez un abonnement payant à auprès d’une compagnie de LLMs commerciaux et avez donc accès à de meilleurs modèles, vous pourrez les utiliser pour des problèmes plus costauds. Toutefois, rien ne vous empêche d’utiliser un mélange de toutes ces alternatives présentées ci-dessus.



Enseigner à l’UNIGE: ressources en un clic

L’enseignement à distance dans l’urgence du COVID a permis à l’UNIGE, comme à d’autres universités, de mieux réaliser l’importance d’un soutien pertinent et efficace pour les enseignant-es. Des ressources sur l’enseignement à distance et hybride avaient alors émergé très rapidement et avaient atteint leur cible. En sortie de crise, des entretiens menés avec des enseignant-es ont démontré le besoin de faciliter l’accès aux ressources existantes. L’enseignement à distance a perdu en importance mais les défis ne manquent pas, que ce soit autour de l’IA dans l’enseignement ou de la crainte de voir l’enregistrement des cours vider les auditoires.

L’enseignement est une des missions fondamentales de l’UNIGE, mais il n’est pas facile de lui accorder la place nécessaire dans un quotidien professionnel chargé. Les services communs de l’Université développent tout au long de l’année des ressources et prestations de haute qualité, qui n’ont pas toujours la visibilité qu’elles méritent. Le nouveau portail Enseigner à l’UNIGE vise à simplifier l’accès à ces ressources pour vous accompagner dans toutes les phases de votre enseignement.

Quelles que soient votre approche, votre expérience et vos méthodes d’enseignement, vous trouverez en quelques minutes des pistes inspirantes à explorer, avec des filtres par objectif, par format de ressource et par durée de consultation. La page sera mise à jour régulièrement pour inclure les nouvelles ressources qui seront développées. N’hésitez pas à parcourir ces contenus et contactez nos équipes, elles sont là pour vous!



ChatGPT pour la recherche académique

Introduction

Le 30 novembre 2022, OpenAI lance ChatGPT. En seulement 5 jours, la plateforme atteint le million d’utilisateurs[1]. Cette intelligence artificielle a, en seulement quelques mois, bouleversé notre rapport à l’information et à la connaissance, créant pour beaucoup de professionnels de l’éducation des craintes sur l’avenir de leur discipline.

Je ne suis ni un professionnel de l’éducation, ni un expert de l’intelligence artificielle. Je suis un étudiant en Services et systèmes numériques, un passionné d’informatique et un paresseux aguerri. En décembre de l’année passée, je commençais à écrire ma thèse de Bachelor, sur laquelle je travaillais depuis déjà un certain temps. Ma curiosité, comme pour beaucoup d’autres, m’a poussé à explorer ChatGPT.

« I choose a lazy person to do a hard job. Because a lazy person will find an easy way to do it. »  – Bill Gates

Je voulais tester ses capacités à traiter des sujets complexes, mais pour pouvoir correctement évaluer la qualité des réponses, il me fallait trouver un sujet que je maîtrise. 90% de mes pensées étant consacré à ma thèse, il m’a paru évident de le questionner sur ce sujet. Je me suis rendu compte du potentiel énorme de cet outil lorsque, en quelques interactions, l’IA est arrivée aux mêmes conclusions que moi après environ 10 mois de travail…

Après avoir remis en question mes trois dernières années de formations, j’ai pris du recul et compris que ces résultats n’étaient pas le produit d’une réflexion de la part de ChatGPT mais d’une agrégation très bien formulée de recherches menées par de brillants humains.

Après quelques heures d’utilisation, j’étais convaincu. J’allais utiliser ChatGPT pour écrire ma thèse. Laissez-moi maintenant vous expliquer pourquoi ce billet ne s’intitule pas “Comment j’ai utilisé une intelligence artificielle pour écrire mon travail de Bachelor à ma place”.

Définir un cadre et une méthodologie

ChatGPT n’ayant pas encore fêté ses 1 mois d’existence, il n’existait pas encore de cas concret de son utilisation dans le cadre de la recherche académique et donc pas de directives précises à suivre. Il était donc nécessaire, afin de légitimer mon travail, de définir un cadre et une méthodologie clairs, afin d’utiliser l’outil de manière responsable et éthique. Sous la supervision de Laurent Moccozet, j’ai défini quatre règles fondamentales à respecter:

I. Comprendre l’outil

ChatGPT est un outil performant, mais peut produire des informations erronées ou de mauvaises qualités, il est donc important de comprendre ses limites et son fonctionnement, afin de réduire ces risques. En se basant sur le nom du service, nous pouvons définir 2 méthodes, qui permettent d’améliorer la qualité et la pertinence des réponses, celles-ci sont les suivantes:

Chat : L’une des grandes forces de cet outil est sa capacité à adapter ses réponses, également appelées « prompts », en fonction des retours de l’utilisateur. Il est crucial d’utiliser cette fonctionnalité pour orienter l’IA vers la réponse la plus pertinente. Cette fonctionnalité a même entraîné l’émergence d’un nouveau domaine de recherche, appelé le « prompt engineering ». C’est-à-dire étudier la façon dont l’utilisateur interagit avec le programme et trouver les formulations les plus à même de produire des réponses pertinentes. Par exemple, lorsqu’on utilise une calculatrice, il est plus efficace d’écrire 3³ plutôt que 3×3×3 .

GPT (Generative Pre-trained Transformer) : GPT-3 et 4 sont ce qu’on appelle des LLM ou large language model. En d’autres termes, ce sont des systèmes capables de générer du texte sur une vaste quantité de sujets. Afin d’optimiser ses réponses, il est souhaitable de poser un cadre, en définissant le niveau de précision de ses réponses, ainsi que le contexte d’utilisation, par exemple: « Tu es un étudiant en Bachelor. Tu écris une thèse sur … ». Ce genre de méthodes rentre dans le domaine du prompt engineering et vaut la peine d’être étudié plus en détail afin de vraiment s’approprier l’outil.

II. Connaissances préliminaires

Pour assurer une utilisation efficace des capacités conversationnelles de ChatGPT, l’utilisateur doit posséder des connaissances préalables sur le sujet qu’il interroge, afin d’être en mesure de vérifier et de comprendre les informations données par l’IA.

Ce prérequis est essentiel pour assurer une utilisation optimale de ce service, en tant qu’outil de recherche.

III. Relecture et recherche additionnelles

Chaque réponse fournie par ChatGPT doit être examinée et soumise à une recherche supplémentaire pour vérifier son exactitude, sa pertinence et la source des informations présentées.

ChatGPT ne peut pas être référencé comme source de l’information qu’il fournit, il est donc essentiel de mener des recherches additionnelles, dans le but de soutenir ses affirmations avec des sources fiables.

Il est important de préciser que ChatGPT, contrairement à Bing ou Google, n’est pas un moteur de recherche. Bien qu’il soit capable de générer des informations sur une variété de sujets, il ne vérifie pas leurs exactitudes et véracité car il n’a pas la capacité de précisément déterminer l’origine des informations utilisées pour produire ses réponses. Il reste néanmoins un bon complément aux moteurs de recherche pour donner une direction et/ou afin d’expliquer des concepts résultants de recherches classiques.

Ce processus peut être facilité par l’utilisation de Bing, qui a récemment intégré GPT-4 à son moteur de recherche et qui inclut directement dans ses réponses les sources utilisées. La vérification de la fiabilité de ces références, ainsi que la recherche de sources supplémentaires restent néanmoins nécessaire.

IV. Documentation de l’utilisation

Bien que les réponses de ChatGPT ne puissent pas être directement utilisées comme références, il est important de documenter toutes les discussions pertinentes au travail qu’il a aidé à écrire. Cela permet de légitimer le travail de l’auteur et de prouver l’authenticité du résultat final.

Cette étape est particulièrement importante, car elle permet de soutenir l’utilisation éthique de l’IA pour la recherche académique, mais également de créer un précédent dans un contexte où il s’agit encore d’une technologie émergente et controversée.

Applications concrètes

La versatilité des LLM et la vitesse phénoménale de l’innovation dans le domaine permettent d’innombrables cas d’utilisation. J’ai, pour ma part, identifié 4 applications qui ont servit à la rédaction de mon travail de Bachelor, et pour lesquelles j’ai appliqué la méthodologie décrite ci-dessus.

I. Collecte d’informations

J’ai utilisé ChatGPT pour trouver et comprendre des informations sur des articles, des algorithmes, des concepts mathématiques et d’autres sujets plus ou moins complexes. L’avantage de combiner cet outil avec des moteurs de recherches classiques est qu’il permet d’obtenir des informations très précises, basées sur différentes sources agrégées en réponses digestes et compréhensibles pouvant ensuite être développées plus profondément grâce à la fonctionnalité de chat.

Pour assurer l’exactitude des informations collectées, j’ai utilisé des sources alternatives de vérification Si aucune source fiable n’a pu être identifiée, les informations n’ont pas été utilisées.

II. Description des algorithmes

J’ai fourni à ChatGPT des extraits de mon code, dûment annoté, afin qu’il me génère des descriptions des algorithmes utilisés. Les réponses produites, bien que partiellement correctes, m’ont permis de gagner du temps sur la rédaction ainsi qu’à mettre des mots sur des concepts complexes qui ne sont pas toujours évidents à traduire en langage naturel.

III. Amélioration de la qualité d’écriture

L’utilisation régulière de ce nouvel outil a impacté ma façon de rédiger. Là où auparavant je prenais soin de bien formuler chaque phrase les unes après les autres au fur et à mesure que j’écrivais, avec ChatGPT j’ai pu me concentrer sur le contenu et lui déléguer (partiellement) la forme. J’ai rapidement pris l’habitude de rédiger mes idées directement dans le chat sous forme de note afin qu’il me génère des phrases cohérentes et bien écrites.

IV. Utilisation de ChatGPT comme point de départ

Je me suis ensuite servi des réponses de ChatGPT comme fondation pour ma thèse en apportant les modifications nécessaires et en les ordonnant de sorte à former un tout qui soit cohérent et fidèle à mes idées.

Dans certains cas, les phrases générées par ChatGPT étaient suffisamment bonnes pour être utilisées (presque) telles quelles, mais dans la grande majorité des cas, la plupart du contenu a été modifié pour s’adapter à la structure globale du document ainsi qu’à mon propre style d’écriture. Je pense qu’il est important de ne pas trop se reposer sur les formulations produites par le LLM afin d’éviter que la forme rédactionnelle ne devienne trop impersonnelle.

Comme je l’ai précisé plus haut, la conversation utilisée pour générer ce texte a été mise à disposition dans les annexes de mon travail afin qu’elle puisse servir d’exemple de comment utiliser l’IA efficacement pour la rédaction.

“Du coup c’est le robot qui a fait le travail à ta place ?”

C’est la question que tout le monde se pose, et c’est légitime. ChatGPT est un outil incroyable et bien qu’il m’ait aidé à améliorer considérablement ma productivité, il n’a pas inventé les algorithmes présentés dans ma thèse.

Comme on ne remet pas en question le travail d’un mathématicien qui utiliserait une calculatrice, l’utilisation de ChatGPT ne devrait pas non plus remettre en question mon travail. Il est vrai que certains pourraient utiliser cet outil sans documentation ou de manière inappropriée pour accomplir leur travail à leur place. Mais le fait est que les IA existent, continueront d’exister et de s’améliorer. Aujourd’hui, ChatGPT offre un avantage concurrentiel et il serait contre-productif de l’interdire. Au contraire, nous avons l’opportunité de l’intégrer dans le système éducatif, d’offrir aux étudiants un tuteur capable de s’adapter à leur besoin, disponible à tout moment pour répondre à leurs questions et sans crainte d’être jugé.

Je suis profondément convaincu qu’un tel outil, correctement adapté, a le potentiel d’améliorer l’apprentissage des étudiants à chaque étape du système scolaire. Sal Khan, le fondateur de la Khan Academy, a déjà intégré un tel outil à sa plateforme d’apprentissage en ligne et les résultats sont encourageants.

[jwplayer mediaid= »13985″]

Ce nouvel outil et les intelligences artificielles de manière générale ne sont cependant pas sans risques. Au-delà des inquiétudes autour de l’insurrection des machines, les capacités génératives des IA modernes posent de sérieux risques autour de la falsification des informations, et de l’incapacité de ces machines à évaluer les risques liés aux réponses produites. Il est crucial de continuer à améliorer ces systèmes plutôt que d’essayer de les interdire, afin de minimiser les risques et de garder un certain contrôle quant à leurs utilisations.

Le changement est inévitable, autant en faire partie.

[1] Buchholz, K. (2023) ‘ChatGPT Sprints to One Million Users’, Statista, 24 janvier. Disponible à: https://www.statista.com/chart/29174/time-to-one-million-users/ (consulté le 24 mars 2023).



Les technologies de l’enseignement dans la collection des Sciences de l’éducation à la Bibliothèque de l’UNIGE

S’il y a une thématique qui a le vent en poupe dans le monde de l’enseignement, c’est certainement celle de l’utilisation des technologies éducatives dans les cours.

À partir de ce terme (ou descripteur pour les bibliothécaires d’entre nous), nous pouvons ensuite bifurquer sur une ribambelle d’autres, tels que l’enseignement à distance, l’enseignement mixte (ou blended learning), le e-learning, la formation en ligne, les MOOCS, internet en éducation, le multimédia en éducation, etc.

Dès lors, comment s’organise la collection de la Bibliothèque autour de ces thématiques ?

L'évolution dans la littérature - Similarités et différences

Pour se faire une idée de l’évolution de la thématique des technologies éducatives au sein de la collection des Sciences de l’éducation, le livre le plus ancien traitant du sujet date de 1969 : La révolution scientifique de l’enseignement. Voici les titres de quelques-uns de ses chapitres :  Science de l’apprentissage et art de l’enseignement, Améliorer l’enseignement, Les machines à enseigner, Problèmes de motivation, La crise des institutions éducatives.

Le livre le plus récent sur la thématique – lors de l’écriture de cet article – est : L’ingénieur pédagogique dans le supérieur : des pratiques professionnelles en mutation. Quelques-uns de ses titres de chapitres : Fondements scientifiques et histoire du métier, L’accompagnement des acteurs, Le rôle de l’ingénieur.e pédagogique dans la stratégie numérique universitaire

En survolant ces deux ouvrages, deux observations peuvent tout de suite se faire. L’une, c’est que certains sujets se font échos à plus de 50 ans d’intervalle. Par exemple, la science de l’enseignement et de l’apprentissage est toujours le socle sur lequel se pose la technologie de l’enseignement. Autre écho, le livre de 1969 parle d’amélioration de l’enseignement, celui de 2022 d’accompagnement des acteurs.

D’autre part, on peut se dire que ce qui pouvait sembler « flou » en 1969 (les machines à enseigner) s’est clarifié avec le temps (bien que chacun.e peut avoir son avis sur le sujet…), et que ces machines font partie désormais d’une « stratégie numérique universitaire ». À moins que ce ne soit une nouvelle manière de dire « crise des institutions éducatives » ?

Les questions de fond restent les mêmes qu’importent les époques. Comment faire apprendre au mieux ? Comment motiver les apprenant-es ? Sur quelles bases scientifiques se reposer pour son métier d’enseignant-e ? Mais elles se voient sans arrêt testées au fil de l’évolution des technologies et des changements de mœurs. Certains évènements externes viennent encore donner un coup de pied dans la fourmilière. Aussi, depuis un an environ, chaque nouveau livre sur le sujet intégré à la collection possède à peu près la même introduction, qui s’apparente à « En 2020, la pandémie de COVID-19 frappe le monde. Les écoles ferment, et les cours se font alors exclusivement à distance. »

Pour rester à jour

Pour rester à jour avec ces thématiques passionnantes et d’actualité, ou pour en faire son histoire, la collection des Sciences de l’éducation propose deux cotes qui regroupent les ouvrages les traitant :

  • 371.333 : les technologies éducatives
  • 371.334 : la formation en ligne

Et comme avec la technologie il est sans cesse question de mise à jour, vous trouverez ci-dessous une mise à jour de la sélection de livres sur le sujet qui avait été proposée dans l’article L’e-learning se décline en papier et en électronique à la Bibliothèque de l’UNIGE publié ici même en mai 2021.

Ouvrages pratiques

  • Budhai, & Skipwith, K. B. (2022). Best practices in engaging online learners through active and experiential learning strategies (Second edition). Routledge 371.334 BUD
  • Cahagne, & Fuzet, B. (2022). Concevoir et diffuser une expérience de formation immersive (Edition 2022). Gereso édition. 374.72 CAH
  • Ziegler, & González-Lloret, M. (2022). The Routledge Handbook of Second Language Acquisition and Technology. Taylor and Francis.
  • Lafleur, Nolla, J.-M., & Samson, G. (2021). Évaluation des apprentissages en formation à distance : enjeux, modalités et opportunités de formation en enseignement supérieur. Presses de l’Université du Québec. 371.212.2 EVA.28
  • Moriceau, Vauvelle, W., & Besse, C. (2021). Faire classe avec le numérique : cycles 1, 2 et 3. Nathan. 371.333 MOI
  • Cuirot, Detout, J.-F., & Guilhon, A. (2021). Formation à distance : 62 outils, 14 plans d’action, 9 ressources numériques. Vuibert. 371.334 CUI

Ouvrages théoriques

  • Collin, Denouël-Granjon, J., Guichon, N., & Schneider, É. (2022). Le numérique en éducation et formation : approches critiques. Presses des Mines. 371.333 NUM.9
  • Tække, & Paulsen, M. (2022). A new perspective on education in the digital age : teaching, media and Bildung. Bloomsbury Academic. 371.333 TAE
  • Borden. (2022). Education 3.0 and eLearning across modalities. IGI Global. 371.334 BOR
  • Pal, Ton, Q. C., & Nehru, R. S. S. (2022). Digital education for the 21st century : technologies and protocols. CRC Press. 371.333 DIG.5
  • Goglio. (2022). The diffusion and social implications of MOOCs : a comparative study of the USA and Europe. Routledge. 371.334 COG
  • O’Donnell. (2022). Transformative digital technology for effective workplace learning. CRC Press. 374.72 ODO
  • Pélissier, Lédé, S., & Brangé, M. (2022). L’ingénieur pédagogique dans le supérieur : des pratiques professionnelles en mutation. Presses des Mines. 371.334 ING
  • Lafleur, Nolla, J.-M., & Samson, G. (2021). Évaluation des apprentissages en formation à distance : enjeux, modalités et opportunités de formation en enseignement supérieur. Presses de l’Université du Québec. 371.212.2 EVA.28
  • Angles, & Rouault, F. (2021). Le e-learning : ce qu’il faut savoir sur la formation distancielle. AFNOR. 374.72 ANG
  • Boissière, & Bruillard, É. (2021). L’ école digitale : une éducation à construire et à vivre : numérique et transformations de l’école. Armand Colin. 371.334 BOI
  • Hétier. (2021). Présence et numérique en éducation. Le Bord de l’eau. 371.333 HET
  • Edwards, Shukor, N. A., & Cheok, A. D. (2021). Emerging Technologies for Next Generation Learning Spaces. Springer Singapore Pte. Limited.
  • Mamlok. (2021). The Great Promise of Educational Technology: Citizenship and Education in a Globalized World. Springer International Publishing AG.

 



« Sign in with… »: vérifier vos permissions

Sign in with

Les comptes Twitter, Facebook, Google et autre Linkedin permettent d’avoir accès à de nombreux services en ligne en utilisant leur identifiant en un clic (« sign in with… »). C’est ce que l’on fait par exemplaire lorsqu’on utilise son compte Facebook/Google/Yahoo pour  se connecter à Flickr . L’intérêt étant de ne pas avoir à créer un nouveau compte.

Ce faisant on autorise, parfois sans bien s’en rendre compte, ces services à accéder à certaines données privées (par ex. aux données d’un carnet d’adresses,comme e-mails, téléphones, adresses,… ou encore données de géolocalisation, photos personnelles, …) . Et l’on oublie que « si c’est gratuit, c’est que vous êtes le produit ».