Il y a quelques jours, alors que j’anime un webinaire de démonstration de la plateforme LMS Didask et que je m’apprête à montrer la génération automatique de contenus avec notre intelligence artificielle pédagogique, un prospect m’interpelle via le module de chat : “Mais en quoi c’est différent de ChatGPT ?”
J’aurais pu m’attendre à la question, car après tout, qui ne s’est pas amusé ces dernières semaines avec cet outil révolutionnaire et à jouer avec son prompt. Les pros du eLearning sont loin de faire exception, et nombreux sont ceux, moi le premier, qui ont testé ChatGPT pour créer des modules, et de plus en plus de prompts circulent sur internet. Je commence à répondre oralement et sent très vite que mes explications manquent de concret. Je décide alors d’arrêter la présentation en cours et me lance : “Ok, on va faire la comparaison en direct, ensemble, vous pourrez juger vous-mêmes du résultat”.
Voici donc ci-dessous les résultats de cette expérience. Evidemment mon objectivité peut être remise en question de par mon appartenance à Didask, c’est pourquoi je vais essayer d’être le plus factuel possible, en illustrant mon propos de captures réelles du test réalisé.
Je commence par prendre un exemple de situation de formation courante que nous rencontrons souvent ces derniers temps, l’onboarding. Beaucoup d’organisations ont en effet des tonnes d’informations à transmettre à leurs nouvelles recrues, souvent éparpillé en slides, pdf et autres documents “passifs”. C’était aussi notre cas chez Didask avant, où nous regroupions nos éléments sur des pages Notion. Je choisis pour mon test l’une des thématiques sous-jacente, souvent mal traitée, la transparence, où plutôt comment nous la mettons en œuvre dans notre organisation.
Voici la page en question, je copie simplement son contenu.
J’ouvre l’outil en ligne, je colle mon texte en ajoutant dans le prompt la consigne suivant “Conçois un module de formation en ligne prêt à l'emploi sur la transparence à partir du texte suivant”, puis je lance l’IA. Le texte apparaît au fur et à mesure, et voici ce que l’on peut lire après quelques secondes :
En quelques secondes, la solution me propose un nouveau texte qui s’apparente à un plan de formation associé à des conseils. ChatGPT me propose un titre, une durée de formation globale puis déroule les différents points à aborder, d’une manière assez organisée, avec une recommandation de temps à y accorder pour chacun.
Toutefois, si l’on reprend en considération notre besoin initial (concevoir une formation), nous pouvons émettre 2 regrets :
Ce que me propose ici ChatGPT n’est pas sans valeur ajoutée mais ne remplit qu’une partie de mon besoin. Intéressant pour des ingénieurs pédagogiques qui maîtrisent la conception de formation, mais peut-être encore limité pour d’autres utilisateurs comme par exemple des experts métiers.
Nul doute que je pourrais améliorer le rendu de ChatGPT en travaillant davantage mes prompts, ou en le relançant avec des consignes complémentaires. Mais là aussi, le temps peut vite s’étaler et je n’échapperais pas non plus à une étape de conversion texte→ module.
Je me connecte à mon compte sur le LMS, accès à mon studio de création et ouvre un nouveau module. Je procède ensuite exactement de la même manière et copie-colle le même texte directement dans la fenêtre. J’indique un titre de mon choix.
Le LMS me propose ensuite de sélectionner un objectif pour mes apprenants. Je choisis ici “comprendre ces concepts” qui me semble être le plus approprié parmi les items. Je précise enfin que ma demande concerne un dispositif d’onboarding, puis je lance l'intelligence artificielle pédagogique.
Très rapidement, la machine se met à mouliner et je vois au fur et mesure apparaître des objectifs de granules. C’est la première étape du processus : l’IA intégrée dans le LMS a scanné mon contenu et l’a granularisé, c’est à dire qu’elle a identifié les notions essentielles et prévu une granule pour chacune.
On pourrait penser que cette suggestion de granularisation est une sorte de plan amélioré, pas si loin de ce que me proposait ChatGPT, mais en y regardant de près on voit aussi que l’outil a déjà sélectionné des modalités pédagogiques. On aperçoit en effet des granules d’informations (on explique un concept, ci-dessous les 1, 3 et 5) mais aussi des granules d’exercice (avec une mise en situation, ci-dessous les 2, 4 et 6).
Si je “rentre” dans l’une des granules, par exemple la 2, j’accède à tout son détail et je constate que l’IA du LMS a véritablement créé le cas pratique. On me propose ainsi une mise en situation qui vient mettre en scène la notion essentielle de cette granule, ici le fait que transparence n’est pas une fin mais un moyen. J’ai donc un énoncé, une photo libre de droit qui l’illustre, une question, mes propositions de réponses avec un feedback correctif pour chacune, le message clé à retenir.
Si cette proposition de contenu ne me convient pas, je peux alors demander à l’IA d’en générer une nouvelle. Si je décide ne pas suivre la recommandation pédagogique, je peux aussi lui demander de changer de type d’exercice si par exemple je veux hausser ou diminuer le niveau de difficulté.
(Si vous souhaitez en savoir plus sur le fonctionnement pédagogique de l’IA du LMS Didask, je vous invite à consulter le livre blanc Comment créer 10 fois plus vite des formation vraiment efficaces avec l'IA pédagogique écrit par mon collègue Philip).
Après avoir passé en revue toutes mes granules, je peux voir le rendu réel en situation. Pas de mise en forme ou autre à faire, le LMS s’en occupe pour moi. Je ne clique que sur le bouton “Prévisualisation apprenant” et je me retrouve dans la peau de celui ou celle qui parcourt ma formation.
Voici ce que cela donne si reprend ma granule sur la transparence-qui-n’est-pas-une-finalité :
Je m’arrêterais là pour ce test, les fonctionnalités de publication ou d’administration des LMS n’étant pas trop en lien avec notre problématique de générations de contenus d'aujourd'hui. Côté timing, l’ensemble des tâches effectuées sur le LMS jusqu’ici m’a pris moins de 10 minutes. Un gain de temps qui risque encore de s'améliorer avec les récentes évolutions de 2024 qui permettront de créer directement des parcours à partir de supports tels que vos ppt, slides, pdf...
Un même contenu brut de départ, deux résultats très différents, mais un seul réellement exploitable rapidement en formation.
Mais à y réfléchir, cela semble plutôt logique. En effet si l’on a tendance à vouloir comparer tout ce qui touche à l’IA avec Chat GPT, les outils sont toutefois très différents et ne sont pas conçus pour les mêmes finalités. La comparaison a donc ses limites.
Si ChatGPT est un formidable outil d’IA de génération de contenu universel, Didask est une plateforme eLearning LMS qui utilise de l’IA pour créer des contenus de formation, mais intégrée dans une architecture pédagogique. Cette dernière ne doit pas sa pertinence à l’IA, mais aux recommandations de la recherche en sciences cognitives qui ont guidé son développement. C’est précisément cela qui permet de faire le découpage, la granularisation, puis le choix des bonnes modalités pédagogiques en fonction des objectifs attendus.
Car comme nous le dit souvent Son Ly* “Si l’on veut que l’IA aide à mieux apprendre, il faut déjà savoir comment faire pour mieux apprendre” :)
Si vous souhaitez voir plus en détail comment fonctionne le LMS Didask et son IA pédagogique, vous pouvez nous rejoindre à l’occasion d’un prochain webinaire de démo, ou même demander directement un rendez-vous.
Pour prolonger votre lecture sur ce sujet, je vous recommande nos articles :
*CEO et Co-fondateur de Didask
Prenez directement rendez-vous avec nos experts du eLearning pour une démo ou tout simplement davantage d'informations.
Intelligence Artificielle
Intelligence Artificielle
Intelligence Artificielle