eLearning Expo 2010 : évaluation et outils numériques

Par - Le 01 avril 2010.

Si labels et normes renseignent sur le professionnalisme des acteurs, la question de l'efficacité des formations invite à améliorer les process d'évaluation. Un point qui a été abordé dans le cadre d'eLearning Expo (Paris, 9 au 11 mars 2010).

Commanditaire, financeur, formateur, voire apprenant, nombreux sont les acteurs porteurs d'un a priori négatif quant à l'efficacité des environnements numériques d'apprentissage. Sommé de prouver un avantage comparatif au présentiel jugé de facto profitable, le monde de la e-formation a rapidement compris qu'il devait se saisir de la question de l'évaluation pour espérer emporter l'adhésion. À la clé, des dispositifs d'évaluation bénéficiant du potentiel des outils numériques qui permettent aussi bien d'évaluer les apprenants que les formations elles-mêmes, qu'elles relèvent ou non du e-learning.

Formetris : modèle collaboratif

Ainsi, par exemple, du service d'évaluation par mail et en ligne proposé par Formetris. Pour Nicolas Méary, son président, “le web collaboratif aide à mieux répondre aux questions clés liées à l'évaluation : comment collecter les informations efficacement, interpréter « 75 % de satisfaction », repérer les points forts et les points faibles d'une formation, ou encore identifier les prestataires particulièrement performants", tout ceci doit être pensé dans le cadre d'un “process pragmatique et homogène". Pragmatique, car le dispositif ne doit “pas être trop compliqué à mettre en œuvre, en termes de temps passé pour les équipes de formation et pour les personnes interrogées". Homogène, pour permettre une interprétation comparative des résultats, “base de l'analyse", selon Nicolas Méary : “Une partie du processus d'évaluation doit être commun à toutes les formations. Afin de pouvoir capitaliser l'information au bénéfice d'autres entités de l'entreprise ou entres entreprises, il faut veiller à standardiser ce qui peut être standardisé." Basé comme la majorité des offres actuelles sur le modèle de Kirkpatrick, la méthode Formetris tire sa valeur ajoutée de la “mutualisation anonyme" des évaluations réalisées dans l'ensemble des entreprises clientes. “Ce que permet notre modèle « web collaboratif » par rapport au modèle « Seul au monde », c'est d'ajouter un positionnement par rapport à d'autres formations, plaide le président de Formetris. Cela permet ainsi de savoir si l'on est très au dessus, au dessus, en dessous, très en dessous ou dans la moyenne par rapport à d'autres formations du même type." Dans le web collaboratif, “c'est l'agrégation d'expertises individuelles qui produit une connaissance, explique-t-il. Les catalogues et les portails n'incluent pas d'informations sur la qualité. Les labels et les normes sont surtout focalisés sur le processus de construction, sont souvent peu discriminants et n'incluent pas ou peu la prise en compte des résultats : la méthode la plus efficace est souvent le bouche-à-oreille. Le web collaboratif permet d'optimiser cette logique entre toutes les entreprises utilisatrices", conclut-il. À noter qu'une masse critique de 100 à 200 formations du même domaine de formation sont nécessaires pour, selon Nicolas Méary, “avoir quelque chose de sérieux", et qu'“environ 2 à 3 % des formations évaluées constituent la liste des formations de référence".

La prédominance des quiz et QCM

S'agissant des outils numériques utilisés pour l'évaluation, eLearning Expo aura montré la prédominance du quiz : Quiz Manager, chez Symetrix X-PerTeam2 ; Easyquizz, chez (e)pistema ; AutoQuizeur, chez Audace, etc. Chaque prestataire crée ou distribue un générateur de quiz en ligne.
Privilégiés par le plus grand nombre en raison de leur simplicité de mise en œuvre et de leur capacité à s'intégrer dans des solutions automatisées de traitement statistique, les QCM n'épuisent cependant pas le sujet de la performance, préviennent les prestataires. modèle pédagogique anglo-saxon, qui n'a pas attendu la révolution numérique pour en user, les QCM valident davantage la connaissance que la pratique.

Pour Jérôme Poulain, responsable commercial d'Audace learning, “l'évaluation reste la dimension la moins bien pensée dans les dispositifs de formation : d'abord, parce que l'on reste dans une logique de formation traditionnelle, où l'évaluation est toujours pensée en conclusion ; ensuite, parce que l'ultime critère reste trop souvent la note". Interprétation bien trop restrictive, selon Jérôme Poulain, pour qui “l'évaluation doit se faire pendant tout le parcours de l'apprenant, comme on peut le faire dans un serious game : progresser d'un niveau à l'autre dans un jeu, c'est avoir fait la preuve de l'augmentation de son savoir-être, de ses habiletés et, surtout, de ses compétences". Et d'ajouter : “Il faut sortir du système de notation : ce qui intéresse le professionnel, c'est de savoir si l'on est opérationnel ou pas, compétent ou incompétent, l'incompétence n'étant pas ici un jugement de valeur mais le révélateur d'un besoin de formation."

[(Le modèle de Kirkpatrick

Créé à la fin des années 1950 par le chercheur américain Donald Kirkpatrick, le modèle éponyme se propose d'évaluer les formations sur quatre niveaux. L'objectif est, premièrement, de mesurer le degré de satisfaction des apprenants à l'issue de la formation ; deuxièmement, d'évaluer les connaissances et compétences acquises au cours de la formation ; troisièmement, d'apprécier le transfert, en vérifiant que les stagiaires utilisent réellement ce qu'ils ont appris quelques mois après ; et, enfin, de juger des résultats en essayant de savoir si la formation a contribué à améliorer la qualité du travail des formés.)]