Corner de l'innovation

ChatGPT & Formation : une prise de recul nécessaire

ChatGPT défraie la chronique et en particulier la chronique pédagogique. Entre peurs et opportunités, du ministère aux startup de l'EdTech en passant par les organismes de formation et l'enseignement supérieur, il ne laisse personne indifférent.  

Par - Le 20 février 2023.

Pour sortir des prédictions aveugles (que nous ne pouvons-nous empêcher de faire nous-mêmes en dernière partie), nous rappellerons quelques éléments de contexte concernant l'innovation technologique en elle-même, les questions de souveraineté numérique et d'impact écologique afin d'apporter des éléments clés pour un débat plus constructif.

Innovation technologique

ChatGPT n'est pas une innovation technologique, mais d'usage. L'innovation technologique a eu lieu il y a quatre ans. Pour comprendre cela, remontons un peu le temps.

Les premiers travaux sur les réseaux de neurones datent des années 50 et se sont développés jusque dans les années 80 avant de rentrer en hibernation pendant une trentaine d'années par manque de puissance de calcul et donc de résultats efficients. On observe un retour en grâce de ces modèles vers 2008 avec l'apparition de cartes graphiques permettant de les accélérer. Par vague naissent alors plusieurs architectures qui révolutionnent les performances passées : les réseaux adversifs en 2014 puis les Transformers en 2018, base technique actuelle de ChatGPT.

Ce qui différencie ChatGPT de ces deux véritables innovations (et toutes les autres non citées ici) tient en deux points :

  • La quantité d'information d'entrainement : ChatGPT n'innove pas vraiment en termes techniques ; toutefois il est entrainé sur une quantité de données absolument gigantesque à laquelle les modèles précédents n'avaient pas accès. On peut ici remercier les GAFAM qui ont investi massivement entre 2010 et 2020 pour pousser un WEB 3.0 indexé par méta informations.
  • L'accès grand public : Alpha Go a défrayé la chronique en 2016 comme Deep Blue en 1997, mais les véritables innovations technologiques utiles à grande échelle ont jusqu'à présent échappé au regard du public. ChatGPT change la donne en créant des attentes de qualité qui ringardiseront toute solution pédagogique qui ne les atteindra pas.

Souveraineté numérique

Utiliser ChatGPT, c'est obtenir des réponses issues d'un entrainement sur des données culturelles principalement anglo-saxonnes, fournir gratuitement des données d'amélioration, n'avoir aucune visibilité sur les règles éthiques et n'avoir aucune prise sur le modèle économique de la solution… Tout en finançant son éditeur OpenAI grâce au nouveau plan mensuel à 20 $.

Il existe des alternatives OpenSource et nous avons même la chance que l'une d'elles ait été soutenue financièrement par l'état français. Bloom est un modèle de puissance équivalente (176 milliards de paramètres) sorti en mai 2022 qui intègre 13 % de données d'entrainement en français et a été conçu de manière ouverte avec plus de 1000 chercheurs internationaux.

 Impact écologique

Il est certain que ce genre de modèle a un impact écologique non négligeable. Il faut toutefois comprendre que cet impact n'est pas le même à toutes les étapes de vie de ce genre de modèle :

  • Entrainement : c'est l'étape la plus gourmande en ressources. Il s'agit de traiter des téraoctets de données sur des milliers de cartes graphiques pendant des millions d'heures (5 million pour Bloom).
  • Adaptation : certaines architectures permettent d'adapter le modèle (fine-tuning) générique créé à l'étape précédente à un domaine spécifique. En fonction du modèle et du corpus, cela peut prendre quelques minutes à quelques jours sur une infrastructure moyenne.
  • Inférence : l'utilisation même du modèle requiert une architecture de déploiement complexe, mais seulement quelques millisecondes pour traiter une requête sur une carte graphique moderne.

Il est donc difficile d'estimer l'impact environnemental global de ChatGPT aujourd'hui. Les modèles Open Source sont plus transparents et fournissent quant à eux des informations précises et des solutions logicielles de mesure d'impact à chaque étape de leur cycle de vie. Bloom a par exemple été entrainé sur le super ordinateur français Jean Zay alimenté en énergie nucléaire.

On peut noter que le plus grand impact reste celui de la conception matérielle des serveurs permettant d'entrainer et d'héberger ces modèles. Or, la plupart de ces infrastructures existaient déjà pour des calculs scientifiques de pointes comme la prédiction météorologique.

Prospective pédagogique

Tout comme l'impact écologique, l'impact pédagogique est indéniable, mais il faut là aussi relativiser et spécifier le propos ; le tout avec prudence.

En termes de formation initiale, la position du ministère de l'Éducation est aujourd'hui de ne pas laisser les outils produits par les GAFAM entrer dans les classes. Il faudra donc trouver des solutions pour éviter le développement d'une dissonance des élèves entre la réalité extérieure à la classe où ces modèles seront légion et les pratiques pédagogiques proposées par l'éducation nationale. La question reste entière.

Pour ce qui est de la formation continue, on peut imaginer avec une précision diminuant avec le temps, un impact à plus ou moins long terme pour différents métiers :

  • Court terme (3 à 5 ans) — Ingénieur pédagogique : le genre de modèle d'Intelligence artificielle dont il est ici question est redoutable en termes de capacité de synthèse et de conception multimédia automatisée, tâches actuellement réservées aux ingénieurs pédagogiques.
  • Moyen terme (5 à 8 ans) — Responsable pédagogique : avec l'accès public aux données des parcours certifiant, l'ajout de quelques bases de données d'ontologies de compétences et des modèles de régression, la capacité de créer des stratégies pédagogiques individualisées questionnera la nécessité d'un certain nombre de postes de responsables pédagogiques.
  • Long terme (10 ans et +) — Formateur : aujourd'hui protégés par leurs qualités d'interactions pédagogiques et émotionnelles, les accompagnateurs de terrain devront progressivement réinventer leur métier pour faire face à des IA qui intègreront de plus en plus ces facteurs de façon native.

Pour rassurer les plus inquiets, on peut rappeler que l'inertie des systèmes (et la complexité légale et opératoire de la formation professionnelle en France) sera à même de ralentir l'arrivée de ces prédictions comme l'histoire l'a mainte fois montré avec d'autres innovations.

Pour finir, quid de nos chers apprenants ? Le risque réside ici dans une vision de l'apprentissage ou la connaissance réside sans cesse hors de soi et où l'effort demandé par l'apprentissage réel deviendrait insoutenable. Or, on ne peut organiser ou créer une pensée complexe en s'appuyant sur des ressources qui ne sont pas internalisées. Le changement de paradigme pédagogique est donc inévitable. L'équilibre à trouver avec la machine comme acteur impliqué dans la relation pédagogique sera plus délicat qu'aujourd'hui et cultiver une posture d'apprenance au niveau individuel, collectif et organisationnel comme nous le proposons chez Traindy (www.traindy.io) est une première réponse…

Traindy