Quelles sont les implications de l'IA Act dans le champ de la formation ?

Adopté par le Parlement européen le 13 mars dernier, l'IA Act encadre l'intelligence artificielle et ses usages. Première initiative de cette envergure, ce règlement impose des obligations aux concepteurs et aux utilisateurs des systèmes d'IA en fonction de leur niveau de risque. Les acteurs de la formation et de l'Edtech sont concernés et doivent commencer à s'approprier ce nouveau cadre juridique.

Par - Le 16 avril 2024.

Alors que l'IA poursuit sa spectaculaire percée dans de nombreuses industries, l'Union européenne se dote d'une réglementation contraignante sur ses usages. C'est la première initiative mondiale de cette envergure. « Les dispositions de l'IA Act couvrent toute la chaîne de valeur, de la conception à l'utilisation des systèmes d'IA », confirme Thomas Lommatzsch, directeur du département dispositifs médicaux au sein d'Afnor certification et membre du comité de normalisation de l'Afnor sur l'IA. Adopté le 13 mars dernier par le Parlement européen, le règlement entrera en vigueur progressivement. Les acteurs de la formation, concernés par ces nouvelles obligations, doivent néanmoins commencer à se l'approprier. Étalée sur plus de quatre ans, sa conception réalisée en co-construction avec les États membres de l'Union européenne, s'est appuyée sur de nombreuses consultations avec des représentants de la société civile et du monde économique. Cherchant un équilibre entre la préservation des libertés fondamentales portées par les démocraties et le développement de l'innovation, le texte adopte une régulation du marché par le risque. « Pour se préparer, les acteurs doivent se poser deux questions. Mes modèles d'IA sont-ils considérés comme des IA à haut risque ? Si oui, suis-je un concepteur du produit, un distributeur ou un utilisateur ? », détaille Thomas Lommatzsch. Explications.

Une régulation par le niveau de risque

Les usages des modèles d'IA sont classés en quatre catégories en fonction du danger potentiel qu'ils représentent. A chacun de ces niveaux de risque correspondent des niveaux de mise en conformité.

  • Les IA à risque inacceptable comme le « social scoring » (notation sociale) à usage général déployées dans certains pays comme la Chine sont tout simplement interdites sur le marché de l'Union européenne.
  • Les IA à haut risque ciblent des usages dans huit domaines d'activité comme le recrutement, les identifications biométriques, les dispositifs médicaux ou encore les systèmes de navigation dans les transports. « L'éducation et la formation professionnelle font partie des champs visés par les IA à haut risque. Les concepteurs et les utilisateurs de cette technologie devront donc se mettre en conformité avec les obligations européennes », précise Thomas Lommatzsch.
  • Les IA à risque faible comme les chatbots ou les techniques de synthèse multimédia à vocation artistique.
  • Les IA à risque minime comme les filtres anti-spam.

Les usages considérés à haut risque en formation

L'IA Act identifie les usages à haut risque dans le champ de la formation et de l'éducation :

  • Les IA destinées à déterminer l'accès, l'admission ou l'affectation de candidats à des établissements d'enseignement ou de formation professionnelle.
  • Les IA destinées à l'évaluation des acquis ou du niveau d'enseignement d'une personne y compris lors de la construction de parcours individualisés.
  • Les IA destinées à surveiller et détecter les comportements interdits des étudiants lors des épreuves.

Des obligations différenciées pour les concepteurs et les utilisateurs

La réglementation européenne impose des exigences différentes en fonction du rôle joué sur le marché de l'IA.

  • Pour les concepteurs, il s'agit notamment du déploiement d'une politique de gestion des risques, de management de la donnée, la production d'une documentation technique, l'enregistrement des journaux générés automatiquement par l'IA tout au long de son cycle de vie, d'exigences en matière de robustesse et de cybersécurité.
  • Pour les utilisateurs qui intègrent l'IA dans leurs services, il s'agit notamment de la mise en place d'un contrôle humain confié à des personnes physiques ayant les compétences, la formation et l'autorité nécessaires, d'un devoir d'alerte en cas de situations à risque ou du respect des instructions d'utilisation précisées par le fournisseur.

Les étapes clés du calendrier

Adopté le 13 mars dernier par le Parlement européen, l'IA Act attend encore le vote au Conseil européen qui devrait intervenir d'ici fin avril. En cours d'élaboration, une directive européenne fixera les responsabilités et les conditions de son application. « Chaque pays devra se doter d'une autorité de surveillance du marché de l'IA chargé du contrôle et de l'application de la réglementation », précise Thomas Lommatzsch. On s'attend ainsi à une entrée en vigueur entre fin 2025 et 2026.