Le deuxième volet de l’AI Act : impact et obligations pour les EdTech françaises

Entré en vigueur le 2 août 2025 dans l’Union européenne, le deuxième volet de l’AI Act instaure un cadre réglementaire strict pour les fournisseurs d’intelligences artificielles à usage général. Ce texte, qui vise à encadrer les modèles d’IA les plus puissants, concerne directement certaines entreprises EdTech françaises qui développent ou intègrent ces technologies. Emilie Pesce, déléguée générale de l’Afinef, apporte son éclairage sur les nouvelles exigences et leurs conséquences pour le secteur de l’éducation numérique.
Un cadre réglementaire inspiré du RGPD pour réguler l’intelligence artificielle
À l’image du Règlement général sur la protection des données (RGPD), l’AI Act traduit la volonté de l’Union européenne d’encadrer les technologies émergentes afin de protéger les droits fondamentaux des citoyens. Le deuxième volet, correspondant au chapitre V du texte, introduit un code de conduite et une obligation de transparence spécifiques aux modèles d’IA à usage général, tels que ChatGPT, Gemini ou Meta AI.
Les fournisseurs de ces modèles doivent désormais maintenir une documentation technique détaillée, couvrant notamment les processus d’entraînement et de tests. Ils doivent également communiquer des informations précises aux autorités de régulation, garantir la conformité en matière de droits d’auteur pour lutter contre le pillage des données, et s’assurer que les données utilisées sont légalement obtenues.
Par ailleurs, un résumé des contenus d’entraînement doit être publié selon un modèle défini par le Bureau européen de l’intelligence artificielle. En cas de non-respect de ces obligations, des sanctions pourront être appliquées à partir du 2 août 2026, laissant une année aux fournisseurs pour se conformer aux nouvelles règles.
Les nouvelles exigences imposées aux EdTech françaises
Les entreprises françaises spécialisées dans les technologies éducatives intègrent déjà, dans leur démarche, une forte exigence éthique et une volonté de transparence, notamment parce qu’elles s’adressent souvent à un public jeune et vulnérable, comme les élèves mineurs. Le développement des algorithmes se fait fréquemment en collaboration avec le monde de la recherche, renforçant cette culture de responsabilité.
Le deuxième volet de l’AI Act impose principalement des contraintes administratives, comparables à celles du RGPD. Les EdTech doivent mettre en place des procédures de contrôle rigoureuses, documenter leurs pratiques et transmettre ces éléments aux autorités compétentes, en France la CNIL. Cette approche, appelée « compliance by design », signifie que la conformité doit être intégrée dès la conception des outils.
Pour les EdTech qui s’appuient sur des modèles d’IA développés par des tiers, comme OpenAI, la responsabilité principale incombe aux fournisseurs de ces modèles. En revanche, la couche éducative ajoutée doit respecter les règles en matière de transparence, de protection des données sensibles des élèves et autres exigences du texte.
Un cadre réglementaire perçu comme une opportunité plutôt qu’un frein
Contrairement à une idée reçue, ce cadre réglementaire ne constitue pas un obstacle supplémentaire pour les EdTech, qui doivent déjà surmonter de nombreux défis pour s’imposer sur le marché de l’Éducation nationale. Selon l’Afinef, il représente au contraire un avantage stratégique pour les entreprises européennes face aux géants technologiques américains ou chinois.
En effet, ces entreprises pourront valoriser leur engagement en faveur d’une IA fiable, transparente et éthique auprès des enseignants, élèves et familles. Le secteur éducatif est particulièrement sensible aux risques liés à l’usage de l’IA, et l’AI Act adopte une approche basée sur les risques, classant les systèmes d’IA en quatre catégories : prohibés, à haut risque, à risque limité et à risque minimal.
De nombreux systèmes d’IA utilisés dans l’éducation ou la formation professionnelle sont considérés à « haut risque », justifiant ainsi un encadrement renforcé. En parallèle, le ministère de l’Éducation nationale a publié en juin 2025 un Cadre d’usage de l’intelligence artificielle en éducation, qui fixe déjà des directives pour garantir le respect des données personnelles et l’usage pédagogique de l’IA.
Ce dispositif réglementaire répond à des préoccupations concrètes : il vise notamment à éviter que les élèves soient influencés par des IA discriminatoires dans leur orientation ou que les droits d’auteur ne soient pas respectés.
Le deuxième volet de l’AI Act marque une étape majeure dans la régulation de l’intelligence artificielle en Europe, avec un impact direct sur les EdTech françaises. En intégrant ces obligations, les acteurs du secteur renforcent leur crédibilité et contribuent à un usage responsable de l’IA dans l’éducation. Pour rester informé des évolutions réglementaires et des innovations dans le domaine, n’hésitez pas à suivre nos prochaines publications et à partager cet article avec votre réseau.