L'IA peut-elle détruire l'éducation ?

L'introduction de l'IA dans l'éducation risque d'accélérer une dérive déjà problématique : l'obsession de la mesure au détriment des véritables objectifs d'apprentissage.

L'IA peut-elle détruire l'éducation ?

L'éducation constitue un marché potentiel considérable pour les géants du numérique et les sociétés spécialisées dans l'intelligence artificielle. Tuteurs personnalisés, correcteurs automatiques, parcours adaptatifs — les promesses accompagnant la recherche de contrats et d'investissements sont nombreuses.

Cette perspective génère parfois de l'anxiété dans le corps enseignant. Au-delà de la crainte d'un remplacement éventuel, c'est la dévalorisation d'un métier déjà en perte de sens qui se profile. L'enseignement se structure en effet de plus en plus autour d'objectifs mesurables qu'il est envisageable d'optimiser grâce aux technologies d'apprentissage automatisée. Mais si cette obsession de la mesure est elle-même une perversion des objectifs de l'apprentissage, l'intelligence artificielle dans l'éducation ne fera qu'accélérer une dérive regrettable.

Le problème n'est pas technologique. C'est l'introduction d'un outil d'optimisation dans un système qui a perdu de vue ses finalités essentielles.

L'obsession de la mesure

Le système éducatif français est structuré depuis longtemps autour de la mesure. Le culte de la moyenne domine, encouragé par les outils numériques déjà existants. On compense entre disciplines sans lien, entre évaluations disparates, produisant et affichant des résultats arithmétiques vides de sens qui deviennent l'horizon limitatif des élèves. C'est d'autant plus problématique qu'il n'existe pas en France de référence précise à des attendus, appelés ailleurs « standards », permettant de donner un sens à telle ou telle note et limitant la disparité intra et inter-établissement.

De plus, depuis les années 80, les tests se sont multipliés à tous les niveaux. Le nouveau management public exige des indicateurs, des indicateurs chiffrés. Les classements internationaux comme PISA sont devenus des références permettant d'évaluer la performance du système.

L'optimisation des notes

Or, s'il y a bien quelque chose que les modèles d'apprentissage machine savent faire, c'est optimiser des fonctions objectivement définies. Ils excellent à identifier et reproduire des régularités de réussite à des tâches mesurables. C'est comme ça qu'ils fonctionnent. Appliqués à l'éducation, ils sont non seulement capables de produire des tests standardisés adaptés au curriculum français (éliminant ainsi une lacune perçue de notre système), mais aussi de maximiser les scores des élèves à ces mêmes tests, personnaliser le chemin vers la bonne réponse, adapter les exercices pour améliorer les performances.

Avec un objectif si limité, le conditionnement algorithmique fonctionne. La salle de classe — mais est-elle encore nécessaire quand un clavier et un écran suffisent ? — devient une boîte à Skinner personnalisée. L'IA ajuste ses paramètres en fonction des réponses des élèves, personnalise les motivations et renforce les comportements qui mènent à la réponse correcte.

A Skinner Box

Mais si traiter un enfant comme un rat de laboratoire permet effectivement d'améliorer ses notes à des tests standards, la question reste de savoir si on optimise la bonne chose. L'intelligence artificielle résout ici un problème facile mais c'est un problème qui — même en ignorant les externalités négatives de la méthode (atrophie des capacités de raisonnement, dépendance à l'IA, fragilisation de la résistance émotionnelle à la manipulation, etc.) — est complètement orthogonal aux objectifs d'un système éducatif qui formerait aux compétences dont une société a besoin. En d'autres termes, c'est probablement très coûteux et ça ne sert à rien.

Difficile et lent

Parce que la vie n'est pas un QCM où on nous donne les questions à pratiquer à l'avance et le rôle d'un enseignement secondaire n'est pas l'acquisition de bonnes réponses mais la formation d'un esprit critique indépendant pour la résolution de problèmes ouverts. C'est difficile, c'est frustrant et c'est lent.

L'école doit apprendre à absorber l'information, l'analyser et la synthétiser pour aboutir à un jugement autonome qui guidera l'action dans un environnement incertain. On ne peut pas automatiser la maturation d'un jugement. L'erreur joue ici un rôle pédagogique essentiel, les mauvaises notes et les ratures. Et le temps bien sûr.

Les tuteurs algorithmiques formatent pour un monde qui n'existe pas. L'ironie est qu'ils entraînent les élèves à des tâches où les modèles artificiels sont déjà bien meilleurs, assurant ainsi leur redondance. Les modèles d'apprentissage automatisée sont limités. Il n'y a aucune raison de limiter les élèves de la même façon.