L’agentivité humaine représente notre capacité à agir de manière intentionnelle sur nous-mêmes et notre environnement. Avec l’arrivée massive de l’intelligence artificielle dans les salles de classe, ce pouvoir fondamental se trouve menacé par des risques de dépendance cognitive. Voici comment comprendre et défendre cette autonomie essentielle.
Le terme peut sembler technique, mais il désigne quelque chose de fondamental. L’agentivité humaine, c’est cette capacité que nous avons tous d’agir de façon intentionnelle, de garder le contrôle sur nos actes et leurs conséquences. C’est le pouvoir de choisir, de décider, de modifier notre comportement en fonction de nos valeurs. Bref, c’est ce qui fait de nous des êtres autonomes et non des spectateurs passifs de notre propre vie.
Sauf que voilà : l’intelligence artificielle, par sa facilité d’usage et son efficacité, risque de nous transformer progressivement en simples valideurs de propositions algorithmiques. Le danger n’est pas dans la technologie elle-même, mais dans la manière dont elle pourrait éroder notre capacité à penser par nous-mêmes.

Les quatre piliers essentiels de l’agentivité humaine
Pour vraiment saisir ce qu’on risque de perdre, il faut comprendre sur quoi repose notre capacité d’action. L’agentivité humaine s’appuie sur quatre piliers interconnectés.
D’abord, l’intentionnalité. Agir avec agentivité, ce n’est pas réagir mécaniquement à un stimulus. C’est poser un acte en pleine connaissance de cause, avec un but précis en tête. Quand un élève réfléchit à la structure de sa dissertation avant de l’écrire, il exerce son intentionnalité. Quand il demande à l’IA de « faire une dissertation », il la délègue.
Ensuite vient l’autonomie, cette liberté de choix conforme à nos propres valeurs. Personne ne nous impose notre décision ; nous la prenons en fonction de ce qui nous semble juste. L’autonomie des élèves avec l’IA se mesure justement à leur capacité de refuser les suggestions de la machine quand elles ne correspondent pas à leur vision.
Troisième pilier : l’adaptabilité. Nous apprenons de nos erreurs, nous ajustons notre comportement face aux changements. C’est cette plasticité qui nous permet d’évoluer. Un algorithme optimise selon ses paramètres. Nous, nous changeons de cap quand l’expérience nous l’enseigne.
Enfin, la responsabilité éthique. L’agentivité implique de répondre moralement et légalement de nos actes. On ne peut pas être « agent » sans assumer les conséquences de nos choix. Et c’est là que le bât blesse avec l’IA. Qui est responsable quand une machine produit un contenu erroné ou biaisé qu’un élève recopie sans vérifier ?
La menace invisible : quand l’IA érode notre esprit critique face à l’intelligence artificielle
Les risques ne sont pas toujours spectaculaires. Ils s’installent doucement. Le premier danger, c’est la spoliation cognitive. Quand l’IA prend en charge toute la chaîne de réflexion – de la recherche d’idées à la formulation finale – l’élève saute les étapes qui construisent justement son intelligence. Comme un muscle qui s’atrophie faute d’exercice, la pensée critique s’affaiblit quand elle n’est plus sollicitée.
Prenons l’exemple d’un enfant qui obtient une très bonne note pour un exposé largement produit par ChatGPT. Si on lui demande d’expliciter, il est bien en peine pour le faire. C’est l’illusion de compétence. Un résultat satisfaisant qui masque une absence totale de compréhension. Le système évalue le résultat, mais le processus d’apprentissage n’a pas eu lieu.
Plus insidieux encore est l’invisibilité algorithmique. Les interfaces modernes sont si fluides qu’elles en deviennent transparentes. La prédiction de texte suggère le mot suivant, l’autocomplétion anticipe votre recherche. Ces petits coups de pouce nous orientent sans qu’on s’en aperçoive. L’utilisateur croit choisir librement alors qu’il suit en réalité un chemin tracé par des probabilités statistiques.
La dépendance à l’IA chez les jeunes s’installe progressivement. Pourquoi faire l’effort de mémoriser ou de réfléchir quand la réponse arrive instantanément ? Cette paresse métacognitive – l’abandon des processus mentaux nécessaires pour apprendre à penser – transforme l’IA en substitut permanent de la réflexion, au lieu d’être une aide ponctuelle.

L’opportunité méconnue : l’IA comme copilote pédagogique efficace
Mais attention à ne pas basculer dans le catastrophisme. L’IA n’est pas l’ennemie de l’agentivité – elle peut même la renforcer si on l’utilise intelligemment. Le concept d’enseignant augmenté illustre bien cette possibilité : libéré des tâches répétitives (correction de QCM, préparation de supports basiques), le professeur se concentre sur ce qui fait la valeur de son accompagnement. L’écoute, le questionnement socratique, l’adaptation fine à chaque élève.
Pour l’élève aussi, l’IA peut devenir un tuteur pour l’autonomisation. Bloqué sur un problème de maths ? L’IA peut reformuler l’énoncé, proposer une démarche sans donner la solution. Un élève dyslexique peut utiliser un assistant pour corriger l’orthographe sans déléguer sa pensée. La technologie sert alors d’échafaudage temporaire, qu’on retire une fois l’apprentissage consolidé.
La littératie de l’IA devient alors une compétence centrale. Comprendre comment fonctionne ces outils, identifier leurs biais, repérer leurs erreurs – ces « hallucinations » où la machine invente des faits avec aplomb – voilà un exercice puissant pour développer le jugement. Analyser pourquoi ChatGPT a produit telle réponse douteuse forge l’esprit critique mieux que n’importe quel cours magistral.
L’IA doit rester une aide à la décision, jamais le décideur. Elle améliore la qualité de l’information disponible, elle accélère certains processus, mais la décision finale reste celle de l’utilisateur.
Responsabilité humaine face à l’IA : qui garde les commandes ?
Les institutions internationales ne s’y trompent pas. L’UNESCO a développé une approche centrée sur l’humain pour l’IA en éducation. La technologie doit servir le développement des facultés humaines, jamais les remplacer. Cette position s’appuie sur un principe simple mais fondamental – l’IA est une création humaine, pilotée par des choix humains. Ce sont les concepteurs qui décident de ses effets sur la société.
Le contrôle humain obligatoire devient donc une exigence, particulièrement pour les systèmes à « haut risque ». Imaginez une IA qui évaluerait automatiquement des copies et attribuerait des notes sans intervention humaine. Ou pire, qui orienterait des élèves vers des filières selon des critères opaques. La responsabilité humaine face à l’IA impose qu’un enseignant réel valide toujours les décisions importantes.
La règle des 13 ans, recommandée par l’UNESCO, fixe un seuil pour l’usage autonome de l’IA. Pourquoi 13 ans ? Parce qu’avant cet âge, on considère que la maturité analytique nécessaire pour ne pas subir l’outil fait souvent défaut. Un enfant de 10 ans peine à distinguer ce qui vient de sa propre pensée et ce que la machine lui suggère. L’usage éthique de l’IA à l’école passe par cette protection des plus jeunes.
Les outils eux-mêmes doivent être conçus avec l’éthique en tête. Des audits et certifications doivent garantir qu’ils ne portent pas atteinte à l’agentivité des utilisateurs par des biais cachés ou des manipulations. La transparence algorithmique est une condition nécessaire à la liberté intellectuelle des enfants. Seulement des enfants ?
Stratégies pratiques pour développer la pensée critique autonome
Comment préserver l’agentivité de nos enfants ? Plusieurs stratégies ont fait leurs preuves.
D’abord, démystifier la magie. Expliquer aux élèves que l’IA est un outil statistique probabiliste, pas une entité pensante. Elle n’a pas de conscience, pas de créativité réelle. Elle combine des patterns appris dans ses données d’entraînement. Comprendre cela change le rapport à l’outil : on ne lui fait plus une confiance aveugle.
Ensuite, adopter la méthode de l’échafaudage. On autorise l’IA pour obtenir des indices, structurer un plan, reformuler une idée complexe. Mais l’effort de réflexion finale reste humain. Un élève peut demander à l’IA : « Quels sont les grands axes possibles pour traiter ce sujet ? » mais il doit ensuite développer sa propre argumentation, avec ses mots et sa propre compréhension.
Valoriser le processus plutôt que le produit transforme aussi l’évaluation. Au lieu de noter le rendu final, on s’intéresse à la démarche. Quels prompts l’élève a-t-il utilisés ? Comment a-t-il corrigé les réponses de l’IA ? Qu’a-t-il appris dans ce dialogue avec la machine ? Cette approche métacognitive renforce l’agentivité en obligeant l’élève à réfléchir sur ses propres stratégies d’apprentissage.
Quelques principes pratiques pour les parents et enseignants :
• Exiger que l’élève documente son usage de l’IA : capture d’écran des prompts, journal de bord du processus
• Instaurer des « zones sans IA » pour certains exercices, permettant d’entraîner les compétences de base sans assistance
• Encourager la vérification systématique : toute information produite par l’IA doit être confrontée à des sources fiables
• Maintenir des moments d’échange humain où l’élève explique son raisonnement, débat avec ses pairs
• Adapter les consignes : demander explicitement le raisonnement, les hésitations, les erreurs corrigées
Préserver l’interaction humaine dans un monde d’algorithmes
Une dimension souvent négligée : l’agentivité se développe dans la relation. Un élève qui n’échange qu’avec une machine perd l’expérience irremplaçable du désaccord, de la nuance, de l’émotion partagée. L’IA peut simuler l’empathie, mais elle ne ressent rien. Elle peut argumenter, mais elle n’a aucune conviction.
Les débats en classe, les travaux de groupe sans écran, les discussions informelles à la cantine – c’est là que se forge la capacité à défendre ses idées, à écouter l’autre, à changer d’avis face à un argument convaincant. Cette intelligence sociale indispensable complète l’intelligence analytique. L’une sans l’autre produit soit des techniciens brillants mais incapables de collaborer, soit des communicants convaincants mais superficiels.
L’école doit donc résister à la tentation du « tout numérique ». Maintenir des espaces low-tech voire no-tech, des temps longs de concentration sans notification, des activités manuelles qui engagent le corps autant que l’esprit. L’agentivité s’exerce aussi dans la capacité à déconnecter, à dire non à la sollicitation permanente du numérique.

L’enjeu de civilisation derrière nos choix technologiques
Préserver l’agentivité humaine dépasse largement la question scolaire. C’est un enjeu démocratique. Des citoyens qui délèguent leur réflexion à des algorithmes deviennent manipulables. L’histoire nous l’enseigne. La liberté collective repose sur la capacité individuelle à penser de façon autonome.
Quand une génération entière grandit en consultant l’IA avant de se faire une opinion, qui programme réellement ces opinions ? Les concepteurs de l’IA, consciemment ou non, impriment leurs valeurs dans les modèles. Les données d’entraînement véhiculent les biais de la société. Sans esprit critique, ces biais se perpétuent et s’amplifient.
L’école forme les citoyens de demain. Si elle néglige l’agentivité au profit de l’efficacité technologique, elle produit des individus performants mais dépendants. Des exécutants plutôt que des décideurs. Des consommateurs plutôt que des créateurs. Ce n’est pas le projet éducatif que nous voulons pour nos enfants.
L’IA peut être un serviteur formidable. Elle ne doit jamais devenir un maître. Cette distinction simple doit orienter tous nos choix pédagogiques. Chaque usage de la technologie doit être évalué à l’aune d’une question centrale – cela renforce-t-il ou affaiblit-il la capacité de l’élève à agir de façon autonome et réfléchie ?
Les réponses ne sont pas toujours évidentes. L’IA qui aide un élève en difficulté à surmonter un blocage renforce son agentivité. Celle qui fait le travail à sa place l’affaiblit. Entre les deux, il existe une zone grise où le discernement éducatif doit s’exercer, au cas par cas. C’est justement cet exercice du jugement qui fait de nous des acteurs responsables de l’éducation.
La technologie évolue vite, mais les questions fondamentales restent. Quel type d’adultes voulons-nous former ? Des individus capables de mobiliser des outils pour servir leurs projets, ou des utilisateurs qui exécutent docilement les suggestions de la machine ? C’est la réponse à cette question qui déterminera la société de demain.
Conclusion : l’agentivité comme boussole éducative
L’agentivité humaine n’est pas un concept réservé aux philosophes. C’est la capacité concrète qui permet à chacun de devenir l’auteur de sa propre vie. Face aux sirènes de la facilité technologique, cette compétence devient peut-être la plus précieuse que l’école puisse transmettre.
L’IA n’est ni bonne ni mauvaise en soi. Tout dépend de ce que nous en faisons. Utilisée comme un amplificateur de nos capacités, elle peut libérer du temps pour l’essentiel. Acceptée comme un substitut à notre réflexion, elle nous transforme en spectateurs de notre propre pensée.
La question qui se pose aujourd’hui aux parents comme aux enseignants est la suivante : voulons-nous que nos enfants contrôlent la technologie, ou qu’ils en deviennent progressivement dépendants ? La réponse semble évidente. Mais elle se joue dans mille petites décisions quotidiennes, dans la manière dont nous cadrons l’usage des outils, dans notre vigilance à préserver les espaces d’autonomie réelle. Elle réclame une attention de tous les instants.
