Définition

L'apprentissage visible (ou Visible Learning) désigne deux idées liées, développées par le chercheur néo-zélandais John Hattie : une méthodologie de recherche qui synthétise des méta-analyses pour classer les facteurs influençant la réussite des élèves selon leur taille d'effet, et un ensemble de pratiques de classe qui rendent le processus d'apprentissage transparent pour l'enseignant comme pour l'élève.

Le terme « visible » a une signification précise. L'enseignement est visible lorsque les élèves peuvent voir et expliquer ce qu'ils apprennent et pourquoi. L'apprentissage est visible lorsque les enseignants peuvent observer où chaque élève en est par rapport à l'objectif et ajuster leur enseignement en conséquence. Lorsque ces deux conditions sont réunies simultanément, soutient Hattie, la réussite s'accélère. Le cadre ne prescrit pas une méthode unique ; il décrit une qualité de relation pédagogique dans laquelle l'enseignant fonctionne comme un apprenant engagé et l'élève développe l'autorégulation d'un enseignant habile.

L'ouvrage de Hattie paru en 2008, Visible Learning: A Synthesis of Over 800 Meta-Analyses Relating to Achievement, présentait la plus grande synthèse de recherche en éducation jamais réalisée à cette époque, s'appuyant sur des données portant sur environ 80 millions d'élèves à travers des décennies d'études. La question centrale était d'une simplicité désarmante : parmi tout ce que font les écoles, qu'est-ce qui fonctionne vraiment ?

Contexte historique

John Hattie a commencé à constituer sa base de données de méta-analyses dans les années 1980, lors de ses travaux de doctorat à l'Université de Toronto, avant de poursuivre ce projet à l'Université d'Auckland puis à l'Université de Melbourne. La publication de 2008 est l'aboutissement de quinze ans d'agrégation et de codage de recherches en éducation.

L'héritage intellectuel de l'apprentissage visible puise à plusieurs sources. Les recherches de Benjamin Bloom sur l'apprentissage par maîtrise dans les années 1970 ont établi que la plupart des élèves peuvent atteindre un niveau élevé si on leur accorde suffisamment de temps et un enseignement de qualité. Gene Glass a développé en 1976 la technique statistique de la méta-analyse précisément pour synthétiser les recherches en éducation, et Hattie a adopté la taille d'effet comme unité principale de comparaison entre les études. Le cadre de Jacob Cohen (1988) pour interpréter les tailles d'effet — petit (d=0,20), moyen (d=0,50), grand (d=0,80) — a fourni l'étalon de mesure, bien que Hattie l'ait recalibré au contexte éducatif.

Ce qui distinguait la synthèse de Hattie, c'est son échelle et son étendue. Les méta-analyses précédentes portaient sur des domaines isolés (retour d'information, effectifs de classe, devoirs). Hattie les a placées sur une même échelle comparative, révélant que de nombreuses interventions largement financées produisent des effets inférieurs à ce qu'un bon enseignement seul peut atteindre. Ce constat était délibérément provocateur : tous les investissements éducatifs ne se valent pas, et certaines réformes populaires peinent à se distinguer du niveau de base.

Hattie a actualisé et enrichi sa synthèse dans Visible Learning for Teachers (2012) et dans des travaux collaboratifs ultérieurs, étendant finalement la base de données à plus de 1 600 méta-analyses. Les classements par taille d'effet ont légèrement évolué à mesure que de nouvelles recherches ont été intégrées, mais le cadre de fond est resté stable.

Principes clés

La taille d'effet comme monnaie commune

La taille d'effet (d de Cohen) mesure l'ampleur d'un gain d'apprentissage en unités d'écart-type, indépendamment du test ou de la matière concernée. Cela permet à Hattie de comparer une étude sur l'enseignement de la phonique en deuxième année de primaire avec une étude sur l'apprentissage coopératif en lycée. Une taille d'effet de 0,40 — le « point charnière » de Hattie — représente approximativement une année de progression académique pour une année d'enseignement. Les facteurs dont l'effet dépasse ce seuil produisent plus que la progression attendue ; ceux qui restent en deçà peuvent ne pas justifier l'investissement par rapport à des alternatives plus efficaces.

Le concept de point charnière transforme la manière dont les enseignants évaluent les programmes. Une étude sur la réduction des effectifs montrant d=0,21 n'est pas la preuve que les petites classes fonctionnent ; c'est la preuve que la taille de la classe, à elle seule, ne produit que la moitié de la progression attendue. Les enseignants qui évaluent de nouvelles initiatives peuvent se demander : cette initiative dépasse-t-elle le point charnière ?

Rendre explicites les intentions d'apprentissage et les critères de réussite

L'une des prescriptions pédagogiques les plus concrètes de l'apprentissage visible est que les élèves doivent toujours savoir ce qu'ils apprennent et à quoi ressemble la réussite. Les intentions d'apprentissage décrivent le savoir ou la compétence en cours de développement ; les critères de réussite décrivent les preuves qui témoigneraient de la maîtrise.

Les recherches codées dans la synthèse de Hattie montrent systématiquement que les élèves qui comprennent l'objectif d'une leçon obtiennent de meilleurs résultats que ceux qui ne le connaissent pas, et ce dans toutes les matières et tous les groupes d'âge. Le mécanisme est attentionnel : des élèves disposant de critères clairs peuvent orienter leurs efforts vers ce qui compte et s'autoévaluer avec plus de précision. Sans critères explicites, les élèves optimisent souvent des aspects de surface — longueur, présentation, vocabulaire — qui ne sont pas des indicateurs fiables de l'apprentissage visé.

Le retour d'information comme levier prioritaire

Le retour d'information apparaît dans la revue de Hattie et Helen Timperley publiée en 2007 dans la Review of Educational Research comme l'influence individuelle la plus puissante relevant du contrôle direct de l'enseignant. La synthèse distingue quatre niveaux de retour d'information : le niveau tâche (la réponse est-elle correcte ?), le niveau processus (quelle stratégie permettrait de l'améliorer ?), le niveau autorégulation (comment l'élève surveille-t-il son propre apprentissage ?) et le niveau personnel (éloge ou critique personnelle). Les retours de niveau processus et autorégulation produisent les effets les plus importants ; l'éloge personnel n'en produit presque aucun.

Ce qui est crucial, c'est que le retour d'information doit être reçu et suivi d'effet, pas simplement donné. Le retour d'information en éducation qui arrive trop tard, formulé de façon trop vague ou sans possibilité de révision ne se reflète pas dans les données de réussite, quelle que soit sa qualité formelle. Hattie estime qu'une grande partie du retour d'information en classe va des élèves vers l'enseignant — l'enseignant apprend ainsi ce que les élèves comprennent — plutôt que l'inverse, et que cet usage diagnostique du retour d'information est lui-même un facteur majeur des effets de l'apprentissage visible.

L'enseignant comme évaluateur de son propre impact

L'apprentissage visible repositionne la tâche professionnelle fondamentale de l'enseignant. Plutôt que de se demander « Ai-je bien enseigné cela ? », la question devient : « Comment sais-je que les élèves ont appris cela ? » Le glissement s'opère des intrants (la transmission de la leçon) vers les extrants (les preuves de compréhension). Hattie décrit la disposition idéale de l'enseignant comme celle d'un apprenant « activé », cherchant continuellement des preuves, révisant ses hypothèses sur la compréhension des élèves et traitant les résultats inattendus comme des données diagnostiques plutôt que comme des échecs des élèves.

Cette posture d'évaluateur est directement liée à la clarté de l'enseignant : lorsque les enseignants articulent précisément ce que les élèves doivent savoir, faire et comprendre, ils créent simultanément les critères qui leur permettent d'évaluer si leur enseignement a porté ses fruits.

L'efficacité collective amplifie l'effort individuel

Dans les synthèses actualisées de Hattie, l'efficacité collective des enseignants affiche une taille d'effet de d=1,57 — le facteur le mieux classé. Cela désigne la conviction partagée par le personnel d'un établissement que leurs efforts combinés produisent l'apprentissage des élèves. L'efficacité collective des enseignants n'est pas de l'optimisme ; c'est une cognition spécifique sur l'agentivité professionnelle qui modifie la façon dont les enseignants abordent les élèves en difficulté et répondent aux obstacles. Dans les établissements où l'efficacité collective est élevée, les pratiques d'apprentissage visible sont plus souvent mises en œuvre de façon cohérente parce que les enseignants croient que ces pratiques fonctionnent.

Application en classe

Utiliser les intentions d'apprentissage au début de chaque leçon

Une enseignante de sciences au collège commence chaque unité en inscrivant l'intention d'apprentissage au tableau : « Nous apprenons à expliquer comment la sélection naturelle produit des changements dans les populations au fil du temps. » À côté, elle affiche trois critères de réussite : nommer les quatre conditions nécessaires à la sélection naturelle ; construire un schéma montrant la survie différentielle entre générations ; évaluer un exemple réel (la résistance aux antibiotiques) à l'aide du modèle. Les élèves recopient ces éléments dans leurs cahiers. En fin de séance, ils consacrent deux minutes à écrire quel critère ils ont atteint et quelle preuve le démontre.

Ce rituel — constant dans toutes les unités — apprend aux élèves à suivre leur propre progression plutôt que d'attendre une note. L'enseignante parcourt les billets de sortie avant la prochaine séance, identifie les élèves qui maîtrisent le premier critère mais pas le troisième, et adapte l'activité d'introduction en conséquence.

Les vérifications formatives comme boucles de rétroaction

Un enseignant de cycle 3 en mathématiques utilise des mini-tableaux blancs pour la pratique quotidienne. Les élèves résolvent un problème et lèvent leur tableau simultanément. L'enseignant parcourt la salle en quelques secondes, identifie les trois élèves présentant des erreurs communes et demande à l'un des élèves ayant trouvé la bonne réponse d'expliquer son raisonnement à voix haute. Il s'attaque ensuite au schéma d'erreur avec toute la classe avant de passer à la suite.

Cette séquence met en œuvre le cycle de l'apprentissage visible en moins de cinq minutes : intention d'apprentissage posée (multiplier un nombre à deux chiffres par un nombre à un chiffre), preuves recueillies (vérification des tableaux), retour d'information au niveau du processus (analyse de l'erreur expliquée), enseignement ajusté (réenseignement du schéma d'erreur). Aucune évaluation formelle n'a eu lieu, mais l'enseignant sait désormais ce qu'il doit revoir.

Relier l'autoévaluation à la révision

Un enseignant de français en troisième rend une première version de rédaction sans note, avec seulement des annotations en marge codées selon le référentiel de critères de réussite. Les élèves utilisent ce référentiel pour identifier quels critères leur brouillon satisfait et lesquels il ne satisfait pas, puis rédigent un plan de révision avant l'entretien avec l'enseignant. La conférence individuelle de huit minutes porte exclusivement sur l'écart entre la performance actuelle et le prochain niveau de critère.

En retenant la note, l'enseignant évite que les élèves cessent de s'engager dès qu'ils voient un chiffre. La recherche dans la synthèse de Hattie corrobore ce choix : les notes sans retour d'information référencé aux critères activent une cognition de protection de l'ego, non d'apprentissage.

Données probantes

La méta-analyse de Hattie et Helen Timperley (2007) sur les études portant sur le retour d'information, publiée dans la Review of Educational Research, a synthétisé 196 études et trouvé une taille d'effet moyenne de d=0,73 pour le retour d'information sur les résultats d'apprentissage, avec une variation substantielle selon le type et le niveau du retour. Le retour d'information au niveau du processus (portant sur les stratégies utilisées par les élèves) surpassait systématiquement le retour au niveau de la tâche et au niveau personnel.

La synthèse originale de Visible Learning de 2008 fournit la base probante la plus large : plus de 800 méta-analyses, plus de 50 000 études individuelles et environ 80 millions d'élèves sur plusieurs décennies et plusieurs pays. Les tailles d'effet pour les variables liées à l'enseignant (clarté, retour d'information, évaluation formative) se regroupaient au-dessus de d=0,60, dépassant largement les variables structurelles comme la taille des classes (d=0,21) ou la durée de l'année scolaire (d=0,09).

Jenni Donohoo, John Hattie et Rachel Eells (2018), dans Educational Leadership, ont présenté des preuves que l'efficacité collective des enseignants — le facteur le mieux classé dans les synthèses actualisées, avec d=1,57 — opère à travers des mécanismes cognitifs et comportementaux spécifiques : interprétations partagées des données de progression des élèves, responsabilité collective des résultats et responsabilité réciproque entre enseignants. Les établissements qui développent ces pratiques affichent des gains de réussite supérieurs à ceux obtenus par des enseignants individuellement compétents travaillant de façon isolée.

Des critiques ont soulevé des préoccupations méthodologiques légitimes. Ewald Terhart (2011), dans le Journal of Curriculum Studies, a noté que la moyenne des tailles d'effet entre méta-analyses accumule une hétérogénéité méthodologique : une méta-analyse de 10 études randomisées rigoureuses et une méta-analyse de 50 études corrélationnelles apparaissent toutes deux comme un seul point de données dans la synthèse de Hattie. Le cadre est plus fiable pour identifier de grandes catégories de pratiques à fort impact que pour prédire l'effet d'une intervention spécifique dans un contexte scolaire donné. Hattie a reconnu ces limites et encourage constamment les enseignants à considérer les classements comme un point de départ pour la réflexion, non comme un algorithme de décision.

Idées reçues fréquentes

Idée reçue : l'apprentissage visible consiste à afficher les objectifs sur un tableau blanc. L'erreur d'application superficielle la plus fréquente consiste à traiter les intentions d'apprentissage comme un rituel de conformité — l'enseignant écrit l'objectif, les élèves le recopient, rien ne change. Hattie est explicite sur ce point : des objectifs écrits sans compréhension des élèves, sans référence continue et sans autoévaluation ne produisent pas les effets observés dans la recherche. L'objectif doit être activement utilisé tout au long de la leçon comme point de référence pour l'autocontrôle des élèves et l'ajustement de l'enseignant.

Idée reçue : toute pratique dont la taille d'effet dépasse 0,40 devrait être adoptée. Le point charnière est un repère comparatif, non un seuil universel. Le contexte compte : une taille d'effet de d=0,50 pour une forme particulière d'apprentissage assisté par technologie peut n'avoir été mesurée que dans des salles de classe bien équipées avec des facilitateurs formés. Transférer cette pratique dans un contexte différent, sans ces conditions, ne reproduira pas l'effet. Hattie présente systématiquement la synthèse comme un outil pour éclairer le jugement professionnel, non pour le remplacer.

Idée reçue : le cadre vise principalement à classer et à écarter les pratiques inefficaces. L'apprentissage visible est souvent lu comme une critique — une liste de ce qu'il ne faut pas faire. L'argument le plus important est d'ordre structurel : les enseignants ont besoin de preuves continues et fiables de leur impact, et les établissements ont besoin de mécanismes collectifs pour interpréter ces preuves et ajuster leurs pratiques. Le classement des facteurs est secondaire par rapport à la posture évaluative que Hattie considère comme le moteur central de la haute réussite.

Lien avec l'apprentissage actif

Les facteurs les mieux classés par l'apprentissage visible — retour d'information, clarté de l'enseignant et efficacité collective des enseignants — exercent tous leur plein pouvoir dans des environnements d'apprentissage actif. L'enseignement passif (cours magistral sans interaction) minimise les occasions de boucles de rétroaction qui alimentent les effets de l'apprentissage visible. Un élève qui écoute un cours de 40 minutes ne génère presque aucune preuve de compréhension que l'enseignant puisse observer et exploiter ; un élève engagé dans une discussion structurée, la résolution de problèmes ou l'explication à des pairs génère des preuves en continu.

Le séminaire socratique crée une boucle de rétroaction naturelle entre la compréhension des élèves et la réponse de l'enseignant. L'apprentissage par projet intègre les critères de réussite dans les jalons du projet, offrant aux élèves des occasions continues d'autoévaluation. Le « penser-partager-confronter » fournit à l'enseignant un contrôle rapide de la compréhension collective avant de passer à la suite. Ce ne sont pas de simples techniques d'engagement ; ce sont des mécanismes de production de preuves qui rendent possible le cycle de l'apprentissage visible.

Le cadre de Hattie offre également un argument fondé sur la recherche pour justifier l'adoption de méthodes d'apprentissage actif : elles permettent structurellement les pratiques — retour d'information riche, critères clairs, autoévaluation des élèves, suivi par l'enseignant — qui produisent les tailles d'effet les plus élevées dans la synthèse. Le retour d'information en éducation aux niveaux du processus et de l'autorégulation requiert une performance des élèves à laquelle répondre ; il ne peut se produire dans un mode d'enseignement purement réceptif.

Sources

  1. Hattie, J. (2008). Visible Learning: A Synthesis of Over 800 Meta-Analyses Relating to Achievement. Routledge.

  2. Hattie, J. (2012). Visible Learning for Teachers: Maximizing Impact on Learning. Routledge.

  3. Hattie, J., & Timperley, H. (2007). The power of feedback. Review of Educational Research, 77(1), 81–112.

  4. Terhart, E. (2011). Has John Hattie really found the holy grail of research on teaching? An extended review of Visible Learning. Journal of Curriculum Studies, 43(3), 425–438.