Definición
La enseñanza basada en evidencias es la selección y aplicación deliberada de estrategias de instrucción respaldadas por investigación empírica rigurosa. Un docente que practica la enseñanza basada en evidencias formula una pregunta concreta antes de elegir cualquier método en el aula: ¿qué dice la investigación sobre su efecto en el aprendizaje del alumnado y cuál es la solidez de esas evidencias?
El concepto traza una línea directa desde la medicina. La práctica basada en evidencias en el ámbito sanitario, formalizada por Donald Sackett y sus colegas en la Universidad McMaster durante los años noventa, exige que las decisiones clínicas integren las mejores evidencias de investigación disponibles, la experiencia clínica y los valores del paciente. Los investigadores en educación adaptaron este marco a partir de finales de los noventa, argumentando que el profesorado merecía el mismo acceso a evidencias fiables que los médicos.
La enseñanza basada en evidencias no es sinónimo de seguir un currículo prescrito ni de eliminar el juicio profesional. Es un mecanismo de filtrado. Cuando un docente elige entre dos enfoques — por ejemplo, releer el material frente a la práctica de recuperación para consolidar el conocimiento — la enseñanza basada en evidencias implica decidir en función de lo que la investigación controlada demuestra que funciona, no de lo que resulta intuitivo o de lo que un taller de desarrollo profesional promovió sin datos.
Contexto Histórico
El movimiento basado en evidencias en educación tomó forma institucional a principios de los años 2000 a ambos lados del Atlántico. En Estados Unidos, la Ley No Child Left Behind de 2001 estableció la «investigación científicamente fundamentada» como estándar para los programas financiados con fondos federales, y el What Works Clearinghouse (WWC) se creó en 2002 bajo el Instituto de Ciencias de la Educación para evaluar y catalogar programas y prácticas eficaces.
En el Reino Unido, el Evidence for Policy and Practice Information Centre (EPPI-Centre) de la University College London llevaba sintetizando investigación educativa desde 1993. El Centre for Effective Education de la Queen's University Belfast y la Education Endowment Foundation (EEF), fundada en 2011, extendieron este trabajo al sistema escolar inglés, financiando ensayos controlados aleatorizados de intervenciones en el aula y publicando un Teaching and Learning Toolkit de acceso libre.
La contribución individual más influyente en el campo fue Visible Learning de John Hattie, publicado en 2009. Hattie sintetizó más de 800 metaanálisis que abarcaban aproximadamente 80 millones de estudiantes para identificar qué factores predicen de forma más fiable los avances en el aprendizaje. Su trabajo proporcionó al profesorado un marco jerarquizado y accesible para comparar el poder relativo de distintas decisiones de instrucción. Visible Learning se convirtió en la columna vertebral empírica de las conversaciones sobre enseñanza basada en evidencias en muchos sistemas escolares de todo el mundo.
The Hidden Lives of Learners (2007), publicada póstumamente por Graham Nuthall, aportó una perspectiva crucial a nivel de aula. Nuthall pasó décadas realizando estudios observacionales detallados en aulas de Nueva Zelanda y descubrió que gran parte de lo que el profesorado creía que ayudaba al alumnado — la discusión en grupo, las actividades variadas, las señales de participación estudiantil — no producía de forma fiable el aprendizaje que esperaba. Sus hallazgos reforzaron la necesidad de contrastar los supuestos de instrucción con los resultados reales del alumnado.
Dylan Wiliam de la University College London llevó la práctica basada en evidencias a la evaluación formativa mediante su colaboración con Paul Black, culminando en la influyente revisión de 1998 «Inside the Black Box» y el posterior programa Embedding Formative Assessment, que demostró que ciertas prácticas de retroalimentación podían elevar sustancialmente el rendimiento en distintas materias y grupos de edad.
Principios Clave
La Calidad de la Evidencia Importa Tanto como su Existencia
No toda investigación tiene el mismo peso. Un único estudio pequeño sin grupo de control es categorialmente diferente de un ensayo controlado aleatorizado prerregistrado y replicado en múltiples poblaciones. La enseñanza basada en evidencias exige que el profesorado y los responsables escolares distingan entre niveles de evidencia: la opinión de expertos y los estudios de caso se sitúan en la base de la jerarquía; las revisiones sistemáticas y los metaanálisis de múltiples ensayos controlados aleatorizados se sitúan en la cima.
El Teaching and Learning Toolkit de la EEF valora cada estrategia tanto por su tamaño del efecto como por la solidez de las evidencias subyacentes. Una estrategia con un tamaño del efecto elevado pero una base de evidencias débil — como ocurre con algunas intervenciones sobre estilos de aprendizaje — debe tratarse con mayor escepticismo que otra con un tamaño del efecto moderado respaldada por múltiples ensayos de alta calidad.
El Tamaño del Efecto Proporciona una Métrica Común
El tamaño del efecto, expresado habitualmente como d de Cohen, permite comparar estudios que miden resultados en unidades diferentes. Un tamaño del efecto de 0,2 se considera generalmente pequeño, 0,5 moderado y 0,8 grande. Hattie estableció su «punto bisagra» para efectos educativamente significativos en d = 0,40, equivalente aproximadamente al crecimiento típico de un estudiante en un año.
El tamaño del efecto resulta valioso precisamente porque separa la significación estadística de la significación práctica. Un estudio con miles de participantes puede encontrar un resultado estadísticamente significativo para una intervención con un tamaño del efecto de 0,02 — prácticamente sin beneficio real. La enseñanza basada en evidencias requiere evaluar ambas dimensiones.
El Contexto Determina la Implementación, no la Selección de Estrategias
La evidencia identifica qué estrategias funcionan en condiciones diversas; la experiencia profesional determina cómo implementarlas en un aula concreta con un alumnado concreto. La práctica espaciada, por ejemplo, es robustamente eficaz en distintos grupos de edad y materias, pero el intervalo de espaciado óptimo y el formato de las tareas de práctica requieren el juicio del docente sobre el contenido y el alumnado en cuestión.
Este principio protege frente a dos errores: ignorar la evidencia por completo (fiarse únicamente de la intuición) y aplicarla de forma mecánica (tratar a todo el alumnado y todas las materias como si fueran idénticos).
La Indagación Continua Perfecciona la Práctica
La enseñanza basada en evidencias no es una adopción curricular puntual. El profesorado que la practica se involucra en una indagación continua: implementa estrategias informadas por la evidencia, recoge datos sobre las respuestas de su propio alumnado y perfecciona su enfoque. Esto conecta directamente con la investigación-acción, que formaliza la investigación liderada por el profesorado sobre la práctica en el aula como modelo de desarrollo profesional.
Aplicación en el Aula
Estructurar las Lecciones en Torno a Estrategias de Alto Efecto
Un docente de historia de secundaria que implementa la práctica basada en evidencias podría estructurar una unidad usando tres estrategias bien respaldadas: la preprueba (activar y evaluar los conocimientos previos antes de la instrucción, tamaño del efecto d = 0,45 en la síntesis de Hattie), los ejemplos resueltos durante la adquisición inicial de habilidades (que reducen la carga cognitiva en la fase más vulnerable del aprendizaje) y la recuperación espaciada de bajo riesgo a los 2, 7 y 21 días después de la instrucción inicial.
Cada una de estas decisiones es rastreable hasta un cuerpo de investigación con tamaños del efecto significativos y evidencias de alta calidad. El docente no sigue un guion; selecciona herramientas con un historial demostrado y las adapta al contenido cronológico y al estado actual de conocimiento de su alumnado.
Usar los Datos de Evaluación para Informar la Instrucción
Una tutora de cuarto de primaria observa que tres estudiantes fallan sistemáticamente en problemas de fracciones con denominadores distintos. La práctica basada en evidencias implica aquí resistir el impulso de volver a enseñar el tema a toda la clase. La investigación sobre evaluación diagnóstica (Dylan Wiliam, 2011) demuestra que la retroalimentación dirigida y responsiva a concepciones erróneas específicas produce mayores avances que volver a enseñar a toda la clase contenidos ya asimilados.
La docente diseña una intervención en pequeño grupo para los tres estudiantes, utiliza una progresión concreto-pictórico-abstracta respaldada por la teoría representacional de Bruner y realiza una nueva evaluación tras cinco sesiones. Los datos — no la intuición de la docente sobre si la clase «fue bien» — determinan el siguiente paso.
Evaluar las Opciones de Desarrollo Profesional
Una jefa de departamento que evalúa dos propuestas de desarrollo profesional — una sobre diferenciación basada en estilos de aprendizaje y otra sobre retroalimentación formativa — puede aplicar el pensamiento basado en evidencias directamente a esa decisión. El Toolkit de la EEF valora los estilos de aprendizaje con una calidad de evidencia muy baja y un tamaño del efecto próximo a cero; la retroalimentación formativa obtiene una valoración de alta calidad de evidencia y un tamaño del efecto de aproximadamente 0,60. La asignación del presupuesto de desarrollo profesional se deriva de la evidencia, no de qué ponente recibió mejores puntuaciones en las encuestas.
Evidencia Investigadora
La síntesis a gran escala de referencia es Visible Learning de Hattie (2009), actualizada posteriormente en Visible Learning for Teachers (2012) y Visible Learning: The Sequel (2023). El volumen de 2009 sintetizó más de 800 metaanálisis e identificó las principales influencias sobre el rendimiento académico. El hallazgo más consistente de Hattie: la calidad de la retroalimentación del profesorado — concretamente, la retroalimentación que indica al alumnado dónde se encuentra en relación con el objetivo y qué debe hacer a continuación — produce algunos de los avances de aprendizaje más elevados y fiables de cualquier variable en el aula.
La revisión de Paul Black y Dylan Wiliam de 1998 «Assessment and Classroom Learning» (Assessment in Education, 5(1), pp. 7-74) sintetizó 250 estudios sobre evaluación formativa y encontró tamaños del efecto de entre 0,4 y 0,7 desviaciones típicas para prácticas de evaluación formativa bien implementadas. La revisión fue decisiva para establecer la evaluación formativa como estrategia basada en evidencias fundamental.
Classroom Instruction That Works (2001) de Robert Marzano, Debra Pickering y Jane Pollock, basado en una síntesis de más de 100 estudios, identificó nueve categorías de estrategias de instrucción con sólidos tamaños del efecto. Aunque críticas posteriores cuestionaron algunas de las decisiones metodológicas de Marzano, el marco impulsó la adopción generalizada del lenguaje de estrategias basadas en evidencias en los sistemas escolares.
Una limitación significativa en el campo es la dificultad de trasladar investigación de laboratorio de alta calidad a contextos auténticos de aula. Los estudios de práctica de recuperación de Roediger y Karpicke (2006, Psychological Science) demostraron efectos de gran magnitud en condiciones controladas, y las posteriores replicaciones en el aula han confirmado que estos efectos se mantienen, si bien la implementación óptima varía sustancialmente según la materia y la edad. El profesorado debería tratar los tamaños del efecto como guías orientativas, no como predicciones precisas para su propio contexto.
Conceptos Erróneos Frecuentes
La enseñanza basada en evidencias significa utilizar únicamente ensayos controlados aleatorizados. Los ECA son el estándar más elevado para las afirmaciones causales, pero no son la única fuente de evidencia legítima en educación. Las revisiones sistemáticas, los estudios longitudinales de alta calidad y los estudios cuasiexperimentales replicados contribuyen igualmente a la base de evidencias. Una estrategia respaldada por múltiples estudios correlacionales independientes en contextos distintos puede adoptarse, con la cautela apropiada respecto a las afirmaciones causales.
Si algo funciona en promedio, funciona para todo el alumnado. Los tamaños del efecto de los grandes metaanálisis describen efectos medios en poblaciones. Una estrategia con d = 0,60 no beneficiará a cada estudiante en cada aula en la misma medida. Algunos se beneficiarán más, otros menos, y algunos pueden responder de forma diferente en función de sus conocimientos previos, su motivación o el contexto de instrucción. La enseñanza basada en evidencias exige recoger datos sobre el propio alumnado, no limitarse a confiar en el promedio poblacional.
La enseñanza basada en evidencias elimina la creatividad y la autonomía docente. La evidencia reduce el campo de estrategias plausibles, pero no dicta cómo un docente da vida a esas estrategias. Un docente basado en evidencias que utiliza la llamada en frío con tiempo de espera (respaldada por la investigación sobre el tiempo de espera y la práctica de recuperación) puede diseñar igualmente propuestas culturalmente responsivas, aprovechar su conocimiento del alumnado individual y construir su propio estilo pedagógico dentro de una estructura validada. La evidencia establece el suelo, no el techo.
Conexión con el Aprendizaje Activo
La enseñanza basada en evidencias y el aprendizaje activo se refuerzan mutuamente. Muchas de las estrategias de mayor efecto en la síntesis de Hattie son activas por diseño: la retroalimentación formativa exige que el alumnado procese y responda; la práctica de recuperación requiere recuerdo activo en lugar de reexposición pasiva; la enseñanza recíproca exige que el alumnado genere preguntas, resuma, aclare y prediga.
Visible Learning proporciona el fundamento empírico para comprender qué enfoques de aprendizaje activo producen avances medibles. Los métodos de discusión con baja demanda cognitiva obtienen puntuaciones bajas en la síntesis de Hattie; la discusión estructurada con objetivos claros, la llamada en frío y la rendición de cuentas sobre el razonamiento obtienen puntuaciones sustancialmente más altas. La distinción no es entre activo y pasivo per se, sino entre implicación activa que produce pensamiento e implicación activa que produce actuación sin aprendizaje.
La práctica de recuperación se encuentra entre las estrategias de aprendizaje activo con mayor respaldo en la literatura de ciencias cognitivas. Someter al alumnado a pruebas sobre material previamente aprendido — en lugar de pedirle que revise sus apuntes — supera de forma consistente a los métodos de estudio pasivo, con tamaños del efecto robustos en distintos grupos de edad, materias e intervalos de retención. Para el profesorado que diseña actividades de repaso, esta evidencia es inequívoca y accionable.
La investigación-acción operacionaliza la enseñanza basada en evidencias a nivel de aula. Donde los metaanálisis indican al profesorado qué estrategias tienden a funcionar, la investigación-acción proporciona un método para descubrir si esas estrategias funcionan y cómo lo hacen con su alumnado específico. Un docente que lee la investigación sobre práctica espaciada, implementa un protocolo de espaciado y hace un seguimiento sistemático de los resultados de los exámenes a lo largo de un semestre está haciendo ambas cosas: aplicar evidencia externa y generar evidencia local.
Las metodologías con sólidos componentes de aprendizaje activo — incluidas la clase invertida, el aprendizaje basado en proyectos y el seminario socrático — se benefician directamente del marco de enseñanza basada en evidencias. En lugar de adoptar estos enfoques de forma global en función de su atractivo, el profesorado puede examinar los mecanismos específicos que emplea cada metodología (reflexión metacognitiva, resolución colaborativa de problemas, cuestionamiento elaborativo) contrastándolos con la evidencia disponible sobre dichos mecanismos e implementarlos en consecuencia.
Fuentes
-
Hattie, J. (2009). Visible Learning: A Synthesis of Over 800 Meta-Analyses Relating to Achievement. Routledge.
-
Black, P., & Wiliam, D. (1998). Assessment and classroom learning. Assessment in Education: Principles, Policy & Practice, 5(1), 7–74.
-
Nuthall, G. (2007). The Hidden Lives of Learners. NZCER Press.
-
Education Endowment Foundation. (2024). Teaching and Learning Toolkit. EEF. Retrieved from https://educationendowmentfoundation.org.uk/education-evidence/teaching-learning-toolkit