Skip to content
Tecnología · 3o de Preparatoria

Ideas de aprendizaje activo

Transparencia y Explicabilidad en IA (XAI)

La transparencia y explicabilidad en IA son conceptos abstractos que se comprenden mejor mediante la acción. Los estudiantes necesitan manipular modelos reales, debatir decisiones y analizar casos concretos para internalizar que la XAI no es solo teoría, sino una práctica que construye confianza en la tecnología.

Aprendizajes Esperados SEPSEP EMS: Ética y Responsabilidad en el Uso de la IASEP EMS: Impacto Social de la Tecnología
30–50 minParejas → Toda la clase4 actividades

Actividad 01

Círculo Interno-Externo45 min · Parejas

Debate en Parejas: Caja Negra vs. XAI

Asigna a cada pareja un rol: defensores de algoritmos opacos o de XAI. Prepara argumentos basados en casos de medicina y justicia. Cada dupla presenta 3 minutos y responde preguntas del grupo. Cierra con votación y reflexión colectiva.

¿Cómo la falta de transparencia en los algoritmos de 'caja negra' genera desconfianza?

Consejo de FacilitaciónEn el Debate en Parejas, asigna roles específicos (ej. defensor de la IA caja negra y defensor de la XAI) para garantizar que ambos lados del argumento se exploren con profundidad.

Qué observarPresenta a los estudiantes un caso hipotético donde un algoritmo de IA tomó una decisión errónea (ej. rechazo de crédito injustificado). Pregunta: ¿Cómo la falta de transparencia pudo haber contribuido a este error? ¿Qué información adicional de XAI habría sido útil para el solicitante y el banco?

RecordarComprenderAplicarHabilidades de RelaciónAutogestión
Generar Clase Completa

Actividad 02

Círculo Interno-Externo50 min · Grupos pequeños

Simulación Grupal: Árbol de Decisión Explicable

En grupos pequeños, usa herramientas como Scratch o Python simple para crear un árbol de decisión que clasifique préstamos bancarios. Incluye visualizaciones de ramas. Los grupos explican decisiones a la clase y comparan con caja negra.

¿De qué manera la explicabilidad de la IA permite a los usuarios entender por qué se tomó una decisión?

Consejo de FacilitaciónDurante la Simulación Grupal del Árbol de Decisión Explicable, camina entre los grupos para asegurar que todos registren los pasos de decisión en lenguaje claro y no técnico.

Qué observarPide a los estudiantes que escriban en un papel: 1) Una razón por la cual la XAI es importante en la medicina. 2) Un ejemplo de cómo un algoritmo de 'caja negra' podría generar desconfianza. 3) Una palabra clave relacionada con el tema y su definición.

RecordarComprenderAplicarHabilidades de RelaciónAutogestión
Generar Clase Completa

Actividad 03

Círculo Interno-Externo40 min · Toda la clase

Análisis de Casos: Ronda de Discusión

Distribuye casos reales de IA en justicia (ej. COMPAS). En círculo, cada estudiante comparte una implicación ética y propone una solución XAI. Registra ideas en pizarrón compartido para síntesis final.

¿Por qué la XAI es crucial en aplicaciones críticas como la medicina o la justicia?

Consejo de FacilitaciónEn el Análisis de Casos, usa un temporizador visible para mantener la discusión enfocada y asigna un moderador por grupo para que otros estudiantes participen activamente.

Qué observarDurante la clase, muestra dos fragmentos de código simplificados: uno que representa un modelo 'caja negra' y otro que muestra una regla de decisión simple. Pregunta a los estudiantes: ¿Cuál de estos modelos sería más fácil de explicar y por qué? Pide que levanten la mano o usen un sistema de respuesta rápida.

RecordarComprenderAplicarHabilidades de RelaciónAutogestión
Generar Clase Completa

Actividad 04

Mapa Conceptual30 min · Individual

Mapa Conceptual: Impactos de XAI

Cada estudiante dibuja un mapa conectando transparencia, confianza y aplicaciones críticas. Incluye ejemplos personales. Comparte en galería walk para retroalimentación entre pares.

¿Cómo la falta de transparencia en los algoritmos de 'caja negra' genera desconfianza?

Consejo de FacilitaciónPara el Mapa Conceptual Individual, proporciona una lista de palabras clave relacionadas con XAI para que los estudiantes las organicen y conecten con ejemplos concretos.

Qué observarPresenta a los estudiantes un caso hipotético donde un algoritmo de IA tomó una decisión errónea (ej. rechazo de crédito injustificado). Pregunta: ¿Cómo la falta de transparencia pudo haber contribuido a este error? ¿Qué información adicional de XAI habría sido útil para el solicitante y el banco?

ComprenderAnalizarCrearAutoconcienciaAutogestión
Generar Clase Completa

Plantillas

Plantillas que acompañan estas actividades de Tecnología

Úsalas, edítalas, imprímelas o compártelas.

Algunas notas para enseñar esta unidad

Este tema se enseña mejor mediante un enfoque constructivista donde los estudiantes primero experimentan la opacidad de un modelo caja negra y luego construyen alternativas explicables. Evita comenzar con definiciones teóricas; en su lugar, usa actividades que generen conflicto cognitivo, como comparar un modelo opaco con uno transparente. La investigación sugiere que los estudiantes retienen mejor el concepto cuando ven cómo la falta de explicabilidad afecta decisiones humanas reales, por lo que prioriza casos con impacto social claro.

Los estudiantes demuestran aprendizaje al identificar modelos interpretables frente a los de caja negra, explicar cómo la XAI puede revelar sesgos en decisiones automatizadas y argumentar con ejemplos cómo la transparencia impacta la ética tecnológica. El éxito se mide en su capacidad para conectar actividades prácticas con implicaciones sociales.


Cuidado con estas ideas erróneas

  • Durante el Debate en Parejas, escucha afirmaciones como 'todos los sistemas de IA son opacos'.

    Usa la estructura del debate para guiar a los estudiantes a identificar modelos interpretables con ejemplos concretos, como árboles de decisión o reglas lógicas simples, y pide que expliquen cómo estos modelos pueden ser auditados.

  • Durante la Simulación Grupal del Árbol de Decisión Explicable, observa si los estudiantes creen que la XAI elimina sesgos automáticamente.

    Aprovecha la construcción del árbol para mostrar cómo la XAI revela sesgos en los datos, pero no los corrige por sí sola; enfatiza la necesidad de ajustes éticos posteriores mediante preguntas como '¿qué pasaría si los datos iniciales tienen un sesgo de género?'.

  • Durante el Análisis de Casos, algunos estudiantes pueden pensar que la XAI solo es relevante en contextos críticos.

    Usa los casos presentados para mostrar ejemplos cotidianos donde la falta de transparencia afecta la confianza, como recomendaciones de redes sociales o publicidad dirigida, y pide a los estudiantes que identifiquen cómo la explicabilidad mejoraría la experiencia del usuario.


Metodologías usadas en este resumen