Skip to content
Tecnología e Informática · 9o Grado

Ideas de aprendizaje activo

Sesgos en los Datos de Entrenamiento

Los estudiantes aprenden mejor cuando ven que sus acciones tienen consecuencias concretas. Este tema requiere que manipulen datos reales y discutan ejemplos tangibles para entender cómo los prejuicios humanos se filtran en la tecnología.

Derechos Básicos de Aprendizaje (DBA)DBA Tecnologia e Informatica: Grado 9 - Etica en el Uso de la TecnologiaDBA Tecnologia e Informatica: Grado 9 - Responsabilidad Social Digital
25–45 minParejas → Toda la clase4 actividades

Actividad 01

Debate Formal30 min · Parejas

Análisis en Pares: Auditoría de Dataset

Proporcione un dataset público de imágenes faciales. En pares, los estudiantes clasifican las imágenes por género y etnia, calculan porcentajes de representación y discuten sesgos identificados. Luego, proponen tres cambios para equilibrarlo.

Analizar cómo los sesgos humanos se reflejan y amplifican en los algoritmos de IA.

Consejo de FacilitaciónDurante la Auditoría de Dataset, pida a los estudiantes que documenten cada paso con capturas de pantalla o anotaciones en sus cuadernos para que puedan justificar sus hallazgos.

Qué observarPresente a los estudiantes un titular sobre un algoritmo que mostró sesgos (ej. 'Sistema de IA penaliza a solicitantes de crédito de bajos ingresos'). Pida a los estudiantes que discutan en grupos pequeños: ¿Qué tipo de sesgo creen que estuvo presente? ¿Cómo pudo haber afectado a los solicitantes? ¿Qué pasos se podrían haber tomado para evitarlo?

AnalizarEvaluarCrearAutogestiónToma de Decisiones
Generar Clase Completa

Actividad 02

Debate Formal45 min · Grupos pequeños

Rotación de Estaciones: Casos Reales de Sesgos

Cree cuatro estaciones con casos: reconocimiento facial, contratación IA, préstamos bancarios y redes sociales. Grupos rotan cada 10 minutos, analizan evidencias de sesgo y registran impactos éticos en una tabla compartida.

Explicar las consecuencias sociales y éticas de los algoritmos sesgados.

Consejo de FacilitaciónEn las Estaciones de Casos Reales, asigne roles específicos (relator, observador, crítico) para que todos participen activamente en la discusión.

Qué observarEntregue a cada estudiante una tarjeta. Pídales que escriban un ejemplo hipotético de un conjunto de datos de entrenamiento que podría contener sesgos (ej. 'fotos de perros solo de razas grandes'). Luego, deben escribir una frase explicando cómo ese sesgo podría afectar a un modelo de IA entrenado con esos datos.

AnalizarEvaluarCrearAutogestiónToma de Decisiones
Generar Clase Completa

Actividad 03

Debate Formal40 min · Grupos pequeños

Diseño Grupal: Estrategia Antisesgos

En pequeños grupos, los estudiantes seleccionan un escenario de IA sesgada, brainstormean estrategias de mitigación como recolección diversa de datos y pruebas de equidad, y presentan un plan en póster con pasos claros.

Diseñar estrategias para identificar y mitigar sesgos en los conjuntos de datos de entrenamiento.

Consejo de FacilitaciónEn la Simulación de Entrenamiento Sesgado, limite el tiempo de entrenamiento a 5 minutos para que los estudiantes sientan la presión de obtener resultados rápidos y observen cómo los sesgos se amplifican.

Qué observarMuestre a los estudiantes dos conjuntos de datos simulados para una tarea simple (ej. predecir el éxito de un estudiante basándose en horas de estudio y recursos disponibles). Un conjunto de datos es equilibrado, el otro está sesgado (ej. solo incluye estudiantes de escuelas con muchos recursos). Pregunte: ¿Cuál conjunto de datos es más probable que produzca un modelo justo y por qué?

AnalizarEvaluarCrearAutogestiónToma de Decisiones
Generar Clase Completa

Actividad 04

Debate Formal25 min · Individual

Simulación Individual: Entrenamiento Sesgado

Cada estudiante crea un dataset simple con 20 items sesgados (ej. profesiones por género), 'entrena' un modelo ficticio prediciendo resultados y reflexiona por escrito sobre amplificación del sesgo.

Analizar cómo los sesgos humanos se reflejan y amplifican en los algoritmos de IA.

Consejo de FacilitaciónEn el Diseño Grupal de Estrategias Antisesgos, use ejemplos de proyectos reales de empresas tecnológicas para que los estudiantes vean aplicabilidad.

Qué observarPresente a los estudiantes un titular sobre un algoritmo que mostró sesgos (ej. 'Sistema de IA penaliza a solicitantes de crédito de bajos ingresos'). Pida a los estudiantes que discutan en grupos pequeños: ¿Qué tipo de sesgo creen que estuvo presente? ¿Cómo pudo haber afectado a los solicitantes? ¿Qué pasos se podrían haber tomado para evitarlo?

AnalizarEvaluarCrearAutogestiónToma de Decisiones
Generar Clase Completa

Algunas notas para enseñar esta unidad

Enseñar este tema exige equilibrio entre lo técnico y lo ético. Evite presentarlo como una lista de conceptos abstractos. Los estudiantes necesitan trabajar con datos reales o simulados para ver cómo los números reflejan desigualdades sociales. Priorice discusiones guiadas donde los estudiantes confronten sus propias suposiciones sobre neutralidad y justicia. La tecnología no es neutral, y los datos tampoco.

Los estudiantes logran identificar al menos tres tipos de sesgos en los datos, proponer estrategias para mitigarlos y explicar por qué la neutralidad en IA es una ilusión que debe ser cuestionada activamente.


Cuidado con estas ideas erróneas

  • Durante la Auditoría de Dataset, algunos estudiantes pueden pensar que la IA es neutral porque usa matemáticas puras.

    Durante la Auditoría de Dataset, pida a los estudiantes que comparen las proporciones demográficas en sus conjuntos de datos con las de la población real, usando ejemplos como 'Si solo el 10% de las imágenes son de personas con piel oscura, pero en la realidad son el 40%, ¿qué significa esto para la precisión del modelo?'.

  • Durante las Estaciones de Casos Reales, algunos pueden creer que los sesgos solo afectan a minorías étnicas.

    Durante las Estaciones de Casos Reales, incluya casos que muestren sesgos por género, edad y región, como '¿Por qué un sistema de contratación rechaza currículums de mujeres mayores de 50 años?' y pida a los estudiantes que identifiquen patrones en los datos presentados.

  • Durante el Diseño Grupal de Estrategias Antisesgos, algunos pueden pensar que mitigar sesgos elimina todos los problemas éticos.

    Durante el Diseño Grupal de Estrategias Antisesgos, pida a los estudiantes que diseñen un sistema de monitoreo continuo para su algoritmo, como '¿Cómo sabrán si nuevos sesgos aparecen en el futuro?' y que presenten un informe con métricas de evaluación.


Metodologías usadas en este resumen