Skip to content
Tecnología · 2o de Preparatoria

Ideas de aprendizaje activo

Sesgos Algorítmicos y Discriminación

El aprendizaje activo funciona mejor para este tema porque los sesgos algorítmicos son abstractos hasta que los estudiantes los ven en acción. Al manipular datos, analizar casos reales y debatir soluciones, transforman el concepto de un problema teórico a uno tangible y urgente que requiere su participación directa.

Aprendizajes Esperados SEPSEP EMS: Inteligencia Artificial y Ética TecnológicaSEP EMS: Ciudadanía Digital y Equidad Social
40–60 minParejas → Toda la clase4 actividades

Actividad 01

Sesión de Exploración al Aire Libre45 min · Grupos pequeños

Estaciones Rotativas: Análisis de Sesgos

Prepara cuatro estaciones con casos reales: reclutamiento sesgado, reconocimiento facial, préstamos bancarios y redes sociales. Los grupos rotan cada 10 minutos, analizan datos, identifican sesgos y proponen correcciones. Cierra con una galería ambulante para compartir hallazgos.

¿Cómo se introducen los sesgos humanos en los algoritmos de inteligencia artificial?

Consejo de FacilitaciónEn Estaciones Rotativas, asegúrate de que cada estación incluya un ejemplo cotidiano (como apps de contratación o préstamos) para que los estudiantes vean la conexión con su vida diaria.

Qué observarEntregue a cada estudiante una tarjeta con un escenario hipotético (ej. un algoritmo de recomendación de películas, un sistema de predicción policial). Pida que escriban una frase identificando un posible sesgo y otra explicando cómo podría afectar a un grupo específico.

RecordarComprenderAnalizarConciencia SocialAutoconcienciaToma de Decisiones
Generar Clase Completa

Actividad 02

Juego de Simulación50 min · Parejas

Juego de Simulación: Dataset Sesgado

En parejas, los estudiantes crean un dataset ficticio con sesgos de género o etnia para un recomendador de empleos. Entrenan un modelo simple en Scratch o Python básico y prueban predicciones. Discuten ajustes para neutralizar sesgos.

¿Qué impacto tienen los algoritmos sesgados en la justicia social y la equidad?

Consejo de FacilitaciónPara la Simulación de Dataset Sesgado, pídeles que expliquen en voz alta cómo el sesgo en sus datos afecta las decisiones del algoritmo, incluso si el código parece correcto.

Qué observarPlantee la pregunta: 'Si un algoritmo de contratación muestra un sesgo contra las mujeres, ¿quién es el principal responsable: los programadores, la empresa que lo implementa, o los datos históricos?'. Guíe la discusión para que los estudiantes justifiquen sus respuestas basándose en la cadena de responsabilidad.

AplicarAnalizarEvaluarCrearConciencia SocialToma de Decisiones
Generar Clase Completa

Actividad 03

Sesión de Exploración al Aire Libre40 min · Grupos pequeños

Debate Estructurado: IA Justa

Divide la clase en equipos pro y contra 'La regulación estricta es la única solución a sesgos algorítmicos'. Cada lado prepara argumentos con evidencia de casos reales y debate por turnos de 3 minutos. Vota la clase al final.

¿Cómo podemos diseñar algoritmos que sean justos y transparentes para todos?

Consejo de FacilitaciónEn el Debate Estructurado, asigna roles claros (ej. programador, afectado, auditor) para que todos participen y no se queden solo en respuestas superficiales.

Qué observarMuestre a los estudiantes dos conjuntos de datos simples (uno equilibrado, otro sesgado) para una tarea simulada (ej. decidir quién recibe un préstamo). Pida que identifiquen cuál conjunto de datos es problemático y por qué, levantando la mano o escribiendo en una pizarra individual.

RecordarComprenderAnalizarConciencia SocialAutoconcienciaToma de Decisiones
Generar Clase Completa

Actividad 04

Sesión de Exploración al Aire Libre60 min · Grupos pequeños

Diseño Colaborativo: Algoritmo Ético

En grupos, diseña un algoritmo para asignar becas sin sesgos: define criterios, simula datos diversos y evalúa equidad. Presenta prototipos y recibe retroalimentación de pares.

¿Cómo se introducen los sesgos humanos en los algoritmos de inteligencia artificial?

Consejo de FacilitaciónDurante el Diseño Colaborativo, limita el tiempo para decidir el algoritmo ético y obliga a priorizar: ¿prefieren precisión o inclusión? Esto refleja los dilemas reales en el desarrollo tecnológico.

Qué observarEntregue a cada estudiante una tarjeta con un escenario hipotético (ej. un algoritmo de recomendación de películas, un sistema de predicción policial). Pida que escriban una frase identificando un posible sesgo y otra explicando cómo podría afectar a un grupo específico.

RecordarComprenderAnalizarConciencia SocialAutoconcienciaToma de Decisiones
Generar Clase Completa

Plantillas

Plantillas que acompañan estas actividades de Tecnología

Úsalas, edítalas, imprímelas o compártelas.

Algunas notas para enseñar esta unidad

Los profesores más efectivos comienzan con ejemplos cotidianos y escalan a casos complejos, porque la discriminación algorítmica no es un problema de expertos, sino de sociedades. Evita empezar con definiciones técnicas: en su lugar, usa el método de 'mostrar, hacer, reflexionar'. La investigación sugiere que los estudiantes retienen mejor cuando descubren el sesgo por sí mismos, no cuando se les explica de antemano. También es clave normalizar el error: que entiendan que los algoritmos sesgados no son fallos, sino resultados esperables de datos humanos imperfectos.

El éxito se observa cuando los estudiantes identifican sesgos en ejemplos concretos, proponen soluciones viables y defienden sus argumentos con evidencia. También cuando reconocen que la neutralidad algorítmica es un mito y que la ética debe ser parte del diseño tecnológico desde el principio.


Cuidado con estas ideas erróneas

  • Durante la Simulación de Dataset Sesgado, los estudiantes pueden decir: 'Los algoritmos son neutrales porque usan matemáticas puras'.

    Observa sus reacciones cuando vean que su algoritmo, creado con datos sesgados, discrimina a ciertos grupos. Pídeles que comparen los resultados con un dataset equilibrado y pregunte: '¿Dónde entró el sesgo? ¿En el código, en los datos o en su propia selección de variables?'.

  • Durante las Estaciones Rotativas, algunos pueden argumentar: 'Los sesgos solo afectan a IA compleja como ChatGPT'.

    Usa los ejemplos de las estaciones (ej. apps de préstamos o reconocimiento facial) para mostrar que el sesgo aparece en sistemas simples. Pregunta: '¿Cómo un algoritmo que clasifica currículums puede ser más justo si solo usa datos históricos de contrataciones?'.

  • Durante el Debate Estructurado sobre Responsabilidad Algorítmica, algunos dirán: 'Corregir sesgos requiere cambiar todo el código'.

    En el debate, introduce la idea de auditorías y datos diversos. Pide a los equipos que propongan soluciones realistas (ej. añadir datos de grupos subrepresentados) y justifiquen por qué no siempre es necesario reescribir el algoritmo completo.


Metodologías usadas en este resumen