Skip to content
Tecnología · 3o de Preparatoria

Ideas de aprendizaje activo

Sesgos Algorítmicos y Discriminación

El tema de sesgos algorítmicos requiere que los estudiantes vivan la experiencia de descubrir por sí mismos cómo los datos y las decisiones automatizadas pueden perpetuar injusticias, ya que la abstracción matemática de los algoritmos no siempre conecta con su impacto real en la vida de las personas.

Aprendizajes Esperados SEPSEP EMS: Ética y Responsabilidad en el Uso de la IASEP EMS: Impacto Social de la Tecnología
30–50 minParejas → Toda la clase4 actividades

Actividad 01

Cuatro Esquinas45 min · Grupos pequeños

Análisis de Datos: Identificar Sesgos

Proporciona conjuntos de datos ficticios sobre contrataciones con sesgos de género o región. Los grupos clasifican datos, calculan porcentajes de sesgo y proponen correcciones. Discutan resultados en plenaria.

¿Cómo los datos históricos pueden perpetuar y amplificar sesgos sociales en los algoritmos?

Consejo de FacilitaciónEn la actividad de análisis de datos, pida a los estudiantes que trabajen en equipos con datasets diferentes para que comparen entre sí cómo los sesgos se manifiestan de manera distinta según el contexto.

Qué observarPresenta a los estudiantes un titular sobre un algoritmo de reconocimiento facial que funciona peor con ciertos grupos étnicos. Pregunta: ¿Qué datos de entrenamiento podrían haber causado este problema? ¿Qué consecuencias sociales puede tener esta falla tecnológica?

ComprenderAnalizarEvaluarAutoconcienciaConciencia Social
Generar Clase Completa

Actividad 02

Juego de Simulación30 min · Parejas

Juego de Simulación: Entrenamiento Algorítmico

Usa tarjetas con datos sesgados para 'entrenar' un algoritmo simple de clasificación. Predice salidas, observa discriminación y ajusta datos para mitigar. Registra cambios en una tabla compartida.

¿De qué manera los algoritmos pueden tomar decisiones injustas o discriminatorias?

Consejo de FacilitaciónDurante la simulación de entrenamiento algorítmico, limite el tiempo de trabajo en cada etapa para que los estudiantes experimenten la presión de tomar decisiones rápidas con datos imperfectos, igual que en entornos reales.

Qué observarPide a los estudiantes que escriban en un papel: 1) Un ejemplo de cómo un sesgo social podría terminar en un algoritmo. 2) Una razón por la cual es importante revisar los algoritmos.

AplicarAnalizarEvaluarCrearConciencia SocialToma de Decisiones
Generar Clase Completa

Actividad 03

Cuatro Esquinas50 min · Toda la clase

Debate Ético: Casos Reales

Asigna casos como COMPAS en justicia o facial recognition en México. Prepara argumentos a favor y en contra del uso. Vota y reflexiona sobre mitigaciones en rueda de diálogo.

¿Por qué es fundamental auditar y mitigar los sesgos en los sistemas de IA?

Consejo de FacilitaciónEn el debate ético, asigne roles específicos (como representantes de empresas tecnológicas, afectados por discriminación o reguladores) para que los argumentos se construyan desde perspectivas diversas y bien definidas.

Qué observarMuestra a los alumnos dos conjuntos de datos simulados para entrenar un clasificador simple (ej. predecir si un cliente obtendrá un préstamo). Un conjunto es equilibrado, el otro tiene un sesgo claro. Pregunta: ¿Cuál conjunto de datos es más probable que genere un algoritmo justo y por qué?

ComprenderAnalizarEvaluarAutoconcienciaConciencia Social
Generar Clase Completa

Actividad 04

Cuatro Esquinas35 min · Individual

Auditoría Digital: Herramientas IA

Explora chatbots o recomendadores en línea con prompts sesgados. Documenta respuestas discriminatorias, propone mejoras y comparte en foro clase.

¿Cómo los datos históricos pueden perpetuar y amplificar sesgos sociales en los algoritmos?

Consejo de FacilitaciónPara la auditoría digital, proporcione una lista de herramientas de IA gratuitas y accesibles, pero guíe a los estudiantes en la interpretación de los resultados, ya que la tecnología por sí sola no revela el contexto social detrás de los datos.

Qué observarPresenta a los estudiantes un titular sobre un algoritmo de reconocimiento facial que funciona peor con ciertos grupos étnicos. Pregunta: ¿Qué datos de entrenamiento podrían haber causado este problema? ¿Qué consecuencias sociales puede tener esta falla tecnológica?

ComprenderAnalizarEvaluarAutoconcienciaConciencia Social
Generar Clase Completa

Plantillas

Plantillas que acompañan estas actividades de Tecnología

Úsalas, edítalas, imprímelas o compártelas.

Algunas notas para enseñar esta unidad

Enseñar este tema exige un equilibrio entre lo técnico y lo social. Evite quedarse solo en la explicación de conceptos de inteligencia artificial. En su lugar, use ejemplos locales y actuales para que los estudiantes vean que estos sesgos no son problemas lejanos, sino que afectan a sus comunidades. La pedagogía más efectiva combina la indagación guiada con la reflexión crítica constante, donde los estudiantes no solo identifiquen sesgos, sino que también propongan soluciones éticas basadas en evidencia.

Los estudiantes demuestran comprensión al identificar patrones de discriminación en datos, simular cómo se entrenan algoritmos con esos datos y argumentar con evidencia por qué la revisión ética de sistemas de IA es necesaria, vinculando teoría con consecuencias sociales concretas.


Cuidado con estas ideas erróneas

  • Durante la Simulación: Entrenamiento Algorítmico, algunos estudiantes creerán que los algoritmos son neutrales porque siguen reglas matemáticas estrictas.

    Usa los resultados de la simulación para mostrar cómo, incluso con reglas claras, los datos de entrada sesgados producen salidas injustas. Pide a los estudiantes que comparen las métricas de precisión del algoritmo con las de equidad, destacando que la neutralidad matemática no garantiza justicia social.

  • Durante el Análisis de Datos: Identificar Sesgos, los estudiantes pueden atribuir los errores del algoritmo a fallas técnicas en el código.

    Enfócate en los datasets proporcionados. Pide a los estudiantes que enumeren características de los datos que reflejan desigualdades sociales históricas, como disparidades en préstamos bancarios por género o etnia, y que expliquen cómo esos patrones se replican en las predicciones del algoritmo.

  • Durante la Auditoría Digital: Herramientas IA, algunos argumentarán que la IA no puede discriminar porque no tiene conciencia ni emociones.

    Usa ejemplos concretos de auditorías reales, como sistemas de vigilancia que generan falsos positivos en comunidades marginadas. Pide a los estudiantes que identifiquen en los informes de las herramientas qué patrones de datos están causando estos resultados y cómo impactan en la vida real.


Metodologías usadas en este resumen