Skip to content

Sesgos Algorítmicos y DiscriminaciónActividades y Estrategias de Enseñanza

El tema de sesgos algorítmicos requiere que los estudiantes vivan la experiencia de descubrir por sí mismos cómo los datos y las decisiones automatizadas pueden perpetuar injusticias, ya que la abstracción matemática de los algoritmos no siempre conecta con su impacto real en la vida de las personas.

3o de PreparatoriaTecnología4 actividades30 min50 min

Objetivos de Aprendizaje

  1. 1Analizar cómo los datos históricos de contratación pueden introducir sesgos en un algoritmo de selección de personal.
  2. 2Evaluar la justicia de las decisiones tomadas por un algoritmo de concesión de créditos simulado, identificando posibles discriminaciones.
  3. 3Explicar las implicaciones sociales de los algoritmos de reconocimiento facial que presentan tasas de error diferenciadas por tono de piel.
  4. 4Diseñar una estrategia inicial para mitigar el sesgo de género en un modelo de lenguaje que genera descripciones de puestos de trabajo.

¿Quieres un plan de clase completo con estos objetivos? Generar una Misión

45 min·Grupos pequeños

Análisis de Datos: Identificar Sesgos

Proporciona conjuntos de datos ficticios sobre contrataciones con sesgos de género o región. Los grupos clasifican datos, calculan porcentajes de sesgo y proponen correcciones. Discutan resultados en plenaria.

Preparación y detalles

¿Cómo los datos históricos pueden perpetuar y amplificar sesgos sociales en los algoritmos?

Consejo de Facilitación: En la actividad de análisis de datos, pida a los estudiantes que trabajen en equipos con datasets diferentes para que comparen entre sí cómo los sesgos se manifiestan de manera distinta según el contexto.

Setup: Dos equipos frente a frente, asientos de audiencia para el resto

Materials: Tarjeta de proposición del debate, Resumen de investigación para cada lado, Rúbrica de evaluación para la audiencia, Temporizador

AnalizarEvaluarCrearAutogestiónToma de Decisiones
30 min·Parejas

Juego de Simulación: Entrenamiento Algorítmico

Usa tarjetas con datos sesgados para 'entrenar' un algoritmo simple de clasificación. Predice salidas, observa discriminación y ajusta datos para mitigar. Registra cambios en una tabla compartida.

Preparación y detalles

¿De qué manera los algoritmos pueden tomar decisiones injustas o discriminatorias?

Consejo de Facilitación: Durante la simulación de entrenamiento algorítmico, limite el tiempo de trabajo en cada etapa para que los estudiantes experimenten la presión de tomar decisiones rápidas con datos imperfectos, igual que en entornos reales.

Setup: Espacio flexible para estaciones de grupo

Materials: Tarjetas de rol con metas/recursos, Moneda de juego o fichas, Marcador de rondas

AplicarAnalizarEvaluarCrearConciencia SocialToma de Decisiones
50 min·Toda la clase

Debate Ético: Casos Reales

Asigna casos como COMPAS en justicia o facial recognition en México. Prepara argumentos a favor y en contra del uso. Vota y reflexiona sobre mitigaciones en rueda de diálogo.

Preparación y detalles

¿Por qué es fundamental auditar y mitigar los sesgos en los sistemas de IA?

Consejo de Facilitación: En el debate ético, asigne roles específicos (como representantes de empresas tecnológicas, afectados por discriminación o reguladores) para que los argumentos se construyan desde perspectivas diversas y bien definidas.

Setup: Dos equipos frente a frente, asientos de audiencia para el resto

Materials: Tarjeta de proposición del debate, Resumen de investigación para cada lado, Rúbrica de evaluación para la audiencia, Temporizador

AnalizarEvaluarCrearAutogestiónToma de Decisiones
35 min·Individual

Auditoría Digital: Herramientas IA

Explora chatbots o recomendadores en línea con prompts sesgados. Documenta respuestas discriminatorias, propone mejoras y comparte en foro clase.

Preparación y detalles

¿Cómo los datos históricos pueden perpetuar y amplificar sesgos sociales en los algoritmos?

Consejo de Facilitación: Para la auditoría digital, proporcione una lista de herramientas de IA gratuitas y accesibles, pero guíe a los estudiantes en la interpretación de los resultados, ya que la tecnología por sí sola no revela el contexto social detrás de los datos.

Setup: Dos equipos frente a frente, asientos de audiencia para el resto

Materials: Tarjeta de proposición del debate, Resumen de investigación para cada lado, Rúbrica de evaluación para la audiencia, Temporizador

AnalizarEvaluarCrearAutogestiónToma de Decisiones

Enseñando Este Tema

Enseñar este tema exige un equilibrio entre lo técnico y lo social. Evite quedarse solo en la explicación de conceptos de inteligencia artificial. En su lugar, use ejemplos locales y actuales para que los estudiantes vean que estos sesgos no son problemas lejanos, sino que afectan a sus comunidades. La pedagogía más efectiva combina la indagación guiada con la reflexión crítica constante, donde los estudiantes no solo identifiquen sesgos, sino que también propongan soluciones éticas basadas en evidencia.

Qué Esperar

Los estudiantes demuestran comprensión al identificar patrones de discriminación en datos, simular cómo se entrenan algoritmos con esos datos y argumentar con evidencia por qué la revisión ética de sistemas de IA es necesaria, vinculando teoría con consecuencias sociales concretas.

Estas actividades son un punto de partida. La misión completa es la experiencia.

  • Guion completo de facilitación con diálogos del docente
  • Materiales imprimibles para el alumno, listos para la clase
  • Estrategias de diferenciación para cada tipo de estudiante
Generar una Misión

Cuidado con estas ideas erróneas

Idea errónea comúnDurante la Simulación: Entrenamiento Algorítmico, algunos estudiantes creerán que los algoritmos son neutrales porque siguen reglas matemáticas estrictas.

Qué enseñar en su lugar

Usa los resultados de la simulación para mostrar cómo, incluso con reglas claras, los datos de entrada sesgados producen salidas injustas. Pide a los estudiantes que comparen las métricas de precisión del algoritmo con las de equidad, destacando que la neutralidad matemática no garantiza justicia social.

Idea errónea comúnDurante el Análisis de Datos: Identificar Sesgos, los estudiantes pueden atribuir los errores del algoritmo a fallas técnicas en el código.

Qué enseñar en su lugar

Enfócate en los datasets proporcionados. Pide a los estudiantes que enumeren características de los datos que reflejan desigualdades sociales históricas, como disparidades en préstamos bancarios por género o etnia, y que expliquen cómo esos patrones se replican en las predicciones del algoritmo.

Idea errónea comúnDurante la Auditoría Digital: Herramientas IA, algunos argumentarán que la IA no puede discriminar porque no tiene conciencia ni emociones.

Qué enseñar en su lugar

Usa ejemplos concretos de auditorías reales, como sistemas de vigilancia que generan falsos positivos en comunidades marginadas. Pide a los estudiantes que identifiquen en los informes de las herramientas qué patrones de datos están causando estos resultados y cómo impactan en la vida real.

Ideas de Evaluación

Pregunta para Discusión

Después del Debate Ético: Casos Reales, presenta a los estudiantes un caso local, como un algoritmo de contratación que favorece a candidatos de ciertas universidades. Pregunta: ¿Qué datos históricos podrían explicar este sesgo? ¿Qué consecuencias tendría en el mercado laboral de la región? Pide respuestas escritas que incluyan al menos dos datos concretos del debate.

Boleto de Salida

Después del Análisis de Datos: Identificar Sesgos, pide a los estudiantes que entreguen al salir una respuesta por escrito a: 1) Nombra un sesgo identificado en el dataset y explica cómo se manifiesta en los resultados del algoritmo. 2) Propón una acción concreta para reducir ese sesgo.

Verificación Rápida

Durante la Simulación: Entrenamiento Algorítmico, muestra al grupo dos modelos entrenados con datasets distintos: uno con datos equilibrados y otro con un sesgo claro (por ejemplo, en la aprobación de préstamos). Pregunta: ¿Cuál modelo es más justo y por qué? Pide a los estudiantes que justifiquen su respuesta con datos de las métricas de cada modelo.

Extensiones y Apoyo

  • Challenge para rápidos: Pide a los estudiantes que diseñen un experimento para probar si un algoritmo de recomendación de música en plataformas digitales muestra sesgos en la selección de géneros según perfiles socioeconómicos.
  • Scaffolding para quienes luchan: Ofrece una tabla comparativa con ejemplos de datos equilibrados y sesgados, y pide a los estudiantes que subrayen las diferencias clave antes de avanzar en el análisis.
  • Deeper exploration: Propón una investigación que analice cómo los sesgos algorítmicos en redes sociales afectan la percepción de grupos minoritarios en México, usando datos abiertos de instituciones como INEGI o CONAPRED.

Vocabulario Clave

Sesgo algorítmicoTendencia de un sistema algorítmico a producir resultados sistemáticamente erróneos o injustos, reflejando prejuicios existentes en los datos de entrenamiento o en su diseño.
Datos de entrenamientoConjunto de información utilizado para enseñar a un modelo de inteligencia artificial a reconocer patrones y tomar decisiones. Si estos datos son sesgados, el modelo aprenderá y replicará esos sesgos.
Discriminación algorítmicaTrato desigual o perjudicial hacia individuos o grupos específicos, resultado directo de las decisiones o predicciones de un algoritmo.
Equidad algorítmicaConjunto de principios y técnicas aplicadas para asegurar que los algoritmos traten a todos los grupos de manera justa y eviten resultados discriminatorios.

¿Listo para enseñar Sesgos Algorítmicos y Discriminación?

Genera una misión completa con todo lo que necesitas

Generar una Misión