Ir al contenido
Tecnología · 3o de Preparatoria · Impacto Social y Ética Tecnológica · V Bimestre

Sesgos Algorítmicos y Discriminación

Los estudiantes analizan cómo los sesgos en los datos de entrenamiento pueden llevar a algoritmos discriminatorios y sus implicaciones sociales.

Aprendizajes Esperados SEPSEP EMS: Ética y Responsabilidad en el Uso de la IASEP EMS: Impacto Social de la Tecnología

Acerca de este tema

Los sesgos algorítmicos surgen cuando los datos de entrenamiento reflejan desigualdades sociales históricas, lo que genera algoritmos que perpetúan discriminación en decisiones como contrataciones, préstamos o vigilancia. En 3° de preparatoria, los estudiantes exploran cómo datos sesgados amplifican prejuicios en sistemas de IA, conectando con los estándares SEP de ética y responsabilidad en el uso de la tecnología, y el impacto social de esta.

Este tema fomenta el pensamiento crítico sobre la neutralidad tecnológica y promueve habilidades para auditar algoritmos, respondiendo a preguntas clave como: ¿cómo los datos históricos perpetúan sesgos? y ¿por qué auditarlos es esencial? Los alumnos analizan casos reales, como algoritmos de reconocimiento facial que fallan en pieles morenas, y proponen mitigaciones como diversificar datos o usar técnicas de equidad.

El aprendizaje activo beneficia este tema porque invita a los estudiantes a simular sesgos con datos locales, debatir implicaciones éticas en grupos y auditar herramientas digitales. Estas prácticas hacen visibles conceptos abstractos, fortalecen la empatía social y preparan para decisiones responsables en un mundo tecnológico.

Preguntas Clave

  1. ¿Cómo los datos históricos pueden perpetuar y amplificar sesgos sociales en los algoritmos?
  2. ¿De qué manera los algoritmos pueden tomar decisiones injustas o discriminatorias?
  3. ¿Por qué es fundamental auditar y mitigar los sesgos en los sistemas de IA?

Objetivos de Aprendizaje

  • Analizar cómo los datos históricos de contratación pueden introducir sesgos en un algoritmo de selección de personal.
  • Evaluar la justicia de las decisiones tomadas por un algoritmo de concesión de créditos simulado, identificando posibles discriminaciones.
  • Explicar las implicaciones sociales de los algoritmos de reconocimiento facial que presentan tasas de error diferenciadas por tono de piel.
  • Diseñar una estrategia inicial para mitigar el sesgo de género en un modelo de lenguaje que genera descripciones de puestos de trabajo.

Antes de Empezar

Introducción a la Inteligencia Artificial y el Aprendizaje Automático

Por qué: Los estudiantes necesitan una comprensión básica de qué es la IA y cómo aprende para comprender el concepto de datos de entrenamiento y sesgos.

Recopilación y Análisis de Datos

Por qué: Es fundamental que los alumnos sepan cómo se recolectan y analizan los datos para poder identificar cómo los sesgos pueden introducirse en ese proceso.

Vocabulario Clave

Sesgo algorítmicoTendencia de un sistema algorítmico a producir resultados sistemáticamente erróneos o injustos, reflejando prejuicios existentes en los datos de entrenamiento o en su diseño.
Datos de entrenamientoConjunto de información utilizado para enseñar a un modelo de inteligencia artificial a reconocer patrones y tomar decisiones. Si estos datos son sesgados, el modelo aprenderá y replicará esos sesgos.
Discriminación algorítmicaTrato desigual o perjudicial hacia individuos o grupos específicos, resultado directo de las decisiones o predicciones de un algoritmo.
Equidad algorítmicaConjunto de principios y técnicas aplicadas para asegurar que los algoritmos traten a todos los grupos de manera justa y eviten resultados discriminatorios.

Cuidado con estas ideas erróneas

Idea errónea comúnLos algoritmos son siempre neutrales porque son matemáticos.

Qué enseñar en su lugar

Los algoritmos reflejan sesgos de sus datos de entrenamiento. Actividades de simulación ayudan a los estudiantes a ver cómo entradas sesgadas producen salidas injustas, fomentando discusiones que corrigen esta idea con evidencia práctica.

Idea errónea comúnLos sesgos solo ocurren por errores intencionales en programación.

Qué enseñar en su lugar

Los sesgos provienen principalmente de datos históricos desiguales. Análisis grupal de datasets revela patrones inadvertidos, y debates éticos conectan esto con realidades sociales, aclarando el origen no intencional.

Idea errónea comúnLa IA no discrimina porque no tiene emociones.

Qué enseñar en su lugar

La discriminación surge de patrones en datos, no emociones. Auditorías activas muestran impactos reales, como en vigilancia, ayudando a estudiantes a reconocer consecuencias sociales mediante ejemplos locales.

Ideas de aprendizaje activo

Ver todas las actividades

Conexiones con el Mundo Real

  • Los sistemas de contratación automatizada utilizados por grandes empresas tecnológicas como Google o Meta han sido criticados por mostrar sesgos de género, presentando anuncios de empleos mejor remunerados predominantemente a hombres.
  • Las plataformas de redes sociales como Facebook o Twitter utilizan algoritmos para moderar contenido. Estos algoritmos pueden, inadvertidamente, censurar o amplificar ciertos discursos basándose en patrones aprendidos de datos históricos, afectando la libertad de expresión.

Ideas de Evaluación

Pregunta para Discusión

Presenta a los estudiantes un titular sobre un algoritmo de reconocimiento facial que funciona peor con ciertos grupos étnicos. Pregunta: ¿Qué datos de entrenamiento podrían haber causado este problema? ¿Qué consecuencias sociales puede tener esta falla tecnológica?

Boleto de Salida

Pide a los estudiantes que escriban en un papel: 1) Un ejemplo de cómo un sesgo social podría terminar en un algoritmo. 2) Una razón por la cual es importante revisar los algoritmos.

Verificación Rápida

Muestra a los alumnos dos conjuntos de datos simulados para entrenar un clasificador simple (ej. predecir si un cliente obtendrá un préstamo). Un conjunto es equilibrado, el otro tiene un sesgo claro. Pregunta: ¿Cuál conjunto de datos es más probable que genere un algoritmo justo y por qué?

Preguntas frecuentes

¿Cómo identificar sesgos en datos de entrenamiento de IA?
Revisa la representatividad: ¿están equilibrados grupos por género, etnia o región? Calcula métricas como tasas de error por subgrupo. Usa herramientas como fairness checks en Python o visualizaciones simples. En clase, compara datasets mexicanos para detectar subrepresentación indígena o rural, promoviendo auditorías éticas.
¿Cuáles son ejemplos de sesgos algorítmicos en México?
En reconocimiento facial, fallos con tonos de piel morenos afectan vigilancia pública. Algoritmos de crédito excluyen a mujeres rurales por datos históricos. Plataformas laborales sesgadas por nombre o acento perpetúan desigualdad. Discutir estos casos locales resalta la necesidad de datos inclusivos y regulaciones SEP alineadas.
¿Cómo el aprendizaje activo ayuda a entender sesgos algorítmicos?
Simulaciones con datos tangibles hacen visibles procesos abstractos, como cuando grupos 'entrenan' algoritmos con tarjetas y ven discriminación emerger. Debates y auditorías fomentan empatía y pensamiento crítico, conectando teoría con impactos sociales. Esto retiene mejor conceptos éticos que lecturas pasivas, preparando decisiones responsables.
¿Por qué auditar sesgos en sistemas de IA es fundamental?
Evita perpetuar desigualdades, como discriminación en justicia o empleo. Cumple estándares éticos SEP y promueve IA responsable. Técnicas como re-muestreo o adversarial training mitigan riesgos. Enseñar auditoría empodera estudiantes para cuestionar tecnología en contextos mexicanos, fomentando ciudadanía digital.