Skip to content

Sesgos Algorítmicos y EquidadActividades y Estrategias de Enseñanza

El aprendizaje activo funciona especialmente bien en este tema porque los estudiantes necesitan experimentar directamente cómo los prejuicios humanos se filtran en los sistemas automatizados. Trabajar con ejemplos concretos y casos reales mantiene su atención y les ayuda a conectar la teoría con problemas que podrían enfrentar en su entorno.

3o de SecundariaTecnología4 actividades30 min50 min

Objetivos de Aprendizaje

  1. 1Identificar cómo los datos históricos, como la subrepresentación de ciertos grupos demográficos, pueden introducir sesgos en los algoritmos de inteligencia artificial.
  2. 2Analizar las consecuencias de los sesgos algorítmicos en decisiones críticas, como la selección de personal o la concesión de créditos.
  3. 3Evaluar diferentes estrategias para mitigar sesgos en el diseño de algoritmos, como la diversificación de conjuntos de datos o la auditoría de modelos.
  4. 4Proponer soluciones concretas para el desarrollo de algoritmos más equitativos y justos en contextos tecnológicos específicos.

¿Quieres un plan de clase completo con estos objetivos? Generar una Misión

45 min·Grupos pequeños

Análisis de Casos: Sesgos en Justicia

Presenta el caso COMPAS y un ejemplo mexicano de algoritmos en policía predictiva. En grupos, identifica sesgos en los datos proporcionados y propone correcciones. Cada grupo presenta hallazgos en 5 minutos.

Preparación y detalles

¿Cómo pueden los sesgos humanos introducirse en los algoritmos de inteligencia artificial?

Consejo de Facilitación: Durante el análisis de casos, pida a los estudiantes que subrayen en el texto del caso qué grupo demográfico está subrepresentado y cómo esto afecta el resultado del algoritmo.

Setup: Dos equipos frente a frente, asientos de audiencia para el resto

Materials: Tarjeta de proposición del debate, Resumen de investigación para cada lado, Rúbrica de evaluación para la audiencia, Temporizador

AnalizarEvaluarCrearAutogestiónToma de Decisiones
50 min·Toda la clase

Debate Formal: Contratación Automatizada

Divide la clase en dos bandos: uno defiende algoritmos de CV y otro critica sesgos. Proporciona datos sesgados para preparar argumentos. Vota al final por la solución más equitativa.

Preparación y detalles

¿Qué consecuencias tienen los sesgos algorítmicos en áreas como la contratación o la justicia?

Consejo de Facilitación: En el debate sobre contratación automatizada, asigne roles específicos (ej. reclutador, candidato afectado, desarrollador de IA) para que todos participen activamente en la discusión.

Setup: Dos equipos frente a frente, asientos de audiencia para el resto

Materials: Tarjeta de proposición del debate, Resumen de investigación para cada lado, Rúbrica de evaluación para la audiencia, Temporizador

AnalizarEvaluarCrearAutogestiónToma de Decisiones
35 min·Parejas

Diseño Ético: Dataset Balanceado

En parejas, crea un dataset ficticio para un algoritmo de becas sin sesgos. Incluye diversidad de género, origen y desempeño. Comparte y evalúa con rúbrica de equidad.

Preparación y detalles

¿Cómo diseñar algoritmos que minimicen los sesgos y promuevan la equidad?

Consejo de Facilitación: En el diseño ético de datasets, entregue un conjunto de datos desbalanceado y pídales que calculen manualmente las proporciones para que comprendan visualmente el problema antes de proponer soluciones.

Setup: Dos equipos frente a frente, asientos de audiencia para el resto

Materials: Tarjeta de proposición del debate, Resumen de investigación para cada lado, Rúbrica de evaluación para la audiencia, Temporizador

AnalizarEvaluarCrearAutogestiónToma de Decisiones
30 min·Individual

Auditoría Rápida: Recomendadores

Individualmente, analiza recomendaciones de redes sociales personales. Registra sesgos observados y discute en círculo cómo mitigarlos con filtros inclusivos.

Preparación y detalles

¿Cómo pueden los sesgos humanos introducirse en los algoritmos de inteligencia artificial?

Consejo de Facilitación: Durante la auditoría rápida de recomendadores, proporcione una tabla con resultados algorítmicos y pida a los estudiantes que marquen tendencias sospechosas usando colores diferentes para cada grupo demográfico.

Setup: Dos equipos frente a frente, asientos de audiencia para el resto

Materials: Tarjeta de proposición del debate, Resumen de investigación para cada lado, Rúbrica de evaluación para la audiencia, Temporizador

AnalizarEvaluarCrearAutogestiónToma de Decisiones

Enseñando Este Tema

Enseñar este tema requiere un equilibrio entre rigor técnico y sensibilidad social. Evite presentar los algoritmos como entidades mágicas o completamente objetivas. En su lugar, enfóquese en que los estudiantes reconozcan que los datos son construcciones humanas con sesgos inherentes. Use ejemplos locales y cercanos para que comprendan la relevancia del problema en su contexto. La investigación muestra que los estudiantes retienen mejor los conceptos cuando pueden empatizar con las personas afectadas por estos sesgos.

Qué Esperar

Los estudiantes demuestran comprensión al identificar sesgos en datasets, proponer soluciones éticas y argumentar sobre equidad con evidencias. Deben expresar cómo los algoritmos no son neutrales y qué medidas concretas pueden tomar para corregir desigualdades en sistemas automatizados.

Estas actividades son un punto de partida. La misión completa es la experiencia.

  • Guion completo de facilitación con diálogos del docente
  • Materiales imprimibles para el alumno, listos para la clase
  • Estrategias de diferenciación para cada tipo de estudiante
Generar una Misión

Cuidado con estas ideas erróneas

Idea errónea comúnDurante el análisis de casos sobre sesgos en justicia, algunos estudiantes pueden argumentar que 'los algoritmos son neutrales porque usan matemáticas puras'.

Qué enseñar en su lugar

En el análisis de casos, pida a los estudiantes que identifiquen en el texto del caso qué grupo demográfico está subrepresentado en los datos de entrenamiento y cómo esto influyó en el resultado del algoritmo. Luego, solicite que propongan una modificación en los datos para reducir ese sesgo.

Idea errónea comúnDurante el debate sobre contratación automatizada, algunos pueden afirmar que 'los sesgos solo afectan a países desarrollados, no a México'.

Qué enseñar en su lugar

En el debate, incluya un caso local como el uso de sistemas de crédito que discriminan contra hablantes de lenguas indígenas o mujeres en zonas rurales. Pida a los estudiantes que investiguen brevemente en sus comunidades si conocen ejemplos similares y cómo estos afectan a personas cercanas.

Idea errónea comúnDurante el diseño ético de datasets balanceados, algunos pueden decir que 'es imposible eliminar sesgos en la IA'.

Qué enseñar en su lugar

En la actividad de diseño, entregue un dataset desbalanceado y pídales que calculen las proporciones actuales. Luego, guíelos para que apliquen técnicas como oversampling o undersampling, comparando los resultados antes y después de sus ajustes.

Ideas de Evaluación

Pregunta para Discusión

Después del análisis de casos sobre sesgos en justicia, presente a los estudiantes un caso hipotético: un algoritmo de recomendación de películas que sugiere comedias románticas a mujeres y películas de acción a hombres. Pregunte: ¿Cómo introdujeron este sesgo los datos históricos? ¿Qué consecuencias podría tener a largo plazo? ¿Qué pasos seguirían para corregirlo?

Boleto de Salida

Durante la auditoría rápida de recomendadores, pida a los estudiantes que escriban en un papel dos ejemplos de sesgos algorítmicos en su vida diaria (ej. redes sociales, videojuegos). Luego, deben proponer una acción concreta que un desarrollador podría tomar para reducir ese sesgo específico.

Verificación Rápida

En el diseño ético de datasets balanceados, muestre a los estudiantes un pequeño conjunto de datos ficticio con calificaciones de estudiantes y información demográfica. Pregunte: ¿Observan alguna tendencia inusual o potencialmente injusta en los resultados basada en la demografía? Solicite que expliquen su razonamiento en una oración.

Extensiones y Apoyo

  • Challenge: Pida a los estudiantes que investiguen un caso real de sesgo algorítmico en México o Latinoamérica y presenten una propuesta de auditoría para ese sistema en específico.
  • Scaffolding: Para estudiantes que luchan con el concepto, entregue un dataset ficticio con solo dos variables demográficas y guíelos paso a paso para identificar el desbalance.
  • Deeper exploration: Invite a un profesional de tecnología o ética de datos a compartir cómo se implementan auditorías de equidad en empresas reales, comparando sus procesos con lo aprendido en clase.

Vocabulario Clave

Sesgo algorítmicoTendencia de un algoritmo a producir resultados sistemáticamente injustos o discriminatorios debido a prejuicios presentes en los datos de entrenamiento o en su diseño.
Datos de entrenamientoConjunto de información utilizado para enseñar a un modelo de inteligencia artificial a reconocer patrones y tomar decisiones. Si estos datos reflejan desigualdades, el algoritmo las aprenderá.
Equidad algorítmicaEl objetivo de diseñar y utilizar algoritmos que traten a todos los individuos y grupos de manera justa, evitando la perpetuación o amplificación de sesgos sociales existentes.
Auditoría de algoritmosProceso de revisión sistemática de un algoritmo para detectar y medir la presencia de sesgos, evaluar su impacto y proponer correcciones para asegurar la imparcialidad.

¿Listo para enseñar Sesgos Algorítmicos y Equidad?

Genera una misión completa con todo lo que necesitas

Generar una Misión