Skip to content
Tecnología · II Medio

Ideas de aprendizaje activo

Sesgo Algorítmico y Justicia Social

Este tema requiere que los estudiantes pasen de la teoría a la acción para entender cómo los prejuicios sociales se filtran en sistemas que parecen objetivos. La participación activa ayuda a conectar conceptos abstractos con experiencias concretas, evitando que se queden en discusiones superficiales sobre 'neutralidad tecnológica'.

Objetivos de Aprendizaje (OA)OA TEC 2oM: Ética y Responsabilidad DigitalOA TEC 2oM: Impacto Social de la Tecnología
25–50 minParejas → Toda la clase4 actividades

Actividad 01

Pecera de Discusión35 min · Parejas

Debate en Parejas: Responsabilidad de Desarrolladores

Asigna a cada pareja un caso real de sesgo algorítmico, como en sistemas de crédito. Una persona defiende al desarrollador, la otra representa a afectados. Rotan roles tras 10 minutos y concluyen con una auditoría propuesta. Comparte conclusiones en plenaria.

¿Cómo puede un algoritmo ser discriminatorio si es una pieza de software matemática?

Consejo de FacilitaciónPara el Debate en Parejas, asigna roles claros (desarrollador, afectado por el sesgo) y recuerda a los estudiantes que deben usar evidencia del caso local de evaluaciones educativas automatizadas en Chile.

Qué observarPresenta a los estudiantes un caso hipotético: un algoritmo de recomendación de universidades que favorece a estudiantes de colegios privados. Pregunta: ¿Qué datos podrían haber causado este sesgo? ¿Qué consecuencias sociales tiene? ¿Cómo podrían los desarrolladores corregirlo?

AnalizarEvaluarConciencia SocialAutoconciencia
Generar Clase Completa

Actividad 02

Pecera de Discusión45 min · Grupos pequeños

Análisis Grupal: Auditoría de Algoritmo Simple

En grupos pequeños, proporciona datos sesgados ficticios para un algoritmo de admisión escolar. Identifican sesgos, calculan tasas de aprobación por grupo demográfico y proponen datos correctivos. Presentan hallazgos con gráficos.

¿Qué responsabilidad tienen los desarrolladores sobre las decisiones que toma su IA?

Consejo de FacilitaciónEn la Auditoría de Algoritmo Simple, proporciona datasets pequeños y obviamente sesgados para que los grupos puedan calcular métricas de equidad sin abrumarse con complejidad técnica.

Qué observarPide a los estudiantes que escriban en un papel: 1) Un ejemplo de cómo un algoritmo podría ser discriminatorio en Chile. 2) Una pregunta que harían a un desarrollador de IA para verificar la equidad de su sistema.

AnalizarEvaluarConciencia SocialAutoconciencia
Generar Clase Completa

Actividad 03

Pecera de Discusión50 min · Toda la clase

Simulación Clase Completa: Impacto Social

La clase rolea un desarrollo de IA: algunos son programadores, otros auditores y afectados. Discuten iterativamente sesgos y soluciones. Vota al final por la propuesta más equitativa.

¿Cómo podemos auditar un sistema inteligente para asegurar que sea equitativo?

Consejo de FacilitaciónEn la Simulación de Impacto Social, asigna roles con perfiles diversos (ej. estudiante de liceo público, funcionario de banco) para que los estudiantes vivan las consecuencias de primera mano.

Qué observarMuestra a los estudiantes dos resultados de un mismo algoritmo (ej. predicción de éxito académico) uno aparentemente justo y otro sesgado. Pide que identifiquen cuál podría ser el sesgado y justifiquen su elección basándose en los conceptos de datos de entrenamiento y equidad.

AnalizarEvaluarConciencia SocialAutoconciencia
Generar Clase Completa

Actividad 04

Pecera de Discusión25 min · Individual

Mapeo Individual: Sesgos en Apps Diarias

Cada estudiante lista apps usadas y busca noticias de sesgos en ellas. Anota evidencias y una pregunta de auditoría. Comparte en foro grupal para discusión colectiva.

¿Cómo puede un algoritmo ser discriminatorio si es una pieza de software matemática?

Consejo de FacilitaciónDurante el Mapeo Individual de Apps, pide a los estudiantes que documenten no solo el sesgo observado, sino también el contexto chileno que lo explica (ej. exclusión digital en zonas rurales).

Qué observarPresenta a los estudiantes un caso hipotético: un algoritmo de recomendación de universidades que favorece a estudiantes de colegios privados. Pregunta: ¿Qué datos podrían haber causado este sesgo? ¿Qué consecuencias sociales tiene? ¿Cómo podrían los desarrolladores corregirlo?

AnalizarEvaluarConciencia SocialAutoconciencia
Generar Clase Completa

Plantillas

Plantillas que acompañan estas actividades de Tecnología

Úsalas, edítalas, imprímelas o compártelas.

Algunas notas para enseñar esta unidad

La enseñanza efectiva de este tema combina evidencia concreta con reflexión crítica. Evita quedarte solo en ejemplos internacionales; usa casos chilenos como los de la PSU o sistemas de créditos universitarios para que los estudiantes vean relevancia inmediata. Investiga cómo los estudiantes interactúan con algoritmos en su vida diaria (ej. redes sociales, apps bancarias) y úsalo como punto de partida. La clave está en equilibrar la explicación técnica con preguntas que conecten con su realidad social.

Los estudiantes demuestran comprensión al identificar sesgos en ejemplos cotidianos, proponer soluciones basadas en datos y cuestionar supuestos sobre la imparcialidad algorítmica. Observarás esto en sus argumentos durante debates, en sus análisis de datasets y en la creatividad de sus propuestas de mejora.


Cuidado con estas ideas erróneas

  • Durante el Debate en Parejas, escucha comentarios que atribuyan neutralidad a los algoritmos por su base matemática.

    Usa el caso de las evaluaciones educativas automatizadas en Chile para pedir a los estudiantes que comparen datasets de colegios municipales vs privados y observen diferencias en métricas como 'tasa de aprobación'.

  • Durante la Simulación de Impacto Social, algunos estudiantes podrían afirmar que el sesgo algorítmico solo afecta a grupos minoritarios.

    En la simulación, asigna roles que muestren impactos transversales (ej. un algoritmo de préstamos que niega créditos a familias de clase media por 'riesgo económico') y guía una discusión sobre cómo el sesgo refuerza desigualdades sistémicas.

  • Durante la Auditoría de Algoritmo Simple, los estudiantes podrían creer que no es posible auditar algoritmos desplegados.

    En la auditoría, proporciona un algoritmo simple (ej. predicción de notas) y guía a los grupos a calcular métricas de fairness como 'tasa de error por grupo socioeconómico', demostrando que la auditoría es accesible y necesaria.


Metodologías usadas en este resumen