Skip to content
Tecnología · 3o de Secundaria

Ideas de aprendizaje activo

Sesgos Algorítmicos y Equidad

El aprendizaje activo funciona especialmente bien en este tema porque los estudiantes necesitan experimentar directamente cómo los prejuicios humanos se filtran en los sistemas automatizados. Trabajar con ejemplos concretos y casos reales mantiene su atención y les ayuda a conectar la teoría con problemas que podrían enfrentar en su entorno.

Aprendizajes Esperados SEPSEP NEM Fase 6: Ética, Naturaleza y Sociedades, Contenido: Las revoluciones científicas y tecnológicas y sus impactos en las formas de vida y la organización socialSEP NEM Fase 6: Eje Articulador, InclusiónSEP NEM Fase 6: Eje Articulador, Pensamiento Crítico
30–50 minParejas → Toda la clase4 actividades

Actividad 01

Debate Formal45 min · Grupos pequeños

Análisis de Casos: Sesgos en Justicia

Presenta el caso COMPAS y un ejemplo mexicano de algoritmos en policía predictiva. En grupos, identifica sesgos en los datos proporcionados y propone correcciones. Cada grupo presenta hallazgos en 5 minutos.

¿Cómo pueden los sesgos humanos introducirse en los algoritmos de inteligencia artificial?

Consejo de FacilitaciónDurante el análisis de casos, pida a los estudiantes que subrayen en el texto del caso qué grupo demográfico está subrepresentado y cómo esto afecta el resultado del algoritmo.

Qué observarPresenta a los estudiantes un caso hipotético: un algoritmo de recomendación de películas que consistentemente sugiere comedias románticas a mujeres y películas de acción a hombres. Pregunta: ¿Cómo creen que se introdujo este sesgo? ¿Qué consecuencias podría tener a largo plazo? ¿Qué pasos seguirían para corregirlo?

AnalizarEvaluarCrearAutogestiónToma de Decisiones
Generar Clase Completa

Actividad 02

Debate Formal50 min · Toda la clase

Debate Formal: Contratación Automatizada

Divide la clase en dos bandos: uno defiende algoritmos de CV y otro critica sesgos. Proporciona datos sesgados para preparar argumentos. Vota al final por la solución más equitativa.

¿Qué consecuencias tienen los sesgos algorítmicos en áreas como la contratación o la justicia?

Consejo de FacilitaciónEn el debate sobre contratación automatizada, asigne roles específicos (ej. reclutador, candidato afectado, desarrollador de IA) para que todos participen activamente en la discusión.

Qué observarPide a los estudiantes que escriban en un papel dos ejemplos de dónde podrían encontrarse sesgos algorítmicos en su vida diaria (ej. redes sociales, videojuegos). Luego, deben proponer una acción concreta que un desarrollador podría tomar para reducir ese sesgo específico.

AnalizarEvaluarCrearAutogestiónToma de Decisiones
Generar Clase Completa

Actividad 03

Debate Formal35 min · Parejas

Diseño Ético: Dataset Balanceado

En parejas, crea un dataset ficticio para un algoritmo de becas sin sesgos. Incluye diversidad de género, origen y desempeño. Comparte y evalúa con rúbrica de equidad.

¿Cómo diseñar algoritmos que minimicen los sesgos y promuevan la equidad?

Consejo de FacilitaciónEn el diseño ético de datasets, entregue un conjunto de datos desbalanceado y pídales que calculen manualmente las proporciones para que comprendan visualmente el problema antes de proponer soluciones.

Qué observarMuestra a los estudiantes un pequeño conjunto de datos ficticio (ej. calificaciones de estudiantes con información demográfica) y un resultado algorítmico simple. Pregunta: ¿Observan alguna tendencia inusual o potencialmente injusta en los resultados basada en la demografía? Expliquen su razonamiento.

AnalizarEvaluarCrearAutogestiónToma de Decisiones
Generar Clase Completa

Actividad 04

Debate Formal30 min · Individual

Auditoría Rápida: Recomendadores

Individualmente, analiza recomendaciones de redes sociales personales. Registra sesgos observados y discute en círculo cómo mitigarlos con filtros inclusivos.

¿Cómo pueden los sesgos humanos introducirse en los algoritmos de inteligencia artificial?

Consejo de FacilitaciónDurante la auditoría rápida de recomendadores, proporcione una tabla con resultados algorítmicos y pida a los estudiantes que marquen tendencias sospechosas usando colores diferentes para cada grupo demográfico.

Qué observarPresenta a los estudiantes un caso hipotético: un algoritmo de recomendación de películas que consistentemente sugiere comedias románticas a mujeres y películas de acción a hombres. Pregunta: ¿Cómo creen que se introdujo este sesgo? ¿Qué consecuencias podría tener a largo plazo? ¿Qué pasos seguirían para corregirlo?

AnalizarEvaluarCrearAutogestiónToma de Decisiones
Generar Clase Completa

Plantillas

Plantillas que acompañan estas actividades de Tecnología

Úsalas, edítalas, imprímelas o compártelas.

Algunas notas para enseñar esta unidad

Enseñar este tema requiere un equilibrio entre rigor técnico y sensibilidad social. Evite presentar los algoritmos como entidades mágicas o completamente objetivas. En su lugar, enfóquese en que los estudiantes reconozcan que los datos son construcciones humanas con sesgos inherentes. Use ejemplos locales y cercanos para que comprendan la relevancia del problema en su contexto. La investigación muestra que los estudiantes retienen mejor los conceptos cuando pueden empatizar con las personas afectadas por estos sesgos.

Los estudiantes demuestran comprensión al identificar sesgos en datasets, proponer soluciones éticas y argumentar sobre equidad con evidencias. Deben expresar cómo los algoritmos no son neutrales y qué medidas concretas pueden tomar para corregir desigualdades en sistemas automatizados.


Cuidado con estas ideas erróneas

  • Durante el análisis de casos sobre sesgos en justicia, algunos estudiantes pueden argumentar que 'los algoritmos son neutrales porque usan matemáticas puras'.

    En el análisis de casos, pida a los estudiantes que identifiquen en el texto del caso qué grupo demográfico está subrepresentado en los datos de entrenamiento y cómo esto influyó en el resultado del algoritmo. Luego, solicite que propongan una modificación en los datos para reducir ese sesgo.

  • Durante el debate sobre contratación automatizada, algunos pueden afirmar que 'los sesgos solo afectan a países desarrollados, no a México'.

    En el debate, incluya un caso local como el uso de sistemas de crédito que discriminan contra hablantes de lenguas indígenas o mujeres en zonas rurales. Pida a los estudiantes que investiguen brevemente en sus comunidades si conocen ejemplos similares y cómo estos afectan a personas cercanas.

  • Durante el diseño ético de datasets balanceados, algunos pueden decir que 'es imposible eliminar sesgos en la IA'.

    En la actividad de diseño, entregue un dataset desbalanceado y pídales que calculen las proporciones actuales. Luego, guíelos para que apliquen técnicas como oversampling o undersampling, comparando los resultados antes y después de sus ajustes.


Metodologías usadas en este resumen