Skip to content
Filosofía · 2o de Preparatoria

Ideas de aprendizaje activo

Ética de la Inteligencia Artificial

La ética de la IA exige pensar más allá de lo teórico, pues los estudiantes necesitan confrontar contradicciones entre innovación y justicia. Las actividades activas, como debates y simulaciones, convierten dilemas abstractos en experiencias tangibles que revelan el impacto humano detrás del código.

Aprendizajes Esperados SEPSEP EMS: Ética y TecnologíaSEP EMS: Filosofía de la IA
35–50 minParejas → Toda la clase4 actividades

Actividad 01

Planear-Hacer-Recordar45 min · Parejas

Debate Estructurado: Responsabilidad en IA

Divide la clase en parejas a favor y en contra de que los creadores de IA sean plenamente responsables de sesgos. Cada pareja prepara 3 argumentos con ejemplos reales en 10 minutos, luego debate por turnos de 2 minutos. Concluye con votación y reflexión grupal.

Predice los dilemas éticos que surgirán con el avance de la inteligencia artificial.

Consejo de FacilitaciónDurante el Debate Estructurado, asigna roles específicos (ej. programador, afectado, regulador) para que los estudiantes vivan la tensión entre intereses distintos.

Qué observarPresenta a los estudiantes el siguiente escenario: 'Una IA de contratación ha sido entrenada con datos históricos y consistentemente prefiere candidatos masculinos para puestos de liderazgo. ¿Quién es moralmente responsable de esta discriminación: los programadores originales, la empresa que la implementó, o la propia IA? Guía la discusión para que identifiquen las diferentes capas de responsabilidad.'

RecordarAplicarAnalizarAutogestiónToma de DecisionesAutoconciencia
Generar Clase Completa

Actividad 02

Planear-Hacer-Recordar50 min · Grupos pequeños

Análisis de Casos: Sesgos Algorítmicos

Asigna a pequeños grupos un caso mexicano real, como sesgos en apps de crédito. Identifican el sesgo, proponen soluciones éticas y presentan en 5 minutos. Usa rúbrica para evaluar profundidad.

Analiza la responsabilidad moral de los creadores de IA ante sus decisiones.

Consejo de FacilitaciónEn el Análisis de Casos, proporciona datasets reales de reclutamiento o justicia predictiva de México para que identifiquen patrones de discriminación.

Qué observarPide a los estudiantes que escriban en un papel: 1) Un dilema ético específico que podría surgir con la IA en los próximos 10 años. 2) Una posible solución o principio ético para abordarlo. Recoge los boletos para evaluar la comprensión de los desafíos futuros.

RecordarAplicarAnalizarAutogestiónToma de DecisionesAutoconciencia
Generar Clase Completa

Actividad 03

Juego de Simulación40 min · Grupos pequeños

Juego de Simulación: Toma de Decisiones Autónomas

En grupos pequeños, simulan un vehículo autónomo ante un dilema ético (peatón vs. pasajero). Discuten opciones, votan y justifican con principios éticos. Registra decisiones en pizarra compartida.

Evalúa la posibilidad de que una IA desarrolle conciencia y derechos.

Consejo de FacilitaciónEn la Simulación de Toma de Decisiones Autónomas, usa escenarios ambiguos donde no haya respuestas correctas absolutas, obligando a los estudiantes a negociar criterios éticos.

Qué observarDurante la clase, haz una pausa y pregunta: '¿Pueden darme un ejemplo de cómo un sesgo algorítmico podría manifestarse en una aplicación de IA que usamos en México, como una plataforma de recomendaciones de contenido?' Anota las respuestas para verificar la comprensión inmediata.

AplicarAnalizarEvaluarCrearConciencia SocialToma de Decisiones
Generar Clase Completa

Actividad 04

Planear-Hacer-Recordar35 min · Individual

Mapeo de Dilemas: Futuro de la IA

Individualmente, cada estudiante mapea 3 dilemas éticos futuros de IA en un diagrama. Luego, en parejas, comparten y refinan mapas colectivos para discusión clase.

Predice los dilemas éticos que surgirán con el avance de la inteligencia artificial.

Consejo de FacilitaciónEn el Mapeo de Dilemas, pide a los equipos que conecten problemas locales (ej. IA en escuelas rurales) con marcos éticos globales.

Qué observarPresenta a los estudiantes el siguiente escenario: 'Una IA de contratación ha sido entrenada con datos históricos y consistentemente prefiere candidatos masculinos para puestos de liderazgo. ¿Quién es moralmente responsable de esta discriminación: los programadores originales, la empresa que la implementó, o la propia IA? Guía la discusión para que identifiquen las diferentes capas de responsabilidad.'

RecordarAplicarAnalizarAutogestiónToma de DecisionesAutoconciencia
Generar Clase Completa

Algunas notas para enseñar esta unidad

Este tema se enseña mejor cuando los estudiantes experimentan el conflicto ético, no cuando se les explica. Evita conferencias largas; en su lugar, usa casos cortos y concretos que generen disonancia cognitiva. La clave está en guiarlos para que cuestionen sus propias suposiciones sobre neutralidad tecnológica y responsabilidad distribuida.

Los estudiantes demuestran comprensión al identificar cadenas de responsabilidad, detectar sesgos en datos reales y proponer soluciones éticas fundamentadas en evidencia. Evaluamos no solo sus respuestas, sino su capacidad para argumentar desde perspectivas diversas y contextualizadas.


Cuidado con estas ideas erróneas

  • Durante el Debate Estructurado sobre Responsabilidad en IA, watch for...

    Usa los roles asignados (programador, empresa, usuario) para que los estudiantes identifiquen que la responsabilidad es compartida. Pide que argumenten con ejemplos concretos, como el caso de COMPAS en Estados Unidos, donde los datos históricos reflejaban sesgos raciales.

  • Durante el Análisis de Casos sobre Sesgos Algorítmicos, watch for...

    Enfócate en los datasets proporcionados: analicen cómo la falta de diversidad en muestras (ej. reconocimiento facial con rostros mayoritariamente blancos) produce errores sistemáticos. Pide que propongan soluciones técnicas y sociales.

  • Durante la Simulación de Toma de Decisiones Autónomas, watch for...

    Observa si los estudiantes reducen la responsabilidad a la IA como entidad autónoma. Guíalos para distribuirla entre diseñadores, usuarios y contextos sociales, usando el enfoque de accountability en cadena.


Metodologías usadas en este resumen