Skip to content
Tecnología · 2o de Preparatoria

Ideas de aprendizaje activo

Inteligencia Artificial y Automatización

La IA y la automatización generan incertidumbre, por lo que el aprendizaje activo ayuda a los estudiantes a transformar la teoría en reflexión crítica sobre su futuro profesional. Trabajando en debates, simulaciones y análisis de casos, internalizan conceptos complejos al experimentarlos en contextos reales y colaborativos.

Aprendizajes Esperados SEPSEP EMS: Inteligencia Artificial y Ética Tecnológica
30–45 minParejas → Toda la clase4 actividades

Actividad 01

Pensar-Emparejar-Compartir45 min · Grupos pequeños

Debate en Pequeños Grupos: Profesiones del Futuro

Divide la clase en grupos de 4. Asigna profesiones a debatir: dos defienden su reemplazo por IA, dos su irreemplazabilidad. Cada grupo prepara argumentos con ejemplos reales en 10 minutos, luego debate 20 minutos con turnos cronometrados. Concluye con votación y reflexión colectiva.

¿Qué profesiones son más susceptibles a ser reemplazadas por la IA y cuáles son irreemplazables?

Consejo de FacilitaciónPara el Mapeo Individual, proporciona un formato guía con categorías predefinidas (ej: tareas automatizables, habilidades humanas, profesiones emergentes) para evitar que los estudiantes se sientan abrumados.

Qué observarPresenta el siguiente escenario a los estudiantes: 'Una IA desarrollada para predecir el riesgo crediticio en México rechaza sistemáticamente las solicitudes de personas de ciertas comunidades rurales. ¿Quién es responsable de este sesgo: los programadores, la empresa que la implementó, o la propia IA? Discutan las posibles consecuencias y soluciones.'

ComprenderAplicarAnalizarAutoconcienciaHabilidades de Relación
Generar Clase Completa

Actividad 02

Análisis de Casos: Errores Autónomos

En parejas, asigna casos como accidentes de autos autónomos. Los estudiantes identifican causas, responsables y lecciones éticas en 15 minutos. Comparten hallazgos en plenaria y proponen regulaciones. Usa rúbrica para evaluar razonamiento.

¿Quién es responsable cuando un sistema autónomo comete un error grave?

Qué observarPide a los estudiantes que escriban en un papel: 1) Una profesión que creen que será muy afectada por la IA en los próximos 10 años y por qué. 2) Una habilidad humana que consideren irreemplazable por la IA y por qué.

ComprenderAplicarAnalizarAutoconcienciaHabilidades de Relación
Generar Clase Completa

Actividad 03

Juego de Simulación40 min · Toda la clase

Juego de Simulación: Dilemas Éticos en IA

Clase completa rolea un consejo ético: unos representan empresas, usuarios y reguladores. Presenta un escenario de IA sesgada en préstamos. Discuten 25 minutos soluciones transparentes. Registra acuerdos en pizarra compartida.

¿Cómo podemos asegurar que la IA se desarrolle de manera ética y transparente?

Qué observarRealiza una votación rápida en clase sobre afirmaciones como: 'La IA siempre tomará decisiones más justas que los humanos' o 'La automatización eliminará más empleos de los que creará'. Pide a 2-3 estudiantes que justifiquen su voto con argumentos basados en lo aprendido.

AplicarAnalizarEvaluarCrearConciencia SocialToma de Decisiones
Generar Clase Completa

Actividad 04

Pensar-Emparejar-Compartir30 min · Individual

Mapeo Individual: Mapa de Trabajo 2030

Cada estudiante lista 10 profesiones locales, clasifica su riesgo IA y propone adaptaciones. Intercambian mapas en tríos para feedback, luego galería ambulante para discutir tendencias comunes.

¿Qué profesiones son más susceptibles a ser reemplazadas por la IA y cuáles son irreemplazables?

Qué observarPresenta el siguiente escenario a los estudiantes: 'Una IA desarrollada para predecir el riesgo crediticio en México rechaza sistemáticamente las solicitudes de personas de ciertas comunidades rurales. ¿Quién es responsable de este sesgo: los programadores, la empresa que la implementó, o la propia IA? Discutan las posibles consecuencias y soluciones.'

ComprenderAplicarAnalizarAutoconcienciaHabilidades de Relación
Generar Clase Completa

Plantillas

Plantillas que acompañan estas actividades de Tecnología

Úsalas, edítalas, imprímelas o compártelas.

Algunas notas para enseñar esta unidad

Los estudiantes aprenden mejor cuando confrontan sus ideas previas en actividades estructuradas y guiadas por el docente. Es clave evitar discusiones abstractas sin anclaje en casos concretos, ya que esto puede llevar a generalizaciones incorrectas. La evidencia sugiere que el trabajo colaborativo y el análisis de datos reales aumenta la retención de conceptos éticos y técnicos.

Los estudiantes demuestran comprensión cuando vinculan ejemplos concretos de automatización con argumentos éticos y laborales, usando evidencia de casos reales. También reconocen el valor de habilidades humanas irreemplazables al justificar sus decisiones en debates y mapeos.


Cuidado con estas ideas erróneas

  • Durante el Debate en Pequeños Grupos, watch for students who assume que la IA reemplazará todos los trabajos humanos. Usa los datos laborales compartidos en clase y pide a los grupos que identifiquen al menos dos profesiones que NO serán automatizadas y expliquen por qué, basándose en evidencia.

    During Análisis de Casos, watch for students who creen que los algoritmos de IA son siempre neutrales. Proporciona casos reales con sesgos documentados (ej: reconocimiento facial con errores en tonos de piel) y pide a las parejas que identifiquen el origen del sesgo en los datos de entrenamiento y propongan correcciones concretas.

  • During Simulación de Dilemas Éticos, watch for students who atribuyen toda la responsabilidad de los errores autónomos a la máquina. Divide a los estudiantes en roles (ingeniero, usuario, regulador) y pide que negocien quién asume qué responsabilidad legal y moral en un escenario de fallo de un auto autónomo.

    During Simulación de Dilemas Éticos, watch for students who atribuyen toda la responsabilidad de los errores autónomos a la máquina. Divide a los estudiantes en roles (ingeniero, usuario, regulador) y pide que negocien quién asume qué responsabilidad legal y moral en un escenario de fallo de un auto autónomo.


Metodologías usadas en este resumen