Skip to content
Tecnología · 3o de Preparatoria

Ideas de aprendizaje activo

Responsabilidad y Autonomía de la IA

Este tema exige que los estudiantes enfrenten dilemas complejos donde la tecnología y la ética chocan. La participación activa les permite explorar estas contradicciones desde múltiples perspectivas, evitando que adopten posturas simplistas sobre la responsabilidad en sistemas autónomos.

Aprendizajes Esperados SEPSEP EMS: Ética y Responsabilidad en el Uso de la IASEP EMS: Impacto Social de la Tecnología
30–45 minParejas → Toda la clase4 actividades

Actividad 01

Silla Caliente45 min · Grupos pequeños

Debate Estructurado: Responsabilidad en Vehículos Autónomos

Divide la clase en dos bandos: uno defiende responsabilidad del fabricante, el otro del usuario. Cada grupo prepara argumentos con 3 evidencias reales en 10 minutos, luego debaten por turnos de 2 minutos. Cierra con votación y reflexión grupal.

¿Quién debe ser responsable cuando un sistema autónomo causa daño?

Consejo de FacilitaciónDurante el Debate Estructurado, asigna roles específicos (fabricante, abogado, víctima) para que los estudiantes internalicen perspectivas ajenas a la suya.

Qué observarPresenta el siguiente escenario: 'Un dron de reparto autónomo falla y causa daños a una propiedad privada. ¿Quién debería ser considerado responsable: la empresa que lo fabricó, la que lo programó, la que lo opera, o el propietario de la propiedad?' Pide a los estudiantes que discutan en pequeños grupos y presenten sus conclusiones.

AplicarAnalizarEvaluarConciencia SocialAutoconciencia
Generar Clase Completa

Actividad 02

Silla Caliente35 min · Parejas

Role-Play: Decisión Ética de IA en Salud

Asigna roles como médico, paciente, programador de IA y regulador. En parejas, simulan un caso donde la IA prioriza recursos limitados. Discuten consecuencias éticas y proponen límites, registrando acuerdos en una tabla compartida.

¿De qué manera la autonomía de la IA desafía los marcos legales y éticos existentes?

Consejo de FacilitaciónEn el Role-Play sobre salud, proporciona datos reales de algoritmos sesgados para que las decisiones del grupo se basen en evidencia, no en opiniones.

Qué observarEntrega a cada estudiante una tarjeta con una pregunta: '¿Por qué es importante establecer límites claros para la toma de decisiones de la IA en el ámbito de la seguridad pública?' Pide que escriban una respuesta concisa de 2-3 frases.

AplicarAnalizarEvaluarConciencia SocialAutoconciencia
Generar Clase Completa

Actividad 03

Silla Caliente40 min · Grupos pequeños

Análisis de Casos: Marcos Legales vs. Autonomía IA

Proporciona 3 casos reales mexicanos o internacionales. En pequeños grupos, identifican fallos, asignan responsabilidades y proponen reformas legales. Presentan hallazgos en 3 minutos por grupo al cierre.

¿Por qué es crucial establecer límites claros para la toma de decisiones de la IA?

Consejo de FacilitaciónPara el Mapa Conceptual Colaborativo, usa pizarrones digitales que permitan a los equipos editar simultáneamente y así fomentar la construcción colectiva de conocimiento.

Qué observarDurante la clase, haz una pausa y pregunta: 'Si un sistema de IA toma una decisión que resulta en una pérdida financiera significativa para una empresa, ¿qué factor principal deberíamos considerar para asignar la responsabilidad?' Solicita respuestas rápidas de los estudiantes.

AplicarAnalizarEvaluarConciencia SocialAutoconciencia
Generar Clase Completa

Actividad 04

Mapa Conceptual30 min · Toda la clase

Mapa Conceptual: Límites de la IA

En clase completa, inicia un mapa digital o en pizarrón con preguntas clave. Cada estudiante agrega una rama con ejemplos éticos o legales, discutiendo colectivamente conexiones durante 20 minutos.

¿Quién debe ser responsable cuando un sistema autónomo causa daño?

Consejo de FacilitaciónAl analizar casos legales vs. autonomía, entrega fragmentos de leyes reales (como el Reglamento General de Protección de Datos de la UE) para que identifiquen vacíos en marcos existentes.

Qué observarPresenta el siguiente escenario: 'Un dron de reparto autónomo falla y causa daños a una propiedad privada. ¿Quién debería ser considerado responsable: la empresa que lo fabricó, la que lo programó, la que lo opera, o el propietario de la propiedad?' Pide a los estudiantes que discutan en pequeños grupos y presenten sus conclusiones.

ComprenderAnalizarCrearAutoconcienciaAutogestión
Generar Clase Completa

Plantillas

Plantillas que acompañan estas actividades de Tecnología

Úsalas, edítalas, imprímelas o compártelas.

Algunas notas para enseñar esta unidad

Enseñar este tema requiere equilibrar el rigor conceptual con la sensibilidad ética. Evita centrarte únicamente en definiciones teóricas: los estudiantes aprenden mejor cuando confrontan sus propias contradicciones durante ejercicios prácticos. Prioriza debates guiados donde la evidencia técnica (fallos de sistemas, datos sesgados) impulse las discusiones, no al revés. La investigación en pedagogía STEM sugiere que los estudiantes retienen mejor los conceptos cuando los aplican en contextos que les importan, como la salud o la seguridad pública.

Los estudiantes demuestran comprensión al distinguir entre autonomía parcial y total de la IA, identificar cadenas de responsabilidad en casos concretos y proponer límites éticos que equilibren innovación con protección. El éxito se mide por su capacidad para argumentar con evidencia y adaptar sus posturas frente a contraargumentos.


Cuidado con estas ideas erróneas

  • Durante el Role-Play: Decisión Ética de IA en Salud, algunos estudiantes asumirán que los algoritmos son neutrales.

    Usa los datos reales de algoritmos sesgados que proporcionas en la actividad para que los equipos identifiquen cómo los sesgos en los datos de entrenamiento distorsionan las decisiones, obligándolos a replantear la idea de neutralidad.

  • Durante el Debate Estructurado: Responsabilidad en Vehículos Autónomos, algunos atribuirán toda la responsabilidad al fabricante.

    Guía el debate hacia ejemplos donde la responsabilidad se comparte (fallos en el software, mantenimiento del vehículo, decisiones del usuario) usando los casos de estudio que asignaste, para que descubran cadenas de responsabilidad.

  • Durante el Análisis de Casos: Marcos Legales vs. Autonomía IA, algunos creerán que los marcos éticos no aplican a máquinas.

    Pide a los equipos que conecten los principios éticos humanos (como no maleficencia o autonomía) con los impactos concretos de los casos analizados, usando la guía de preguntas éticas que entregaste.


Metodologías usadas en este resumen