Skip to content
Filosofía · 1o de Preparatoria

Ideas de aprendizaje activo

Ética de la tecnología y la inteligencia artificial

Este tema requiere que los estudiantes reconozcan que la ética tecnológica no es abstracta, sino que se vive en decisiones cotidianas. La participación activa les permite conectar dilemas reales con sus propias experiencias, haciendo visibles las tensiones entre innovación y derechos humanos.

Aprendizajes Esperados SEPSEP EMS: Ética de la TecnologíaSEP EMS: Ciberética
35–50 minParejas → Toda la clase4 actividades

Actividad 01

Silla Caliente45 min · Parejas

Debate en Parejas: Privacidad vs. Innovación

Asigna a cada pareja un rol: defensores de la privacidad o promotores de datos abiertos. Proporciona casos reales como fugas de Facebook. Cada dupla prepara argumentos en 10 minutos y debate por turnos de 3 minutos. Cierra con votación clase.

¿Analiza los dilemas éticos relacionados con la privacidad y el uso de datos personales en línea?

Consejo de FacilitaciónEn el Debate en Parejas, asigna roles claros (ej. usuario vs. empresa) para que todos participen activamente y evita que un solo estudiante domine la conversación.

Qué observarPresenta a los estudiantes un caso hipotético: una aplicación de salud recopila datos de actividad física y los vende a compañías de seguros. Pregunta: ¿Qué dilemas éticos surgen? ¿Quién es responsable de proteger la privacidad del usuario? ¿Qué medidas deberían tomar los desarrolladores para ser más transparentes?

AplicarAnalizarEvaluarConciencia SocialAutoconciencia
Generar Clase Completa

Actividad 02

Silla Caliente50 min · Grupos pequeños

Análisis de Casos: Grupos Pequeños en Algoritmos

Divide la clase en grupos de 4. Entrega escenarios impresos sobre sesgos en IA, como reclutamiento laboral. Los grupos identifican problemas éticos, proponen soluciones y presentan en 5 minutos. Registra conclusiones en pizarrón.

¿Explica la responsabilidad moral de los desarrolladores de inteligencia artificial?

Consejo de FacilitaciónDurante el Análisis de Casos en grupos pequeños, entrega un organizador gráfico con preguntas guía para mantener el enfoque en los sesgos algorítmicos, no solo en lo técnico.

Qué observarPide a los estudiantes que escriban en una tarjeta: 1) Un ejemplo de cómo un algoritmo podría afectar negativamente a una persona. 2) Una pregunta que un desarrollador de IA debería hacerse antes de lanzar un nuevo producto. 3) Una palabra clave nueva que aprendieron y su definición.

AplicarAnalizarEvaluarConciencia SocialAutoconciencia
Generar Clase Completa

Actividad 03

Silla Caliente40 min · Grupos pequeños

Role-Play: Responsabilidad de Desarrolladores

Forma grupos de 3: desarrollador, usuario afectado y regulador. Escenifica un dilema de IA en salud. Cada rol defiende su posición por 4 minutos. Discute colectivamente implicaciones éticas al final.

¿Evalúa el impacto ético de los algoritmos en la toma de decisiones y la sociedad?

Consejo de FacilitaciónEn el Role-Play de desarrolladores, proporciona tarjetas con escenarios concretos y roles específicos para que los estudiantes simulen consecuencias reales y no genéricas.

Qué observarMuestra en pantalla dos escenarios: A) Un algoritmo de recomendación de noticias que solo muestra contenido afín a las ideas previas del usuario. B) Un sistema de IA que ayuda a diagnosticar enfermedades raras. Pide a los estudiantes que levanten la mano si creen que el escenario A presenta mayores riesgos éticos y que expliquen brevemente por qué.

AplicarAnalizarEvaluarConciencia SocialAutoconciencia
Generar Clase Completa

Actividad 04

Silla Caliente35 min · Toda la clase

Encuesta Clase: Impacto Social de IA

Realiza encuesta anónima con preguntas sobre confianza en algoritmos. Analiza resultados en tiempo real con gráfica. Discute en plenaria sesgos revelados y soluciones éticas.

¿Analiza los dilemas éticos relacionados con la privacidad y el uso de datos personales en línea?

Qué observarPresenta a los estudiantes un caso hipotético: una aplicación de salud recopila datos de actividad física y los vende a compañías de seguros. Pregunta: ¿Qué dilemas éticos surgen? ¿Quién es responsable de proteger la privacidad del usuario? ¿Qué medidas deberían tomar los desarrolladores para ser más transparentes?

AplicarAnalizarEvaluarConciencia SocialAutoconciencia
Generar Clase Completa

Algunas notas para enseñar esta unidad

Los maestros más efectivos usan ejemplos cercanos a los estudiantes, como redes sociales o apps de entrega, para mostrar cómo los algoritmos afectan su vida diaria. Evitan discursos abstractos sobre 'ética' y enfocan la enseñanza en herramientas concretas: matrices de decisión, árboles de consecuencias y debates estructurados. La investigación sugiere que los estudiantes retienen mejor cuando transforman el análisis en propuestas acciónables.

Los estudiantes demuestran pensamiento crítico al cuestionar supuestos técnicos, argumentan desde perspectivas éticas y proponen soluciones con evidencia. Usan vocabulario específico para describir sesgos, privacidad y responsabilidad, integrando conceptos en discusiones y análisis escritos.


Cuidado con estas ideas erróneas

  • Durante el Debate en Parejas sobre Privacidad vs. Innovación, algunos estudiantes dirán que 'la tecnología avanza y la privacidad es cosa del pasado'.

    Usa el caso real de la app de salud que vende datos a aseguradoras para guiar la discusión: proporciona datos concretos sobre cómo esa práctica afecta a personas con condiciones preexistentes, obligando a los estudiantes a replantear su postura con evidencia.

  • Durante el Análisis de Casos en grupos pequeños, los estudiantes pueden asumir que los algoritmos son neutrales si no ven errores en los resultados.

    Enfoca la actividad en el dataset de entrenamiento: usa ejemplos como sistemas de contratación que rechazan CVs con palabras asociadas a mujeres, y pide a los grupos que identifiquen fuentes de sesgo en los datos proporcionados.

  • Durante el Role-Play de Responsabilidad de Desarrolladores, algunos argumentarán que 'no es su problema si el usuario acepta los términos y condiciones'.

    Proporciona tarjetas con casos como el de un chatbot que discrimina por origen étnico: pide a los estudiantes que simulen el impacto en víctimas reales y evalúen su propia responsabilidad más allá de lo legal.


Metodologías usadas en este resumen