Skip to content
Educación Ciudadana · IV Medio

Ideas de aprendizaje activo

Ética de la Inteligencia Artificial

Los estudiantes de IV Medio necesitan analizar estos dilemas desde su propia experiencia para entender su relevancia. Cuando trabajan con casos concretos, como algoritmos de admisión hospitalaria o asistentes virtuales, conectan la teoría con situaciones reales que ya conocen o han vivido, lo que hace que los conceptos éticos sean tangibles y urgentes.

Objetivos de Aprendizaje (OA)OA HIS 4oM: BioéticaOA HIS 4oM: Ciencia y Sociedad
35–50 minParejas → Toda la clase4 actividades

Actividad 01

Debate Formal45 min · Parejas

Debate en Parejas: Equidad en Algoritmos

Asigna a cada pareja un caso real de sesgo en IA, como reclutamiento laboral. Prepara argumentos a favor y en contra de su uso. Cada dupla presenta 3 minutos y responde preguntas del resto de la clase.

¿Cómo se garantiza la equidad y la no discriminación en los algoritmos de IA?

Consejo de FacilitaciónDurante el Debate en Parejas, asegúrese de que cada estudiante tenga acceso a los mismos datos de entrada para que la discusión sea equilibrada y basada en evidencia.

Qué observarPresente a los estudiantes el siguiente escenario: 'Una IA se utiliza para asignar recursos limitados en un hospital público chileno. ¿Cómo se aseguraría de que la asignación sea equitativa y no discrimine a pacientes por su origen socioeconómico o etnia?'. Guíe la discusión pidiendo que identifiquen posibles sesgos y propongan salvaguardas.

AnalizarEvaluarCrearAutogestiónToma de Decisiones
Generar Clase Completa

Actividad 02

Debate Formal50 min · Grupos pequeños

Análisis Grupal: Autonomía de la IA

Divide la clase en grupos para examinar escenarios como autos autónomos en dilemas éticos. Cada grupo propone soluciones y las defiende en una ronda compartida. Registra consensos en un tablero colectivo.

¿Qué implicaciones éticas tiene la autonomía de la IA en la toma de decisiones?

Consejo de FacilitaciónEn el Análisis Grupal sobre autonomía de la IA, pida a los grupos que comparen dos casos reales: uno donde la IA funcionó sin problemas y otro donde falló, para contrastar expectativas con resultados.

Qué observarEntregue a cada estudiante una tarjeta. Pida que escriban el nombre de una aplicación de IA que conozcan (ej. asistentes virtuales, redes sociales). Luego, deben responder: ¿Qué dato personal considera que podría estar en riesgo con esta IA y por qué? ¿Qué medida simple podría tomar para protegerlo?

AnalizarEvaluarCrearAutogestiónToma de Decisiones
Generar Clase Completa

Actividad 03

Debate Formal35 min · Individual

Role-Play Individual: Protección de Privacidad

Cada estudiante asume un rol (usuario, empresa de IA, regulador) en una simulación de filtración de datos. Presenta su posición en plenaria y negocia acuerdos grupales.

¿Cómo se protege la privacidad de los datos en un mundo impulsado por la IA?

Consejo de FacilitaciónPara el Role-Play de privacidad, entregue a cada estudiante un perfil ficticio con datos reales que podrían ser recopilados por una aplicación, como ubicación o historial de compras.

Qué observarMuestre a los estudiantes titulares de noticias sobre dilemas éticos de la IA (ej. 'IA genera noticias falsas', 'Algoritmo de IA falla en reconocer rostros de minorías'). Pida que identifiquen en una palabra si el titular se relaciona principalmente con sesgo, privacidad o autonomía, y que justifiquen brevemente su elección.

AnalizarEvaluarCrearAutogestiónToma de Decisiones
Generar Clase Completa

Actividad 04

Debate Formal40 min · Grupos pequeños

Mapa Colaborativo: Dilemas Éticos IA

En grupos, crea un mapa mental con preguntas clave: equidad, autonomía, privacidad. Conecta ideas con ejemplos locales y vota las soluciones más viables en clase.

¿Cómo se garantiza la equidad y la no discriminación en los algoritmos de IA?

Consejo de FacilitaciónEn el Mapa Colaborativo, use una pizarra digital o papelógrafo para que los grupos plasmen sus dilemas, permitiendo que las conexiones entre ideas sean visibles para todos.

Qué observarPresente a los estudiantes el siguiente escenario: 'Una IA se utiliza para asignar recursos limitados en un hospital público chileno. ¿Cómo se aseguraría de que la asignación sea equitativa y no discrimine a pacientes por su origen socioeconómico o etnia?'. Guíe la discusión pidiendo que identifiquen posibles sesgos y propongan salvaguardas.

AnalizarEvaluarCrearAutogestiónToma de Decisiones
Generar Clase Completa

Algunas notas para enseñar esta unidad

Este tema requiere un enfoque basado en evidencia y contexto local. Los profesores deben evitar discusiones abstractas: en su lugar, usen ejemplos cotidianos, como cómo las redes sociales clasifican noticias o cómo los bancos usan IA para otorgar créditos. La clave está en guiar a los estudiantes para que cuestionen las suposiciones técnicas detrás de la IA, como si fuera neutral o infalible. La investigación muestra que cuando los estudiantes exploran casos reales, como el algoritmo de asignación de cupos universitarios en Chile, desarrollan una comprensión más crítica que con solo explicar conceptos teóricos.

Al finalizar las actividades, los estudiantes podrán identificar sesgos en algoritmos, discutir los límites de la autonomía de la IA y proponer medidas para proteger la privacidad de datos, utilizando ejemplos de su entorno chileno. La evidencia de aprendizaje incluye justificaciones fundamentadas, propuestas de solución y reflexiones escritas o verbales.


Cuidado con estas ideas erróneas

  • Durante el Debate en Parejas sobre equidad en algoritmos, algunos estudiantes pueden afirmar que 'la IA es neutral porque se basa en matemáticas puras'.

    Durante el Debate en Parejas, entregue a cada pareja un caso real, como el algoritmo COMPAS usado en EE.UU. para predecir reincidencia penal, y pídales que identifiquen qué grupos demográficos fueron más afectados. Luego, guíelos a comparar estos datos con los resultados del algoritmo para demostrar cómo los sesgos humanos se filtran en los datos de entrenamiento.

  • Durante el Role-Play de protección de privacidad, algunos estudiantes pueden decir 'la privacidad no importa si no hay nada que esconder'.

    Durante el Role-Play, entregue a cada estudiante un perfil con datos sensibles, como historial médico o preferencias políticas, e instrúyalos para que defiendan su privacidad en una simulación de negociación con un algoritmo. Esto les permite experimentar, desde una perspectiva personal, cómo la falta de privacidad puede afectarles en contextos reales.

  • Durante el Análisis Grupal sobre autonomía de la IA, algunos estudiantes pueden creer que 'la IA siempre decide mejor que los humanos'.

    Durante el Análisis Grupal, muestre a los estudiantes dos casos opuestos: uno donde la IA tomó una decisión médica correcta y otro donde falló. Pídales que evalúen cada caso usando criterios éticos, como equidad y transparencia, para demostrar que la autonomía de la IA no garantiza decisiones justas sin supervisión humana.


Metodologías usadas en este resumen