Skip to content

Ética de la Inteligencia ArtificialActividades y Estrategias de Enseñanza

Los estudiantes de IV Medio necesitan analizar estos dilemas desde su propia experiencia para entender su relevancia. Cuando trabajan con casos concretos, como algoritmos de admisión hospitalaria o asistentes virtuales, conectan la teoría con situaciones reales que ya conocen o han vivido, lo que hace que los conceptos éticos sean tangibles y urgentes.

IV MedioEducación Ciudadana4 actividades35 min50 min

Objetivos de Aprendizaje

  1. 1Analizar casos concretos de sesgos algorítmicos en sistemas de IA utilizados en Chile, identificando las fuentes de discriminación.
  2. 2Evaluar las implicaciones éticas de la autonomía de la IA en la toma de decisiones críticas, como en diagnósticos médicos o sentencias judiciales.
  3. 3Criticar las políticas actuales de protección de datos en Chile frente a los desafíos que plantea la IA, proponiendo mejoras específicas.
  4. 4Sintetizar argumentos sobre la responsabilidad compartida entre desarrolladores, usuarios y reguladores en la implementación ética de la IA.

¿Quieres un plan de clase completo con estos objetivos? Generar una Misión

45 min·Parejas

Debate en Parejas: Equidad en Algoritmos

Asigna a cada pareja un caso real de sesgo en IA, como reclutamiento laboral. Prepara argumentos a favor y en contra de su uso. Cada dupla presenta 3 minutos y responde preguntas del resto de la clase.

Preparación y detalles

¿Cómo se garantiza la equidad y la no discriminación en los algoritmos de IA?

Consejo de Facilitación: Durante el Debate en Parejas, asegúrese de que cada estudiante tenga acceso a los mismos datos de entrada para que la discusión sea equilibrada y basada en evidencia.

Setup: Dos equipos frente a frente, asientos de audiencia para el resto

Materials: Tarjeta de proposición del debate, Resumen de investigación para cada lado, Rúbrica de evaluación para la audiencia, Temporizador

AnalizarEvaluarCrearAutogestiónToma de Decisiones
50 min·Grupos pequeños

Análisis Grupal: Autonomía de la IA

Divide la clase en grupos para examinar escenarios como autos autónomos en dilemas éticos. Cada grupo propone soluciones y las defiende en una ronda compartida. Registra consensos en un tablero colectivo.

Preparación y detalles

¿Qué implicaciones éticas tiene la autonomía de la IA en la toma de decisiones?

Consejo de Facilitación: En el Análisis Grupal sobre autonomía de la IA, pida a los grupos que comparen dos casos reales: uno donde la IA funcionó sin problemas y otro donde falló, para contrastar expectativas con resultados.

Setup: Dos equipos frente a frente, asientos de audiencia para el resto

Materials: Tarjeta de proposición del debate, Resumen de investigación para cada lado, Rúbrica de evaluación para la audiencia, Temporizador

AnalizarEvaluarCrearAutogestiónToma de Decisiones
35 min·Individual

Role-Play Individual: Protección de Privacidad

Cada estudiante asume un rol (usuario, empresa de IA, regulador) en una simulación de filtración de datos. Presenta su posición en plenaria y negocia acuerdos grupales.

Preparación y detalles

¿Cómo se protege la privacidad de los datos en un mundo impulsado por la IA?

Consejo de Facilitación: Para el Role-Play de privacidad, entregue a cada estudiante un perfil ficticio con datos reales que podrían ser recopilados por una aplicación, como ubicación o historial de compras.

Setup: Dos equipos frente a frente, asientos de audiencia para el resto

Materials: Tarjeta de proposición del debate, Resumen de investigación para cada lado, Rúbrica de evaluación para la audiencia, Temporizador

AnalizarEvaluarCrearAutogestiónToma de Decisiones
40 min·Grupos pequeños

Mapa Colaborativo: Dilemas Éticos IA

En grupos, crea un mapa mental con preguntas clave: equidad, autonomía, privacidad. Conecta ideas con ejemplos locales y vota las soluciones más viables en clase.

Preparación y detalles

¿Cómo se garantiza la equidad y la no discriminación en los algoritmos de IA?

Consejo de Facilitación: En el Mapa Colaborativo, use una pizarra digital o papelógrafo para que los grupos plasmen sus dilemas, permitiendo que las conexiones entre ideas sean visibles para todos.

Setup: Dos equipos frente a frente, asientos de audiencia para el resto

Materials: Tarjeta de proposición del debate, Resumen de investigación para cada lado, Rúbrica de evaluación para la audiencia, Temporizador

AnalizarEvaluarCrearAutogestiónToma de Decisiones

Enseñando Este Tema

Este tema requiere un enfoque basado en evidencia y contexto local. Los profesores deben evitar discusiones abstractas: en su lugar, usen ejemplos cotidianos, como cómo las redes sociales clasifican noticias o cómo los bancos usan IA para otorgar créditos. La clave está en guiar a los estudiantes para que cuestionen las suposiciones técnicas detrás de la IA, como si fuera neutral o infalible. La investigación muestra que cuando los estudiantes exploran casos reales, como el algoritmo de asignación de cupos universitarios en Chile, desarrollan una comprensión más crítica que con solo explicar conceptos teóricos.

Qué Esperar

Al finalizar las actividades, los estudiantes podrán identificar sesgos en algoritmos, discutir los límites de la autonomía de la IA y proponer medidas para proteger la privacidad de datos, utilizando ejemplos de su entorno chileno. La evidencia de aprendizaje incluye justificaciones fundamentadas, propuestas de solución y reflexiones escritas o verbales.

Estas actividades son un punto de partida. La misión completa es la experiencia.

  • Guion completo de facilitación con diálogos del docente
  • Materiales imprimibles para el alumno, listos para la clase
  • Estrategias de diferenciación para cada tipo de estudiante
Generar una Misión

Cuidado con estas ideas erróneas

Idea errónea comúnDurante el Debate en Parejas sobre equidad en algoritmos, algunos estudiantes pueden afirmar que 'la IA es neutral porque se basa en matemáticas puras'.

Qué enseñar en su lugar

Durante el Debate en Parejas, entregue a cada pareja un caso real, como el algoritmo COMPAS usado en EE.UU. para predecir reincidencia penal, y pídales que identifiquen qué grupos demográficos fueron más afectados. Luego, guíelos a comparar estos datos con los resultados del algoritmo para demostrar cómo los sesgos humanos se filtran en los datos de entrenamiento.

Idea errónea comúnDurante el Role-Play de protección de privacidad, algunos estudiantes pueden decir 'la privacidad no importa si no hay nada que esconder'.

Qué enseñar en su lugar

Durante el Role-Play, entregue a cada estudiante un perfil con datos sensibles, como historial médico o preferencias políticas, e instrúyalos para que defiendan su privacidad en una simulación de negociación con un algoritmo. Esto les permite experimentar, desde una perspectiva personal, cómo la falta de privacidad puede afectarles en contextos reales.

Idea errónea comúnDurante el Análisis Grupal sobre autonomía de la IA, algunos estudiantes pueden creer que 'la IA siempre decide mejor que los humanos'.

Qué enseñar en su lugar

Durante el Análisis Grupal, muestre a los estudiantes dos casos opuestos: uno donde la IA tomó una decisión médica correcta y otro donde falló. Pídales que evalúen cada caso usando criterios éticos, como equidad y transparencia, para demostrar que la autonomía de la IA no garantiza decisiones justas sin supervisión humana.

Ideas de Evaluación

Pregunta para Discusión

Después del Análisis Grupal sobre autonomía de la IA, presente el escenario del hospital público chileno y pida a los estudiantes que, en grupos, propongan salvaguardas para evitar discriminación en la asignación de recursos. Escuche sus respuestas para evaluar si identifican sesgos y proponen soluciones concretas.

Boleto de Salida

Después del Role-Play de protección de privacidad, entregue a cada estudiante una tarjeta donde escriban el nombre de una aplicación de IA que usen. Deben responder: ¿Qué dato personal considera que está en riesgo con esta IA y por qué? ¿Qué medida simple podría tomar para protegerlo? Recoja las tarjetas para evaluar su comprensión de riesgos y soluciones.

Verificación Rápida

Durante el Mapa Colaborativo, pida a los estudiantes que coloquen en una palabra si el titular de la noticia que les entregue se relaciona con sesgo, privacidad o autonomía, y justifiquen brevemente su elección en voz alta. Esto le permitirá evaluar su capacidad para identificar los dilemas éticos clave en tiempo real.

Extensiones y Apoyo

  • Challenge: Pida a los estudiantes que diseñen una campaña de concientización sobre privacidad de datos dirigida a sus compañeros, usando los dilemas del Mapa Colaborativo como base.
  • Scaffolding: Para estudiantes que se sienten abrumados, proporcione una lista de preguntas guía para cada actividad, como: ¿Qué grupo podría estar en desventaja con este algoritmo? ¿Qué datos se necesitarían para evitarlo?
  • Deeper: Invite a un experto en ética digital para que comente los casos analizados en clase y responda preguntas técnicas, conectando la teoría con la práctica profesional.

Vocabulario Clave

Sesgo algorítmicoTendencia de un sistema de inteligencia artificial a producir resultados sistemáticamente injustos o discriminatorios, reflejando prejuicios presentes en los datos de entrenamiento o en su diseño.
Autonomía de la IACapacidad de un sistema de inteligencia artificial para tomar decisiones o realizar acciones sin intervención humana directa, planteando dilemas sobre control y responsabilidad.
Privacidad de datosDerecho de las personas a controlar la recopilación, uso y divulgación de su información personal, un desafío creciente con la capacidad de la IA para procesar grandes volúmenes de datos.
Transparencia algorítmicaPrincipio que busca hacer comprensible el funcionamiento interno y las decisiones de los algoritmos de IA, facilitando la identificación de sesgos y la rendición de cuentas.

¿Listo para enseñar Ética de la Inteligencia Artificial?

Genera una misión completa con todo lo que necesitas

Generar una Misión