Skip to content

Ética en la Inteligencia ArtificialActividades y Estrategias de Enseñanza

La ética en la inteligencia artificial requiere que los estudiantes identifiquen sesgos y consecuencias en sistemas cotidianos. El aprendizaje activo, a través de debates, análisis de casos y diseño, les permite conectar conceptos abstractos con situaciones reales, haciendo tangible lo que de otro modo sería difícil de comprender.

6o GradoTecnología e Informática4 actividades30 min45 min

Objetivos de Aprendizaje

  1. 1Analizar casos específicos para identificar sesgos y discriminación en algoritmos de IA.
  2. 2Evaluar las implicaciones éticas del uso de IA en la toma de decisiones sobre empleo, crédito o justicia.
  3. 3Diseñar un conjunto de principios éticos para el desarrollo de sistemas de IA que prioricen la equidad y la privacidad.
  4. 4Criticar ejemplos de sistemas de IA que han generado controversia ética, explicando las razones detrás de la controversia.

¿Quieres un plan de clase completo con estos objetivos? Generar una Misión

30 min·Parejas

Debate en Parejas: Sesgos Algorítmicos

Parejas preparan argumentos a favor y en contra del uso de IA en contrataciones laborales. Cada dupla debate por 3 minutos, luego rota roles. El grupo entero vota y justifica la decisión final.

Preparación y detalles

¿Cómo aseguraríamos que la inteligencia artificial sea utilizada de manera justa y equitativa?

Consejo de Facilitación: Durante el debate en parejas, asigna roles específicos (ej. abogado del sistema, defensor de los afectados) para asegurar que todos participen activamente.

Setup: Sillas dispuestas en dos círculos concéntricos

Materials: Pregunta/consigna de discusión (proyectada), Rúbrica de observación para el círculo externo

AnalizarEvaluarCrearConciencia SocialHabilidades de Relación
45 min·Grupos pequeños

Análisis de Casos: Grupos Pequeños

Entregue casos reales de sesgos en reconocimiento facial. Grupos identifican el problema ético, proponen correcciones y comparten en plenaria con evidencia visual.

Preparación y detalles

¿Qué riesgos éticos podrías identificar en el uso de algoritmos de IA para tomar decisiones importantes?

Consejo de Facilitación: En el análisis de casos, proporciona plantillas de guía con preguntas clave para que los grupos pequeños mantengan el enfoque en los dilemas éticos.

Setup: Sillas dispuestas en dos círculos concéntricos

Materials: Pregunta/consigna de discusión (proyectada), Rúbrica de observación para el círculo externo

AnalizarEvaluarCrearConciencia SocialHabilidades de Relación
35 min·Individual

Diseño Ético: Individual con Compartir

Cada estudiante diseña 5 reglas éticas para una app de IA educativa. Luego, en círculo, comparten y refinan colectivamente las mejores ideas.

Preparación y detalles

¿De qué manera podemos diseñar sistemas de IA que respeten la privacidad y la autonomía humana?

Consejo de Facilitación: Al diseñar éticamente, pide a los estudiantes que expliquen cada decisión en términos de principios como equidad o transparencia, no solo preferencias personales.

Setup: Sillas dispuestas en dos círculos concéntricos

Materials: Pregunta/consigna de discusión (proyectada), Rúbrica de observación para el círculo externo

AnalizarEvaluarCrearConciencia SocialHabilidades de Relación
40 min·Grupos pequeños

Role-Play: Dilemas en Clase

Asigne roles como desarrollador de IA, usuario afectado y regulador. Grupos actúan un escenario de privacidad violada y resuelven en 5 minutos.

Preparación y detalles

¿Cómo aseguraríamos que la inteligencia artificial sea utilizada de manera justa y equitativa?

Consejo de Facilitación: En el role-play, establece límites claros para las intervenciones, como tiempo de réplica, para que todos tengan espacio para reflexionar.

Setup: Sillas dispuestas en dos círculos concéntricos

Materials: Pregunta/consigna de discusión (proyectada), Rúbrica de observación para el círculo externo

AnalizarEvaluarCrearConciencia SocialHabilidades de Relación

Enseñando Este Tema

Enseñar ética en IA exige combinar lo conceptual con lo práctico. Evita quedarte en definiciones teóricas; usa ejemplos cercanos, como asistentes virtuales o redes sociales, para que los estudiantes vean cómo la tecnología afecta sus vidas. La investigación muestra que los debates en grupo y el análisis de casos reales aumentan la retención de estos conceptos, ya que los estudiantes se sienten más involucrados cuando discuten problemas que les importan. Modela el pensamiento crítico al cuestionar tus propias suposiciones sobre la tecnología, mostrando que incluso los expertos pueden equivocarse.

Qué Esperar

Los estudiantes demuestran una comprensión crítica al cuestionar supuestos sobre neutralidad algorítmica, identificar impactos en la privacidad y proponer soluciones éticas con fundamentos. Escuchamos argumentos basados en evidencia y vemos creatividad en sus propuestas de diseño.

Estas actividades son un punto de partida. La misión completa es la experiencia.

  • Guion completo de facilitación con diálogos del docente
  • Materiales imprimibles para el alumno, listos para la clase
  • Estrategias de diferenciación para cada tipo de estudiante
Generar una Misión

Cuidado con estas ideas erróneas

Idea errónea comúnDurante el debate en parejas sobre sesgos algorítmicos, escucha afirmaciones como 'Los algoritmos son neutrales porque son matemáticos'.

Qué enseñar en su lugar

Usa ejemplos concretos de sesgos en algoritmos (ej. contratación, créditos) y pide a los estudiantes que identifiquen qué datos de entrenamiento podrían haber causado esa discriminación. Luego, guíalos para que propongan cómo se podría corregir el dataset.

Idea errónea comúnDurante el análisis de casos en grupos pequeños, algunos estudiantes pueden decir que la privacidad no es importante si no tienen nada que ocultar.

Qué enseñar en su lugar

Pide a los grupos que simulen situaciones reales (ej. un sistema de IA que recomienda medicamentos) y pregunten: ¿Qué pasaría si estos datos se usan sin tu consentimiento? Luego, que diseñen un protocolo de consentimiento claro para el caso analizado.

Idea errónea comúnDurante el role-play de dilemas éticos, algunos pueden argumentar que solo los ingenieros deben decidir sobre la ética de la IA.

Qué enseñar en su lugar

En el role-play, asigna roles a los estudiantes que representen diferentes perspectivas (ej. usuario, desarrollador, regulador) y pide que negocien soluciones. Luego, discute en plenaria cómo cada voz aportó al resultado final.

Ideas de Evaluación

Pregunta para Discusión

Después del debate en parejas sobre sesgos algorítmicos, presenta un titular de noticia (ej. 'App de citas favorece perfiles de cierto grupo étnico'). Pide que en parejas discutan: ¿Qué principio ético se está violando? ¿Quiénes son los afectados? ¿Qué cambios en los datos de entrenamiento evitarían este sesgo? Registra sus respuestas para evaluar su capacidad de identificar impactos y proponer soluciones.

Boleto de Salida

Durante el diseño ético individual, entrega a cada estudiante una tarjeta con la pregunta: 'Nombra un riesgo ético de tu diseño y sugiere una solución'. Pide que respondan en una oración antes de salir. Usa estas tarjetas para evaluar si identifican problemas de privacidad, equidad o autonomía en sus propias creaciones.

Verificación Rápida

Después del role-play de dilemas éticos, muestra una breve descripción de un sistema de IA (ej. 'Un chatbot que da consejos financieros a jóvenes'). Pregunta: '¿Qué riesgo ético principal podría tener este sistema y por qué?' Pide que levanten la mano para compartir sus respuestas y evalúa si reconocen problemas como falta de transparencia o sesgos en los datos.

Extensiones y Apoyo

  • Challenge: Pide a los estudiantes que investiguen un caso real de sesgo algorítmico en Colombia (ej. en admisiones universitarias o créditos bancarios) y redacten una carta dirigida a los responsables con propuestas concretas de mejora.
  • Scaffolding: Para estudiantes que luchan con la abstracción, proporciona una lista de principios éticos básicos (ej. equidad, privacidad, autonomía) y pide que los marquen en cada actividad como un checklist.
  • Deeper: Invita a un experto local en ética tecnológica a una sesión virtual para que comparta experiencias y responda preguntas, conectando el aula con el mundo profesional.

Vocabulario Clave

Sesgo algorítmicoTendencia de un algoritmo de IA a producir resultados sistemáticamente injustos o discriminatorios, a menudo reflejando prejuicios presentes en los datos de entrenamiento.
Privacidad de datosEl derecho de los individuos a controlar cómo se recopila, usa, comparte y almacena su información personal, especialmente relevante en sistemas de IA que procesan grandes cantidades de datos.
Autonomía humanaLa capacidad de las personas para tomar sus propias decisiones y actuar según su voluntad, sin ser indebidamente influenciadas o controladas por sistemas de IA.
Transparencia algorítmicaLa cualidad de un sistema de IA que permite comprender cómo llega a sus decisiones o resultados, facilitando la identificación de posibles errores o sesgos.

¿Listo para enseñar Ética en la Inteligencia Artificial?

Genera una misión completa con todo lo que necesitas

Generar una Misión