Skip to content
Cultura de Paz y Resolución de Conflictos · V Bimestre

Concepto de Paz Positiva y Negativa

Los estudiantes distinguen entre la ausencia de violencia (paz negativa) y la construcción de justicia social (paz positiva).

Preguntas Clave

  1. ¿Cómo se diferencia la paz como ausencia de guerra de la paz como justicia social?
  2. ¿Qué elementos son necesarios para construir una paz duradera y equitativa?
  3. ¿Cómo se relaciona la paz positiva con el respeto a los derechos humanos?

Aprendizajes Esperados SEP

SEP EMS: Cultura de Paz
Grado: 3o de Preparatoria
Asignatura: Formación Cívica y Ética
Unidad: Cultura de Paz y Resolución de Conflictos
Período: V Bimestre

Acerca de este tema

La ética en la Inteligencia Artificial es uno de los debates más urgentes de nuestra era. Este tema invita a los estudiantes a reflexionar sobre las implicaciones sociales de delegar decisiones a algoritmos. Se abordan temas como el sesgo, la transparencia y la responsabilidad legal, alineándose con el eje de impacto social y ética tecnológica de la SEP.

Los alumnos exploran casos donde la IA ha perpetuado discriminación en procesos de contratación o justicia penal. El objetivo es formar ciudadanos digitales críticos que no solo usen la tecnología, sino que cuestionen su gobernanza. Este contenido se presta especialmente para debates estructurados y dilemas morales donde no hay una sola respuesta correcta, fomentando el pensamiento ético profundo.

Ideas de aprendizaje activo

Cuidado con estas ideas erróneas

Idea errónea comúnCreer que los algoritmos son objetivos porque son 'matemáticas'.

Qué enseñar en su lugar

Se debe explicar que los algoritmos heredan los prejuicios de quienes los programan y de los datos históricos. Analizar ejemplos de sesgo en motores de búsqueda ayuda a visualizar este concepto.

Idea errónea comúnPensar que la ética en IA es solo un problema del futuro.

Qué enseñar en su lugar

Es vital mostrar que ya interactuamos con IAs éticamente cuestionables hoy (redes sociales, filtros de spam, publicidad). El análisis de casos actuales aterriza la urgencia del tema.

¿Listo para enseñar este tema?

Genera una misión de aprendizaje activo completa y lista para el salón en segundos.

Preguntas frecuentes

¿Qué es el sesgo algorítmico?
Es cuando un sistema de IA produce resultados sistemáticamente injustos, generalmente porque fue entrenado con datos que reflejan prejuicios humanos o desigualdades sociales existentes.
¿Quién es responsable si una IA comete un error?
Es un tema en debate legal. Actualmente, la responsabilidad suele recaer en las empresas desarrolladoras, pero se discute la necesidad de marcos legales específicos para sistemas autónomos.
¿Cómo ayuda el aprendizaje activo a tratar temas de ética tecnológica?
El aprendizaje activo, mediante debates y juegos de rol, obliga a los estudiantes a ponerse en el lugar de diferentes actores (víctimas de sesgo, desarrolladores, legisladores). Esto desarrolla una empatía y una capacidad de análisis multidimensional que la simple lectura de códigos de ética no logra transmitir.
¿Puede una IA ser realmente neutral?
Es muy difícil, ya que toda tecnología refleja los valores y prioridades de sus creadores. Lo importante es buscar la transparencia y la supervisión humana constante para mitigar riesgos.

Explorar currículo por país

AméricasUSCAMXCLCOBR
Asia y PacíficoINSGAU