Ir al contenido
Formación Cívica y Ética · 3o de Preparatoria · Desafíos Globales y Ciudadanía Mundial · IV Bimestre

Ética de la Tecnología y la Inteligencia Artificial

Los estudiantes discuten los dilemas éticos que plantea el avance tecnológico y la IA en la sociedad global.

Acerca de este tema

Ética de la Tecnología y la Inteligencia Artificial examina los dilemas éticos generados por el avance tecnológico y la IA en la sociedad global. Los estudiantes de 3° de preparatoria discuten preguntas clave del plan SEP: cómo garantizar equidad en el acceso y uso de nuevas tecnologías, las responsabilidades éticas de los desarrolladores de IA, y la protección de la privacidad y autonomía humana ante la vigilancia digital. Este tema fortalece competencias cívicas como el pensamiento crítico y la empatía en el contexto de Desafíos Globales y Ciudadanía Mundial.

Los alumnos analizan casos reales, como algoritmos sesgados que perpetúan desigualdades o sistemas de reconocimiento facial que invaden la privacidad. Se conecta con principios éticos universales, como justicia y respeto a la dignidad humana, preparando a los jóvenes para participar activamente en debates públicos sobre regulación tecnológica. Desarrollan habilidades para evaluar impactos sociales de la innovación.

El aprendizaje activo beneficia este tema porque debates estructurados, análisis de casos en grupos y simulaciones de dilemas éticos permiten a los estudiantes argumentar posiciones diversas, confrontar sesgos personales y construir consensos prácticos, haciendo los conceptos abstractos tangibles y relevantes para su vida cotidiana.

Preguntas Clave

  1. ¿Cómo se garantiza la equidad en el acceso y uso de las nuevas tecnologías?
  2. ¿Qué responsabilidades éticas tienen los desarrolladores de IA?
  3. ¿Cómo se protege la privacidad y la autonomía humana frente a la vigilancia digital?

Objetivos de Aprendizaje

  • Analizar casos concretos de sesgos algorítmicos para identificar cómo perpetúan desigualdades sociales.
  • Evaluar las implicaciones éticas de los sistemas de reconocimiento facial en la privacidad y autonomía individual.
  • Criticar las responsabilidades éticas de los desarrolladores de IA en la creación de tecnologías justas y seguras.
  • Comparar diferentes marcos regulatorios propuestos para la inteligencia artificial a nivel global.
  • Sintetizar argumentos sobre cómo garantizar la equidad en el acceso y uso de las nuevas tecnologías.

Antes de Empezar

Derechos Humanos y Ciudadanía

Por qué: Es fundamental que los estudiantes comprendan los principios básicos de los derechos humanos y el concepto de ciudadanía para analizar cómo la tecnología impacta estos aspectos.

Sociedad de la Información y Conocimiento

Por qué: Los estudiantes necesitan tener una base sobre cómo la tecnología ha transformado la comunicación y el acceso a la información para comprender los desafíos actuales.

Vocabulario Clave

Sesgo algorítmicoTendencia de un algoritmo a producir resultados sistemáticamente erróneos o injustos, reflejando prejuicios humanos o de los datos con los que fue entrenado.
Privacidad digitalEl derecho de las personas a controlar la recopilación, uso y difusión de su información personal en entornos en línea y a través de dispositivos digitales.
Autonomía humanaLa capacidad de las personas para tomar decisiones libres e informadas sobre sus vidas, sin coerción indebida, incluso frente a sistemas automatizados.
Vigilancia digitalEl monitoreo sistemático de las actividades en línea y fuera de línea de individuos o grupos, a menudo realizado por gobiernos o corporaciones.
Equidad tecnológicaEl principio de asegurar que los beneficios y el acceso a las tecnologías sean distribuidos de manera justa, sin crear o exacerbar brechas sociales o económicas.

Cuidado con estas ideas erróneas

Idea errónea comúnLa IA es neutral y no refleja sesgos humanos.

Qué enseñar en su lugar

La IA hereda sesgos de los datos de entrenamiento, lo que genera discriminación en decisiones automatizadas. Actividades de análisis de casos en grupos ayudan a los estudiantes a examinar ejemplos reales, cuestionar suposiciones y proponer diseños inclusivos.

Idea errónea comúnLa tecnología beneficia por igual a toda la sociedad.

Qué enseñar en su lugar

El acceso desigual agrava brechas sociales, dejando atrás comunidades marginadas. Debates en parejas revelan perspectivas diversas y fomentan empatía, permitiendo a los alumnos diseñar estrategias para equidad.

Idea errónea comúnLa privacidad se protege sola con la tecnología.

Qué enseñar en su lugar

Sistemas de vigilancia digital erosionan la autonomía sin regulaciones éticas. Simulaciones grupales exponen riesgos prácticos y motivan discusiones sobre derechos humanos, fortaleciendo argumentos críticos.

Ideas de aprendizaje activo

Ver todas las actividades

Conexiones con el Mundo Real

  • Los algoritmos de recomendación de plataformas como Netflix o YouTube, que influyen en el consumo cultural y pueden crear burbujas informativas si no se diseñan con equidad.
  • Los sistemas de contratación automatizada utilizados por empresas como Amazon, que han sido criticados por perpetuar sesgos de género y raza en la selección de candidatos.
  • Las políticas de privacidad de aplicaciones móviles y redes sociales, que los usuarios aceptan sin leer, cediendo datos personales que pueden ser utilizados para publicidad dirigida o análisis de comportamiento.

Ideas de Evaluación

Pregunta para Discusión

Presenta a los estudiantes el siguiente dilema: 'Una empresa desarrolla un sistema de IA para predecir la probabilidad de reincidencia criminal. ¿Qué pasos éticos deben seguir los desarrolladores para asegurar que el sistema no sea discriminatorio contra ciertos grupos demográficos?' Pide a los estudiantes que discutan en pequeños grupos y presenten sus conclusiones.

Boleto de Salida

Entrega a cada estudiante una tarjeta. Pídeles que escriban el nombre de una tecnología emergente (ej. drones, asistentes virtuales, vehículos autónomos) y respondan: 1) Un beneficio ético potencial de esta tecnología. 2) Un riesgo ético asociado a su uso o desarrollo.

Verificación Rápida

Formula preguntas directas sobre los conceptos clave: '¿Qué significa 'sesgo algorítmico' en tus propias palabras?' o 'Describe un ejemplo de cómo la vigilancia digital podría afectar la autonomía de una persona.' Utiliza respuestas cortas para evaluar la comprensión inmediata.

Preguntas frecuentes

¿Cómo garantizar equidad en el acceso a nuevas tecnologías?
Enseña analizando brechas digitales en México y globalmente, usando datos del INEGI. Actividades como simulaciones de distribución de recursos ayudan a los estudiantes a proponer políticas inclusivas, como subsidios para zonas rurales y educación digital gratuita. Fomenta empatía hacia comunidades excluidas para soluciones realistas.
¿Cuáles son las responsabilidades éticas de los desarrolladores de IA?
Incluyen transparencia en algoritmos, auditorías de sesgos y priorizar el bien común sobre ganancias. Usa debates para explorar códigos éticos como los de la UNESCO. Los estudiantes aprenden a evaluar impactos sociales y abogar por regulaciones que protejan derechos humanos en México.
¿Cómo proteger la privacidad frente a la vigilancia digital?
Promueve leyes como la LFPDPPP en México y herramientas como encriptación. Analiza casos de apps que rastrean datos sin consentimiento. Las actividades grupales generan propuestas ciudadanas, como campañas por consentimiento informado y límites a la recolección de datos personales.
¿Cómo el aprendizaje activo ayuda a entender la ética de la IA?
Debates, simulaciones y análisis de casos convierten dilemas abstractos en experiencias prácticas. Los estudiantes argumentan posiciones opuestas, identifican sesgos y construyen soluciones colectivas, desarrollando pensamiento crítico y empatía. Esto hace el tema relevante, ya que conecta con su uso diario de tecnología y fortalece habilidades cívicas para la ciudadanía digital responsable.