Ir al contenido
Filosofía · 1o de Preparatoria · Ética y Moralidad · IV Bimestre

Ética de la tecnología y la inteligencia artificial

Los estudiantes explorarán los desafíos éticos que plantean las nuevas tecnologías, como la privacidad de datos, los algoritmos y la inteligencia artificial.

Aprendizajes Esperados SEPSEP EMS: Ética de la TecnologíaSEP EMS: Ciberética

Acerca de este tema

En este tema, los estudiantes analizan los dilemas éticos de la tecnología emergente, con énfasis en la privacidad de datos, los algoritmos sesgados y la inteligencia artificial. Exploramos cómo el uso masivo de datos personales en línea genera tensiones entre conveniencia y derechos individuales, según las preguntas clave del programa SEP: analizar dilemas de privacidad, explicar la responsabilidad moral de desarrolladores y evaluar el impacto de algoritmos en decisiones sociales.

Este contenido se integra en la unidad de Ética y Moralidad del IV Bimestre, alineado con los estándares SEP de Ética de la Tecnología y Ciberética. Los alumnos desarrollan habilidades para cuestionar si la IA amplifica desigualdades o si los programadores deben prever consecuencias éticas, fomentando un razonamiento moral aplicado a contextos cotidianos como redes sociales y apps de recomendación.

El aprendizaje activo beneficia particularmente este tema porque los conceptos éticos son abstractos y controvertidos. Actividades como debates estructurados o análisis de casos reales permiten a los estudiantes confrontar perspectivas opuestas, defender posiciones con argumentos y conectar teoría con ejemplos concretos, lo que fortalece su juicio crítico y empatía.

Preguntas Clave

  1. ¿Analiza los dilemas éticos relacionados con la privacidad y el uso de datos personales en línea?
  2. ¿Explica la responsabilidad moral de los desarrolladores de inteligencia artificial?
  3. ¿Evalúa el impacto ético de los algoritmos en la toma de decisiones y la sociedad?

Objetivos de Aprendizaje

  • Analizar dilemas éticos específicos relacionados con la privacidad de datos en plataformas digitales como redes sociales y servicios de streaming.
  • Explicar la responsabilidad moral de los desarrolladores de inteligencia artificial al diseñar sistemas que toman decisiones autónomas.
  • Evaluar el impacto ético de los algoritmos de recomendación en la formación de opiniones y la polarización social.
  • Comparar las implicaciones éticas del uso de datos personales en aplicaciones de salud versus aplicaciones de entretenimiento.
  • Criticar la falta de transparencia en algoritmos utilizados en procesos de contratación o evaluación crediticia.

Antes de Empezar

Introducción a la Ética y la Moralidad

Por qué: Los estudiantes necesitan una base conceptual sobre qué son la ética y la moralidad para poder analizar los dilemas específicos de la tecnología.

Conceptos Básicos de Informática y Redes

Por qué: Comprender cómo funcionan las computadoras y las redes facilita la discusión sobre datos, algoritmos y privacidad en línea.

Vocabulario Clave

Privacidad de datosEl derecho de un individuo a controlar la recopilación, uso y divulgación de su información personal. Implica la protección contra el acceso no autorizado y el uso indebido.
AlgoritmoUn conjunto de reglas o instrucciones paso a paso que una computadora sigue para resolver un problema o realizar una tarea. En tecnología, a menudo se usan para procesar datos y tomar decisiones.
Inteligencia Artificial (IA)Sistemas o máquinas que imitan la inteligencia humana para realizar tareas y pueden mejorar iterativamente basándose en la información que recopilan.
Sesgo algorítmicoTendencias sistemáticas en los resultados de un algoritmo que crean un resultado injusto o discriminatorio. Puede surgir de datos de entrenamiento defectuosos o suposiciones de diseño.
CiberéticaLa rama de la ética que se ocupa de las cuestiones morales relacionadas con el uso de la tecnología informática y la comunicación. Aborda temas como la privacidad, la seguridad y la propiedad intelectual en línea.

Cuidado con estas ideas erróneas

Idea errónea comúnLa inteligencia artificial es neutral y objetiva.

Qué enseñar en su lugar

Los algoritmos reflejan sesgos de datos de entrenamiento, afectando decisiones en justicia o empleo. Discusiones en grupo ayudan a examinar ejemplos reales y cuestionar supuestos, revelando cómo el diseño humano influye en resultados injustos.

Idea errónea comúnLa privacidad de datos no es un dilema ético grave.

Qué enseñar en su lugar

Compartir datos genera riesgos como vigilancia masiva o discriminación. Análisis de casos en parejas permite comparar experiencias personales con normativas, fomentando conciencia sobre derechos y responsabilidades compartidas.

Idea errónea comúnLos desarrolladores de IA no tienen responsabilidad moral.

Qué enseñar en su lugar

Ellos deben anticipar impactos sociales, no solo eficiencia técnica. Role-plays activan empatía al simular consecuencias, ayudando a estudiantes a argumentar obligaciones éticas más allá de lo legal.

Ideas de aprendizaje activo

Ver todas las actividades

Conexiones con el Mundo Real

  • Los ingenieros de software en empresas como Google y Meta enfrentan decisiones éticas diarias al diseñar algoritmos para motores de búsqueda y redes sociales, considerando la privacidad de miles de millones de usuarios.
  • Los científicos de datos en instituciones financieras como BBVA o Citibanamex deben asegurar que los algoritmos de aprobación de créditos no discriminen a ciertos grupos demográficos, protegiendo la equidad.
  • Los desarrolladores de vehículos autónomos en Tesla o Waymo deben programar sistemas que tomen decisiones críticas en fracciones de segundo, sopesando el bienestar de los pasajeros y peatones.

Ideas de Evaluación

Pregunta para Discusión

Presenta a los estudiantes un caso hipotético: una aplicación de salud recopila datos de actividad física y los vende a compañías de seguros. Pregunta: ¿Qué dilemas éticos surgen? ¿Quién es responsable de proteger la privacidad del usuario? ¿Qué medidas deberían tomar los desarrolladores para ser más transparentes?

Boleto de Salida

Pide a los estudiantes que escriban en una tarjeta: 1) Un ejemplo de cómo un algoritmo podría afectar negativamente a una persona. 2) Una pregunta que un desarrollador de IA debería hacerse antes de lanzar un nuevo producto. 3) Una palabra clave nueva que aprendieron y su definición.

Verificación Rápida

Muestra en pantalla dos escenarios: A) Un algoritmo de recomendación de noticias que solo muestra contenido afín a las ideas previas del usuario. B) Un sistema de IA que ayuda a diagnosticar enfermedades raras. Pide a los estudiantes que levanten la mano si creen que el escenario A presenta mayores riesgos éticos y que expliquen brevemente por qué.

Preguntas frecuentes

¿Cuáles son los principales dilemas éticos de la inteligencia artificial?
Incluyen sesgos en algoritmos que perpetúan desigualdades, pérdida de privacidad por recolección masiva de datos y autonomía humana amenazada por decisiones automatizadas. En clase, evalúa casos como reconocimiento facial sesgado o chatbots manipuladores para analizar responsabilidad de creadores y sociedad.
¿Cómo enseñar la ética de algoritmos en preparatoria?
Usa ejemplos cotidianos como recomendaciones de Netflix o TikTok. Pide a estudiantes mapear sesgos en datos de entrada y salida. Conecta con estándares SEP mediante debates que evalúen impactos en equidad social y proponer diseños éticos inclusivos.
¿Qué rol juega la privacidad en la ética tecnológica?
La privacidad protege autonomía y previene abusos como perfiles predictivos erróneos. Explora leyes como LGPDPPSO en México y casos de brechas. Actividades grupales ayudan a balancear beneficios tecnológicos con derechos individuales fundamentales.
¿Cómo usar aprendizaje activo para ética de la tecnología?
Implementa debates, role-plays y análisis de casos reales para hacer abstractos dilemas tangibles. Estas estrategias fomentan confrontación de ideas, empatía por afectados y argumentos sólidos. En 40-50 minutos, grupos rotan roles, lo que mejora retención y aplicación crítica a IA y datos.