Ir al contenido
Tecnología · 2o de Preparatoria · Impacto Social y Ética Tecnológica · V Bimestre

Sesgos Algorítmicos y Discriminación

Los estudiantes investigan cómo los algoritmos pueden perpetuar o amplificar sesgos existentes en la sociedad.

Aprendizajes Esperados SEPSEP EMS: Inteligencia Artificial y Ética TecnológicaSEP EMS: Ciudadanía Digital y Equidad Social

Acerca de este tema

Los sesgos algorítmicos ocurren cuando los datos de entrenamiento reflejan prejuicios humanos, lo que lleva a decisiones discriminatorias en sistemas de inteligencia artificial. En 2° de preparatoria, los estudiantes investigan ejemplos concretos, como algoritmos de contratación que favorecen a hombres o reconocimiento facial con fallos en personas de piel morena. Este contenido se integra al programa SEP de Inteligencia Artificial y Ética Tecnológica, respondiendo a preguntas clave sobre cómo se introducen sesgos humanos en la IA y su impacto en la justicia social.

Dentro de la unidad de Impacto Social y Ética Tecnológica, el tema promueve la ciudadanía digital equitativa. Los alumnos analizan datos sesgados, evalúan consecuencias en equidad y proponen diseños transparentes, como auditorías y diversidad en datasets. Esto fortalece el pensamiento crítico y la responsabilidad ética en el uso de tecnología.

El aprendizaje activo beneficia este tema porque hace tangibles conceptos abstractos mediante simulaciones y debates. Cuando los estudiantes construyen modelos simples con datos sesgados y observan resultados injustos en grupo, internalizan la necesidad de inclusión y transparencia, fomentando empatía y soluciones colaborativas.

Preguntas Clave

  1. ¿Cómo se introducen los sesgos humanos en los algoritmos de inteligencia artificial?
  2. ¿Qué impacto tienen los algoritmos sesgados en la justicia social y la equidad?
  3. ¿Cómo podemos diseñar algoritmos que sean justos y transparentes para todos?

Objetivos de Aprendizaje

  • Identificar las fuentes comunes de sesgos en los datos utilizados para entrenar algoritmos de inteligencia artificial.
  • Analizar el impacto de algoritmos sesgados en la toma de decisiones en áreas como la contratación, el crédito y la justicia penal.
  • Evaluar la efectividad de diferentes estrategias para mitigar sesgos algorítmicos y promover la equidad.
  • Diseñar un plan conceptual para un algoritmo que priorice la transparencia y la justicia social.

Antes de Empezar

Introducción a la Inteligencia Artificial y el Aprendizaje Automático

Por qué: Los estudiantes necesitan una comprensión básica de qué es la IA y cómo aprende de los datos para comprender cómo se introducen los sesgos.

Fundamentos de la Recopilación y Análisis de Datos

Por qué: Es esencial que los estudiantes comprendan cómo se recolectan, organizan e interpretan los datos para poder identificar patrones y posibles problemas en los conjuntos de datos.

Vocabulario Clave

Sesgo algorítmicoTendencia de un sistema de inteligencia artificial a producir resultados sistemáticamente injustos o discriminatorios debido a prejuicios en los datos de entrenamiento o en el diseño del algoritmo.
Datos de entrenamientoConjunto de información utilizado para enseñar a un modelo de inteligencia artificial a reconocer patrones y tomar decisiones. Si estos datos reflejan sesgos sociales, el algoritmo los aprenderá.
Equidad algorítmicaEl principio de diseñar y utilizar algoritmos de manera que no discriminen a grupos particulares de personas y que promuevan resultados justos para todos.
Transparencia algorítmicaLa cualidad de un algoritmo de ser comprensible, permitiendo a los usuarios entender cómo se toman las decisiones y por qué, facilitando la identificación de posibles sesgos.

Cuidado con estas ideas erróneas

Idea errónea comúnLos algoritmos son neutrales porque se basan en matemáticas puras.

Qué enseñar en su lugar

Los sesgos provienen de datos humanos imperfectos que entrenan el modelo. Actividades de simulación donde estudiantes crean datasets sesgados revelan cómo las matemáticas amplifican prejuicios, ayudando a cuestionar la supuesta neutralidad mediante evidencia propia.

Idea errónea comúnLos sesgos solo afectan a IA compleja como ChatGPT.

Qué enseñar en su lugar

Sesgos aparecen en algoritmos simples de clasificación. Análisis de casos en estaciones rotativas muestra impactos en apps cotidianas, donde el aprendizaje activo conecta ejemplos accesibles con principios éticos universales.

Idea errónea comúnCorregir sesgos requiere cambiar todo el código.

Qué enseñar en su lugar

Soluciones incluyen datos diversos y auditorías. Debates estructurados permiten explorar opciones prácticas, fomentando creatividad en grupos para priorizar inclusión sobre reprogración total.

Ideas de aprendizaje activo

Ver todas las actividades

Conexiones con el Mundo Real

  • Empresas de tecnología como Google y Microsoft enfrentan escrutinio por sistemas de reconocimiento facial que funcionan peor con personas de piel oscura, afectando su precisión en seguridad y autenticación.
  • Plataformas de reclutamiento en línea, como LinkedIn o Indeed, pueden inadvertidamente filtrar currículums basándose en patrones históricos que favorecen a ciertos géneros o universidades, limitando oportunidades laborales.
  • Los sistemas de calificación crediticia utilizados por bancos y cooperativas de crédito pueden perpetuar desigualdades si se basan en datos históricos que reflejan discriminación sistémica contra ciertas comunidades.

Ideas de Evaluación

Boleto de Salida

Entregue a cada estudiante una tarjeta con un escenario hipotético (ej. un algoritmo de recomendación de películas, un sistema de predicción policial). Pida que escriban una frase identificando un posible sesgo y otra explicando cómo podría afectar a un grupo específico.

Pregunta para Discusión

Plantee la pregunta: 'Si un algoritmo de contratación muestra un sesgo contra las mujeres, ¿quién es el principal responsable: los programadores, la empresa que lo implementa, o los datos históricos?'. Guíe la discusión para que los estudiantes justifiquen sus respuestas basándose en la cadena de responsabilidad.

Verificación Rápida

Muestre a los estudiantes dos conjuntos de datos simples (uno equilibrado, otro sesgado) para una tarea simulada (ej. decidir quién recibe un préstamo). Pida que identifiquen cuál conjunto de datos es problemático y por qué, levantando la mano o escribiendo en una pizarra individual.

Preguntas frecuentes

¿Cómo se introducen sesgos humanos en algoritmos de IA?
Los sesgos entran por datos de entrenamiento recolectados de sociedades desiguales, como historiales laborales con brechas de género. Ingenieros humanos seleccionan y etiquetan datos, perpetuando prejuicios inconscientes. En clase, analizar datasets reales ayuda a identificar estos orígenes y proponer curación ética.
¿Qué impacto tienen los algoritmos sesgados en la justicia social?
Amplifican desigualdades: discriminan en empleos, justicia penal o acceso a servicios, marginando grupos vulnerables como indígenas o mujeres. Esto erosiona la equidad en México. Discusiones grupales con casos locales conectan teoría con realidad social, motivando acción ciudadana.
¿Cómo diseñar algoritmos justos y transparentes?
Usa datasets diversos, auditorías regulares, explicabilidad en modelos y pruebas de equidad. Involucra perspectivas múltiples en desarrollo. Simulaciones activas permiten prototipar y refinar diseños, asegurando inclusión desde etapas tempranas.
¿Cómo puede el aprendizaje activo ayudar a entender sesgos algorítmicos?
Actividades como crear datasets sesgados y simular modelos hacen visibles procesos invisibles, superando explicaciones abstractas. Debates y rotaciones fomentan empatía al confrontar impactos en pares diversos. Esto genera comprensión profunda y compromiso ético, con retención superior al 70% según estudios pedagógicos.