Skip to content
Informática · 10.º Ano

Ideias de aprendizagem ativa

Ética e Enviesamentos na IA

A aprendizagem ativa funciona especialmente bem neste tópico porque os alunos precisam de CONECTAR conceitos abstratos de ética e matemática com exemplos concretos que afetam pessoas reais. Ao manipular dados e discutir casos, os alunos transformam a teoria em compreensão profunda, não em memorização.

Aprendizagens EssenciaisDGE: Secundário - Segurança e ÉticaDGE: Secundário - Cidadania Digital
30–45 minPares → Turma inteira4 atividades

Atividade 01

Cadeiras Filosóficas30 min · Pares

Debate em Pares: Casos Reais de Enviesamento

Apresente dois casos de IA enviesada, como recrutamento discriminatório e reconhecimento facial. Os pares preparam argumentos pró e contra a responsabilização das empresas, debatem por 10 minutos e partilham conclusões com a turma. Registe ideias num quadro partilhado.

Analise os enviesamentos que podem existir num sistema de inteligência artificial.

Sugestão de FacilitaçãoDurante o debate em pares, circule pelos grupos e peça a cada par para partilhar uma conclusão antes de avançarem para o próximo caso, garantindo que todos participam ativamente.

O que observarApresente aos alunos um cenário fictício onde um algoritmo de IA é usado para selecionar candidatos a uma bolsa de estudos. Peça-lhes para discutirem em pequenos grupos: Que tipos de enviesamentos podem surgir neste sistema? Como é que estes enviesamentos poderiam afetar os candidatos? Que perguntas fariam para investigar a equidade do algoritmo?

AnalisarAvaliarAutoconsciênciaConsciência Social
Gerar Aula Completa

Atividade 02

Cadeiras Filosóficas45 min · Pequenos grupos

Análise de Dataset: Detetar Viés em Dados

Forneça datasets simples de imagens ou textos com viés evidente. Em pequenos grupos, os alunos classificam dados, identificam padrões enviesados e propõem correções. Discuta resultados em plenário para ligar à ética.

Avalie o impacto de decisões algorítmicas enviesadas na sociedade.

Sugestão de FacilitaçãoNa análise de dataset, forneça um guia passo-a-passo com perguntas específicas para cada etapa da deteção de viés, evitando que os alunos se percam na complexidade dos dados.

O que observarDistribua um pequeno conjunto de dados simulado (ex: avaliações de desempenho de funcionários com enviesamento de género implícito). Peça aos alunos para identificarem no 'ticket': 1) Um possível enviesamento presente nos dados. 2) Uma consequência negativa desse enviesamento. 3) Uma sugestão para tornar os dados mais justos.

AnalisarAvaliarAutoconsciênciaConsciência Social
Gerar Aula Completa

Atividade 03

Cadeiras Filosóficas40 min · Pequenos grupos

Estratégias de Mitigação: Brainstorming Coletivo

Divida a turma em grupos para brainstormar estratégias contra enviesamentos, como diversificação de dados ou testes de equidade. Cada grupo apresenta uma proposta com passos concretos. Vote na mais viável como turma.

Proponha estratégias para mitigar enviesamentos em algoritmos de IA.

Sugestão de FacilitaçãoNo brainstorming coletivo, anote todas as ideias no quadro sem filtrar, criando um espaço seguro para a criatividade antes de analisar a viabilidade das propostas.

O que observarMostre aos alunos um vídeo curto ou um artigo sobre um caso real de enviesamento em IA (ex: sistemas de recrutamento). Após a visualização, peça a cada aluno para escrever numa folha: Qual foi o principal problema ético? Que grupo foi mais afetado? Que medida poderia ter prevenido ou mitigado o problema?

AnalisarAvaliarAutoconsciênciaConsciência Social
Gerar Aula Completa

Atividade 04

Cadeiras Filosóficas35 min · Individual

Simulação Individual: Criar um Algoritmo Ético

Os alunos criam fluxogramas de um algoritmo simples, incorporando controlos éticos para evitar viés. Partilhem e critiquem mutuamente os designs para refinar ideias.

Analise os enviesamentos que podem existir num sistema de inteligência artificial.

Sugestão de FacilitaçãoNa simulação individual, limite o tempo de programação a 20 minutos para manter o foco na ética, não na complexidade técnica do código.

O que observarApresente aos alunos um cenário fictício onde um algoritmo de IA é usado para selecionar candidatos a uma bolsa de estudos. Peça-lhes para discutirem em pequenos grupos: Que tipos de enviesamentos podem surgir neste sistema? Como é que estes enviesamentos poderiam afetar os candidatos? Que perguntas fariam para investigar a equidade do algoritmo?

AnalisarAvaliarAutoconsciênciaConsciência Social
Gerar Aula Completa

Algumas notas sobre lecionar esta unidade

Ensinar este tópico exige um equilíbrio entre rigor técnico e sensibilidade social. Evite discussões abstratas sobre justiça e concentre-se em casos onde os alunos possam calcular ou simular os impactos dos enviesamentos. Pesquisas mostram que os alunos retêm melhor quando trabalham com dados reais ou simulados, mesmo que simplificados, do que com debates teóricos sem exemplos concretos.

No final destas atividades, os alunos devem conseguir identificar enviesamentos em sistemas de IA, explicar os seus impactos sociais e propor formas éticas de os mitigar. O sucesso é visível quando os alunos aplicam estas competências a novos exemplos, não apenas repetindo definições.


Atenção a estes erros comuns

  • Durante a atividade 'Debate em Pares: Casos Reais de Enviesamento', alguns alunos podem afirmar 'A IA é sempre imparcial porque é matemática'.

    Peça-lhes para compararem dois datasets hipotéticos: um com dados enviesados e outro sem, e calculem como cada um afeta as decisões do algoritmo. Use a tabela de resultados para mostrar que a matemática reflete os dados, não os valores humanos.

  • Durante a atividade 'Análise de Dataset: Detetar Viés em Dados', alguns alunos podem pensar 'Enviesamentos afetam só indivíduos, não a sociedade'.

    Peça aos alunos para calcularem a percentagem de um grupo minoritário que seria excluído num processo seletivo com enviesamento e para discutirem como esta exclusão afeta a representação desse grupo em instituições de poder ao longo do tempo.

  • Durante a atividade 'Estratégias de Mitigação: Brainstorming Coletivo', alguns alunos podem dizer 'Não é possível mitigar enviesamentos em IA'.

    Apresente-lhes um exemplo de uma auditoria ética bem-sucedida, como o caso da Amazon que removeu vieses de género nos seus algoritmos de recrutamento, e peça-lhes para adaptarem estas estratégias ao seu dataset.


Metodologias usadas neste resumo