Skip to content

Algoritmische Bias en EerlijkheidActiviteiten & didactische strategieën

Actief leren werkt bij dit onderwerp omdat leerlingen moeten ervaren hoe biases ontstaan en doorwerken in concrete situaties. Door zelf cases te analyseren en datasets te onderzoeken, ontdekken ze dat algoritmes niet neutraal zijn, maar menselijke vooroordelen kunnen versterken. Dit maakt abstracte ethische vraagstukken tastbaar en persoonlijk relevant.

Klas 5 VWOInformatica in de Diepte: Van Algoritme tot Architectuur4 activiteiten35 min50 min

Leerdoelen

  1. 1Analyseren hoe specifieke kenmerken van trainingsdata, zoals demografische verdeling, kunnen leiden tot systematische fouten in AI-modellen.
  2. 2Evalueren van verschillende wiskundige definities van 'eerlijkheid' (bijvoorbeeld demografische pariteit, gelijke kansen op fouten) op hun toepasbaarheid en beperkingen in concrete AI-scenario's.
  3. 3Ontwerpen van een evaluatiekader met meetbare criteria om de eerlijkheid van een gegeven AI-model te beoordelen, rekening houdend met potentiële maatschappelijke impact.
  4. 4Vergelijken van de ethische implicaties van bias in AI-systemen die worden ingezet voor werving versus kredietverlening.
  5. 5Verklaren hoe de architectuur van een neuraal netwerk, zoals het aantal lagen of neuronen, kan bijdragen aan of verminderen van algoritmische bias.

Wil je een compleet lesplan met deze leerdoelen? Genereer een missie

45 min·Kleine groepjes

Case Study Analyse: Bias in Gezichtsherkenning

Deel echte casussen uit zoals COMPAS of facial recognition errors. Laat groepen de data analyseren, biases identificeren en voorstellen doen voor correctie. Sluit af met presentatie aan de klas.

Voorbereiding & details

Hoe kunnen algoritmen onbedoeld discriminatie in de hand werken?

Facilitatietip: Tijdens de casestudy zorg dat leerlingen niet alleen naar de uitkomst kijken, maar ook naar de gebruikte trainingsdata en het algoritmeontwerp dat tot die uitkomst leidt.

Setup: Stoelen opgesteld in twee concentrische cirkels

Materials: Discussievraag of prikkelende stelling (geprojecteerd), Observatieformulier voor de buitenkring

AnalyserenEvaluerenCreërenSociaal BewustzijnRelatievaardigheden
35 min·Hele klas

Debatronde: Definities van Eerlijkheid

Verdeel de klas in teams die verschillende fairness-definities verdedigen, zoals demographic parity versus equalized odds. Gebruik stellingen en wissel argumenten uit. Stem aan het eind over de beste definitie.

Voorbereiding & details

Analyseer de verschillende definities van 'eerlijkheid' in de context van AI-systemen.

Facilitatietip: Bij de debatronde introduceer een stelling die leerlingen dwingt om definities van eerlijkheid te verduidelijken, zoals 'Eerlijkheid in AI betekent altijd dat alle groepen even goed worden bediend.'

Setup: Stoelen opgesteld in twee concentrische cirkels

Materials: Discussievraag of prikkelende stelling (geprojecteerd), Observatieformulier voor de buitenkring

AnalyserenEvaluerenCreërenSociaal BewustzijnRelatievaardigheden
50 min·Duo's

Framework Ontwerp: EerlijkheidsChecklist

In paren ontwerpen leerlingen een checklist met criteria voor AI-evaluatie, gebaseerd op key questions. Test het op een eenvoudig model en refineer via peer feedback.

Voorbereiding & details

Ontwerp een framework voor het evalueren van de eerlijkheid van een AI-model.

Facilitatietip: Bij de EerlijkheidsChecklist laat leerlingen in kleine groepen een bestaand algoritme evalueren en noteer samen welke trade-offs ze tegenkomen tussen verschillende eerlijkheidsdefinities.

Setup: Stoelen opgesteld in twee concentrische cirkels

Materials: Discussievraag of prikkelende stelling (geprojecteerd), Observatieformulier voor de buitenkring

AnalyserenEvaluerenCreërenSociaal BewustzijnRelatievaardigheden
40 min·Kleine groepjes

Dataset Audit: Bias Jacht

Geef leerlingen een dataset, zoals loan approvals. Laat ze statistieken berekenen op subgroepen en biases visualiseren met grafieken. Bespreek bevindingen in kring.

Voorbereiding & details

Hoe kunnen algoritmen onbedoeld discriminatie in de hand werken?

Facilitatietip: Tijdens de Dataset Audit geef leerlingen een onbekende dataset en laat ze in groepjes een hypothese formuleren over mogelijke biases voordat ze de data daadwerkelijk analyseren.

Setup: Stoelen opgesteld in twee concentrische cirkels

Materials: Discussievraag of prikkelende stelling (geprojecteerd), Observatieformulier voor de buitenkring

AnalyserenEvaluerenCreërenSociaal BewustzijnRelatievaardigheden

Dit onderwerp onderwijzen

Begin met concrete voorbeelden die leerlingen herkennen, zoals gezichtsherkenning die niet werkt voor donkere huidskleuren. Vermijd abstracte discussies over 'AI-bias' zonder context. Gebruik rollenspellen om de menselijke impact van algoritmische beslissingen te laten voelen, zoals het simuleren van een sollicitatieprocedure met een biased screeningstool. Laat leerlingen zelf hypotheses formuleren voordat ze data onderzoeken, zodat ze ontdekken dat biases niet zomaar in data zitten, maar vaak verborgen zijn in aannames.

Wat je kunt verwachten

Succesvolle leerlingen tonen dat ze biases kunnen herkennen in echte voorbeelden, eerlijkheidsvraagstukken kunnen analyseren met een framework, en technische oplossingen kunnen bedenken voor ethische problemen. Ze participeren actief in debatten en kunnen hun keuzes onderbouwen met argumenten en data.

Deze activiteiten zijn een startpunt. De volledige missie is de ervaring.

  • Compleet facilitatiescript met docentendialogen
  • Printklaar leerlingmateriaal, klaar voor de klas
  • Differentiatiestrategieën voor elk type leerling
Genereer een missie

Pas op voor deze misvattingen

Veelvoorkomende misvattingTijdens de Case Study Analyse horen leerlingen vaak dat algoritmes neutraal zijn omdat ze op data gebaseerd zijn.

Wat je in plaats daarvan kunt onderwijzen

Laat leerlingen tijdens deze activiteit expliciet de trainingsdata en het algoritmeontwerp bestuderen. Benadruk dat historische biases in data, zoals ondervertegenwoordiging van bepaalde groepen, leiden tot systemische fouten. Laat ze subgroup-analyses uitvoeren om dit zichtbaar te maken.

Veelvoorkomende misvattingTijdens de Debatronde zeggen leerlingen soms dat eerlijkheid betekent dat iedereen precies hetzelfde resultaat krijgt.

Wat je in plaats daarvan kunt onderwijzen

Gebruik de debatstructuur om te laten zien dat eerlijkheid contextafhankelijk is. Laat leerlingen met het framework uit de volgende activiteit verschillende definities van eerlijkheid tegen elkaar afwegen en discussiëren over trade-offs, zoals gelijke kansen versus gelijke uitkomsten.

Veelvoorkomende misvattingTijdens de EerlijkheidsChecklist wordt bias soms gezien als puur een technisch probleem zonder maatschappelijke impact.

Wat je in plaats daarvan kunt onderwijzen

Laat leerlingen tijdens het ontwerpen van de checklist expliciet nadenken over de gevolgen van hun keuzes voor verschillende demografische groepen. Gebruik de checklist om te laten zien dat technische oplossingen altijd ethische en maatschappelijke implicaties hebben.

Toetsideeën

Discussievraag

Na de Case Study Analyse presenteer de klas een nieuwe casus over een biased screeningssysteem voor leningen. Vraag: 'Welke vormen van bias spelen hier een rol? Welke definities van eerlijkheid zijn relevant en waarom? Hoe zouden jullie dit systeem evalueren met de EerlijkheidsChecklist?' Laat leerlingen hun antwoorden noteren en bespreek ze plenair.

Snelle Controle

Tijdens de Dataset Audit geef leerlingen een korte fictieve dataset met demografische variabelen en een beschrijving van een AI-model dat een beslissing neemt. Vraag hen om in 5 minuten de belangrijkste biases te identificeren en te noteren welke groepen mogelijk benadeeld worden. Bespreek de antwoorden kort na.

Uitgangskaart

Na de EerlijkheidsChecklist laat leerlingen op een briefje één concrete maatregel noteren die een ontwikkelaar kan nemen om bias in een gezichtsherkenningssysteem te verminderen. Vraag hen ook om kort uit te leggen waarom die maatregel effectief is en welke trade-offs erbij komen kijken.

Uitbreidingen & ondersteuning

  • Laat leerlingen die klaar zijn een eigen bias-scenario bedenken voor een AI-toepassing en ontwerp een checklist om die te evalueren.
  • Voor leerlingen die moeite hebben met dataset-analyse, geef een voorbeelddataset met duidelijke patronen en laat ze eerst individueel de stappen doorlopen voordat ze in groepjes werken.
  • Voor extra verdieping laat leerlingen een literatuuronderzoek doen naar een specifieke bias in een bekend AI-systeem, zoals COMPAS voor risico-inschattingen in het strafrecht.

Kernbegrippen

Algoritmische BiasSystematische en herhaalbare fouten in een computersysteem die leiden tot oneerlijke uitkomsten, vaak voortkomend uit vooringenomen data of ontwerpprincipes.
TrainingsdataDe dataset die wordt gebruikt om een machine learning-model te 'leren'. Vooroordelen in deze data worden vaak overgenomen door het model.
Eerlijkheid (Fairness) in AIHet principe dat AI-systemen geen discriminerende of bevooroordeelde resultaten produceren op basis van gevoelige kenmerken zoals ras, geslacht of leeftijd.
Demografische PariteitEen maatstaf voor eerlijkheid waarbij de positieve uitkomst (bijvoorbeeld goedgekeurd voor een lening) voor verschillende demografische groepen evenredig moet zijn.
Gelijke Kansen op Fouten (Equalized Odds)Een maatstaf voor eerlijkheid die vereist dat de ware positieve en valse positieve percentages voor alle subgroepen gelijk zijn.

Klaar om Algoritmische Bias en Eerlijkheid te onderwijzen?

Genereer een volledige missie met alles wat je nodig hebt

Genereer een missie