Skip to content
Informatica · Klas 5 VWO

Ideeën voor actief leren

Algoritmische Bias en Eerlijkheid

Actief leren werkt bij dit onderwerp omdat leerlingen moeten ervaren hoe biases ontstaan en doorwerken in concrete situaties. Door zelf cases te analyseren en datasets te onderzoeken, ontdekken ze dat algoritmes niet neutraal zijn, maar menselijke vooroordelen kunnen versterken. Dit maakt abstracte ethische vraagstukken tastbaar en persoonlijk relevant.

SLO Kerndoelen en EindtermenSLO: Voortgezet onderwijs - MaatschappijSLO: Voortgezet onderwijs - Ethiek
35–50 minDuo's → Hele klas4 activiteiten

Activiteit 01

Socratisch gesprek45 min · Kleine groepjes

Case Study Analyse: Bias in Gezichtsherkenning

Deel echte casussen uit zoals COMPAS of facial recognition errors. Laat groepen de data analyseren, biases identificeren en voorstellen doen voor correctie. Sluit af met presentatie aan de klas.

Hoe kunnen algoritmen onbedoeld discriminatie in de hand werken?

FacilitatietipTijdens de casestudy zorg dat leerlingen niet alleen naar de uitkomst kijken, maar ook naar de gebruikte trainingsdata en het algoritmeontwerp dat tot die uitkomst leidt.

Waar je op moet lettenPresenteer de klas een casus: een AI-systeem dat sollicitanten screent en systematisch vrouwen minder vaak uitnodigt voor technische functies. Vraag: 'Welke vormen van bias kunnen hier een rol spelen? Welke definities van eerlijkheid zijn hier relevant, en waarom? Hoe zouden jullie dit systeem evalueren op eerlijkheid?'

AnalyserenEvaluerenCreërenSociaal BewustzijnRelatievaardigheden
Volledige les genereren

Activiteit 02

Socratisch gesprek35 min · Hele klas

Debatronde: Definities van Eerlijkheid

Verdeel de klas in teams die verschillende fairness-definities verdedigen, zoals demographic parity versus equalized odds. Gebruik stellingen en wissel argumenten uit. Stem aan het eind over de beste definitie.

Analyseer de verschillende definities van 'eerlijkheid' in de context van AI-systemen.

FacilitatietipBij de debatronde introduceer een stelling die leerlingen dwingt om definities van eerlijkheid te verduidelijken, zoals 'Eerlijkheid in AI betekent altijd dat alle groepen even goed worden bediend.'

Waar je op moet lettenGeef leerlingen een korte dataset met fictieve klantgegevens en een bijbehorend AI-model dat een aankoopvoorspelling doet. Vraag hen om 'blind spots' of potentiële biases te identificeren en te noteren welke demografische groepen mogelijk benadeeld worden, met een korte motivatie.

AnalyserenEvaluerenCreërenSociaal BewustzijnRelatievaardigheden
Volledige les genereren

Activiteit 03

Socratisch gesprek50 min · Duo's

Framework Ontwerp: EerlijkheidsChecklist

In paren ontwerpen leerlingen een checklist met criteria voor AI-evaluatie, gebaseerd op key questions. Test het op een eenvoudig model en refineer via peer feedback.

Ontwerp een framework voor het evalueren van de eerlijkheid van een AI-model.

FacilitatietipBij de EerlijkheidsChecklist laat leerlingen in kleine groepen een bestaand algoritme evalueren en noteer samen welke trade-offs ze tegenkomen tussen verschillende eerlijkheidsdefinities.

Waar je op moet lettenLaat leerlingen op een briefje één concrete maatregel noteren die een AI-ontwikkelaar kan nemen om bias in een beeldherkenningsalgoritme te verminderen. Vraag hen ook om kort uit te leggen waarom die maatregel effectief is.

AnalyserenEvaluerenCreërenSociaal BewustzijnRelatievaardigheden
Volledige les genereren

Activiteit 04

Socratisch gesprek40 min · Kleine groepjes

Dataset Audit: Bias Jacht

Geef leerlingen een dataset, zoals loan approvals. Laat ze statistieken berekenen op subgroepen en biases visualiseren met grafieken. Bespreek bevindingen in kring.

Hoe kunnen algoritmen onbedoeld discriminatie in de hand werken?

FacilitatietipTijdens de Dataset Audit geef leerlingen een onbekende dataset en laat ze in groepjes een hypothese formuleren over mogelijke biases voordat ze de data daadwerkelijk analyseren.

Waar je op moet lettenPresenteer de klas een casus: een AI-systeem dat sollicitanten screent en systematisch vrouwen minder vaak uitnodigt voor technische functies. Vraag: 'Welke vormen van bias kunnen hier een rol spelen? Welke definities van eerlijkheid zijn hier relevant, en waarom? Hoe zouden jullie dit systeem evalueren op eerlijkheid?'

AnalyserenEvaluerenCreërenSociaal BewustzijnRelatievaardigheden
Volledige les genereren

Enkele opmerkingen over deze eenheid onderwijzen

Begin met concrete voorbeelden die leerlingen herkennen, zoals gezichtsherkenning die niet werkt voor donkere huidskleuren. Vermijd abstracte discussies over 'AI-bias' zonder context. Gebruik rollenspellen om de menselijke impact van algoritmische beslissingen te laten voelen, zoals het simuleren van een sollicitatieprocedure met een biased screeningstool. Laat leerlingen zelf hypotheses formuleren voordat ze data onderzoeken, zodat ze ontdekken dat biases niet zomaar in data zitten, maar vaak verborgen zijn in aannames.

Succesvolle leerlingen tonen dat ze biases kunnen herkennen in echte voorbeelden, eerlijkheidsvraagstukken kunnen analyseren met een framework, en technische oplossingen kunnen bedenken voor ethische problemen. Ze participeren actief in debatten en kunnen hun keuzes onderbouwen met argumenten en data.


Pas op voor deze misvattingen

  • Tijdens de Case Study Analyse horen leerlingen vaak dat algoritmes neutraal zijn omdat ze op data gebaseerd zijn.

    Laat leerlingen tijdens deze activiteit expliciet de trainingsdata en het algoritmeontwerp bestuderen. Benadruk dat historische biases in data, zoals ondervertegenwoordiging van bepaalde groepen, leiden tot systemische fouten. Laat ze subgroup-analyses uitvoeren om dit zichtbaar te maken.

  • Tijdens de Debatronde zeggen leerlingen soms dat eerlijkheid betekent dat iedereen precies hetzelfde resultaat krijgt.

    Gebruik de debatstructuur om te laten zien dat eerlijkheid contextafhankelijk is. Laat leerlingen met het framework uit de volgende activiteit verschillende definities van eerlijkheid tegen elkaar afwegen en discussiëren over trade-offs, zoals gelijke kansen versus gelijke uitkomsten.

  • Tijdens de EerlijkheidsChecklist wordt bias soms gezien als puur een technisch probleem zonder maatschappelijke impact.

    Laat leerlingen tijdens het ontwerpen van de checklist expliciet nadenken over de gevolgen van hun keuzes voor verschillende demografische groepen. Gebruik de checklist om te laten zien dat technische oplossingen altijd ethische en maatschappelijke implicaties hebben.


Methodes gebruikt in dit overzicht