Activiteit 01
Case Study Analyse: Bias in Gezichtsherkenning
Deel echte casussen uit zoals COMPAS of facial recognition errors. Laat groepen de data analyseren, biases identificeren en voorstellen doen voor correctie. Sluit af met presentatie aan de klas.
Hoe kunnen algoritmen onbedoeld discriminatie in de hand werken?
FacilitatietipTijdens de casestudy zorg dat leerlingen niet alleen naar de uitkomst kijken, maar ook naar de gebruikte trainingsdata en het algoritmeontwerp dat tot die uitkomst leidt.
Waar je op moet lettenPresenteer de klas een casus: een AI-systeem dat sollicitanten screent en systematisch vrouwen minder vaak uitnodigt voor technische functies. Vraag: 'Welke vormen van bias kunnen hier een rol spelen? Welke definities van eerlijkheid zijn hier relevant, en waarom? Hoe zouden jullie dit systeem evalueren op eerlijkheid?'