Zum Inhalt springen
Informatik · Klasse 8 · Künstliche Intelligenz und Gesellschaft · 2. Halbjahr

Bias und Fairness in KI-Systemen

Die Schülerinnen und Schüler untersuchen, wie Vorurteile in Trainingsdaten zu diskriminierenden KI-Entscheidungen führen können.

KMK BildungsstandardsKMK: Sekundarstufe I - Wirkungen von InformatiksystemenKMK: Sekundarstufe I - Evaluieren und Reflektieren

Über dieses Thema

Bias und Fairness in KI-Systemen zeigt Schülerinnen und Schülern in Klasse 8, wie Vorurteile in Trainingsdaten zu diskriminierenden Entscheidungen führen. Trainingsdaten spiegeln oft gesellschaftliche Ungleichheiten wider, etwa bei Gesichtserkennungssystemen, die dunklere Hauttöne schlechter erkennen, oder bei Bewerbungsalgorithmen, die Frauen benachteiligen. Die Lernenden erklären Entstehung und Auswirkungen von Bias, analysieren reale Beispiele und entwickeln Strategien wie diversifizierte Datensätze oder Fairness-Tests. Dies entspricht den KMK-Standards zu Wirkungen von Informatiksystemen und deren Evaluation.

Im Kontext der Einheit 'Künstliche Intelligenz und Gesellschaft' verbindet das Thema Informatik mit Ethik und Gesellschaftskunde. Es schult systemisches Denken: Schüler erkennen, dass KI nicht neutral ist, sondern Daten und Algorithmen widerspiegelt. So entsteht Verständnis für verantwortungsvolle KI-Nutzung in Alltag und Beruf.

Aktives Lernen passt ideal, weil abstrakte Bias-Konzepte durch Untersuchung eigener Daten und Gruppendiskussionen konkret werden. Schüler testen Datensätze auf Ungleichheiten, debattieren Fälle und prototyptypen faire Modelle. Das macht Inhalte nachhaltig und regt zu ethischen Reflexionen an.

Leitfragen

  1. Erklären Sie, wie Bias in Trainingsdaten entsteht und sich auf KI-Ergebnisse auswirkt.
  2. Analysieren Sie konkrete Beispiele für diskriminierende KI-Systeme.
  3. Entwickeln Sie Strategien zur Minderung von Bias in KI-Modellen.

Lernziele

  • Erklären Sie anhand von Beispielen, wie gesellschaftliche Vorurteile in Trainingsdaten für KI-Systeme gelangen.
  • Analysieren Sie konkrete Anwendungsfälle von KI-Systemen, die diskriminierende Ergebnisse aufweisen.
  • Bewerten Sie verschiedene Strategien zur Erkennung und Minderung von Bias in KI-Modellen.
  • Entwickeln Sie einen Lösungsansatz zur Reduzierung von Bias in einem gegebenen Datensatz.

Bevor es losgeht

Grundlagen der Datenverarbeitung

Warum: Schüler müssen verstehen, was Daten sind und wie sie gesammelt und gespeichert werden, um die Entstehung von Bias in Trainingsdaten nachvollziehen zu können.

Einführung in Algorithmen

Warum: Ein grundlegendes Verständnis von Algorithmen ist notwendig, um zu verstehen, wie diese auf Daten angewendet werden und zu Ergebnissen führen.

Schlüsselvokabular

BiasEine systematische Verzerrung oder Neigung in Daten oder Algorithmen, die zu unfairen oder diskriminierenden Ergebnissen führt.
TrainingsdatenDie Datensätze, die verwendet werden, um ein KI-Modell zu trainieren und ihm Muster und Zusammenhänge beizubringen.
DiskriminierungUngleichbehandlung von Personen oder Gruppen aufgrund bestimmter Merkmale, die durch KI-Systeme verstärkt werden kann.
FairnessDas Prinzip, dass KI-Systeme keine Gruppen oder Individuen unfair benachteiligen und gerechte Ergebnisse liefern.
AlgorithmusEine Schritt-für-Schritt-Anleitung oder ein Regelwerk, das ein Computer befolgt, um eine Aufgabe auszuführen oder ein Problem zu lösen.

Vorsicht vor diesen Fehlvorstellungen

Häufige FehlvorstellungKI ist immer objektiv und neutral.

Was Sie stattdessen lehren sollten

KI lernt aus Daten, die Vorurteile enthalten können. Aktive Analysen eigener Datensätze zeigen Schülern reale Ungleichheiten, Gruppendebatten helfen, eigene Annahmen zu hinterfragen und faire Alternativen zu entwickeln.

Häufige FehlvorstellungBias entsteht nur durch Programmiererfehler.

Was Sie stattdessen lehren sollten

Bias stammt hauptsächlich aus unbalancierten Trainingsdaten. Durch Untersuchung historischer Daten in Gruppen lernen Schüler den Ursprung erkennen, Experimente mit modifizierten Sets fördern Verständnis für präventive Maßnahmen.

Häufige FehlvorstellungBias betrifft nur andere Kulturen.

Was Sie stattdessen lehren sollten

Lokale Beispiele wie deutsche Stellenportale machen Bias greifbar. Rollenspiele lassen Schüler eigene Perspektiven einnehmen, Diskussionen enthüllen blinde Flecken und stärken Sensibilität.

Ideen für aktives Lernen

Alle Aktivitäten ansehen

Bezüge zur Lebenswelt

  • Bei der Entwicklung von Gesichtserkennungssoftware für Sicherheitsbehörden müssen Entwickler darauf achten, dass die Software Personen aller Hautfarben und Geschlechter gleichermaßen gut erkennt, um Diskriminierung zu vermeiden. Ein Beispiel sind Fehler bei der Erkennung von Frauen oder Menschen mit dunkler Hautfarbe.
  • In Personalabteilungen werden KI-gestützte Bewerbermanagementsysteme eingesetzt, um Lebensläufe zu filtern. Wenn die Trainingsdaten historisch mehr Männer in bestimmten Positionen widerspiegeln, kann die KI Frauen für diese Stellen unbewusst benachteiligen.
  • Kreditvergabesysteme, die KI nutzen, könnten diskriminierende Muster aufweisen, wenn sie auf historischen Daten basieren, die bestimmte Bevölkerungsgruppen benachteiligt haben. Dies kann dazu führen, dass bestimmte Personen ungerechtfertigte Kreditabsagen erhalten.

Ideen zur Lernstandserhebung

Lernstandskontrolle

Die Schüler erhalten eine kurze Beschreibung eines KI-Systems (z.B. ein Empfehlungssystem für Filme). Sie sollen auf einem Zettel notieren: 1. Welche Art von Bias könnte hier auftreten? 2. Nennen Sie eine mögliche Auswirkung dieser Diskriminierung.

Diskussionsfrage

Stellen Sie die Frage: 'Stellen Sie sich vor, Sie sind Teil eines Teams, das eine KI zur Erkennung von Pflanzenkrankheiten entwickelt. Welche Schritte würden Sie unternehmen, um sicherzustellen, dass die KI fair ist und keine bestimmten Pflanzensorten oder Anbauregionen benachteiligt?' Sammeln Sie die Ideen der Schüler an der Tafel.

Kurze Überprüfung

Zeigen Sie eine Tabelle mit fiktiven Daten, die eine Ungleichheit aufweist (z.B. unterschiedliche Erfolgsquoten bei der Problemlösung basierend auf der Gruppenzugehörigkeit). Fragen Sie die Schüler: 'Was fällt Ihnen an diesen Daten auf? Wie könnte dieser Datensatz zu einem problematischen KI-Modell führen?'

Häufig gestellte Fragen

Wie entsteht Bias in Trainingsdaten von KI?
Bias entsteht, wenn Trainingsdaten gesellschaftliche Ungleichheiten abbilden, z. B. mehr Daten zu hellen Hauttönen in Gesichtserkennung. Algorithmen lernen diese Muster und reproduzieren sie. Schüler analysieren durch Datensatz-Vergleiche, wie Auswahl und Volumen Vorurteile verstärken, und testen mit Tools wie Fairlearn.
Welche Beispiele gibt es für diskriminierende KI-Systeme?
Bekannte Fälle sind der COMPAS-Algorithmus, der Afroamerikaner höher einstufte, oder Amazons Bewerbungs-KI, die Frauen benachteiligte. In Deutschland scheiterten Systeme bei Migrationshintergründen. Schüler untersuchen diese in Case-Studies, identifizieren Bias-Quellen und diskutieren Auswirkungen auf Betroffene.
Wie kann man Bias in KI-Modellen mindern?
Strategien umfassen diversifizierte Datensätze, Fairness-Metriken und Audits. Techniken wie Oversampling benachteiligter Gruppen oder Adversarial Debiasing helfen. Schüler entwickeln in Workshops eigene Pläne, testen Prototypen und evaluieren Erfolge, um praktische Kompetenzen aufzubauen.
Wie hilft aktives Lernen beim Verständnis von Bias in KI?
Aktives Lernen macht Bias erfahrbar: Schüler manipulieren Datensätze, simulieren Entscheidungen und debattieren Konsequenzen. Gruppenexperimente enthüllen Muster, die Theorie allein nicht zeigt. So vertieft sich das Verständnis, ethische Reflexion wächst, und Schüler internalisieren Strategien für faire KI. (62 Wörter)

Planungsvorlagen für Informatik