Skip to content

Bias und Fairness in KI-SystemenAktivitäten & Unterrichtsstrategien

Aktive Lernmethoden eignen sich besonders gut, weil Schülerinnen und Schüler Bias in KI-Systemen nicht nur theoretisch verstehen, sondern durch konkrete Analysen und Diskussionen selbst nachvollziehen. Durch die direkte Auseinandersetzung mit Datensätzen und Entscheidungsprozessen wird das abstrakte Thema greifbar und die Relevanz für ihren Alltag sichtbar.

Klasse 8Digitale Welten Gestalten: Informatik4 Aktivitäten35 Min.50 Min.

Lernziele

  1. 1Erklären Sie anhand von Beispielen, wie gesellschaftliche Vorurteile in Trainingsdaten für KI-Systeme gelangen.
  2. 2Analysieren Sie konkrete Anwendungsfälle von KI-Systemen, die diskriminierende Ergebnisse aufweisen.
  3. 3Bewerten Sie verschiedene Strategien zur Erkennung und Minderung von Bias in KI-Modellen.
  4. 4Entwickeln Sie einen Lösungsansatz zur Reduzierung von Bias in einem gegebenen Datensatz.

Möchten Sie einen vollständigen Unterrichtsentwurf mit diesen Lernzielen? Mission erstellen

45 Min.·Kleingruppen

Gruppenanalyse: Bias in Datensätzen

Teilen Sie Klassenfotos oder Namenlisten aus. Gruppen zählen Geschlechter- oder Herkunftsverteilungen und prognostizieren KI-Ergebnisse. Diskutieren Sie Abweichungen zu fairen Modellen.

Vorbereitung & Details

Erklären Sie, wie Bias in Trainingsdaten entsteht und sich auf KI-Ergebnisse auswirkt.

Moderationstipp: Während der Gruppenanalyse: Fordern Sie die Schüler auf, nicht nur Daten zu beschreiben, sondern gezielt nach Mustern zu suchen, die gesellschaftliche Ungleichheiten widerspiegeln.

Setup: Innenkreis mit 4–6 Stühlen, umgeben von einem Außenkreis

Materials: Diskussionsimpuls oder Leitfrage, Beobachtungsbogen

AnalysierenBewertenSozialbewusstseinSelbstwahrnehmung
50 Min.·Kleingruppen

Rollenspiel: KI als Bewerberfilter

Gruppen simulieren einen KI-Algorithmus bei Bewerbungen. Eine Gruppe erstellt voreingenommene Kriterien, die andere bewertet und korrigiert. Abschließende Reflexion zu Bias-Quellen.

Vorbereitung & Details

Analysieren Sie konkrete Beispiele für diskriminierende KI-Systeme.

Moderationstipp: Im Rollenspiel: Weisen Sie die Schüler an, ihre Argumente mit konkreten Beispielen aus dem Spiel zu untermauern, um die Diskussion zu strukturieren.

Setup: Spielfläche oder entsprechend angeordnete Tische für das Szenario

Materials: Rollenkarten mit Hintergrundinfos und Zielen, Szenario-Briefing

AnwendenAnalysierenBewertenSozialbewusstseinSelbstwahrnehmung
40 Min.·Partnerarbeit

Strategie-Workshop: Faire KI bauen

In Paaren listen Schüler Bias-Minderungsstrategien auf, z. B. Datenbalancing. Präsentieren und abstimmen über beste Ideen. Erstellen eines Klassenposters.

Vorbereitung & Details

Entwickeln Sie Strategien zur Minderung von Bias in KI-Modellen.

Moderationstipp: Im Strategie-Workshop: Geben Sie den Gruppen klare Rollen vor, damit jeder Schüler aktiv mitarbeitet und nicht nur zuschaut.

Setup: Innenkreis mit 4–6 Stühlen, umgeben von einem Außenkreis

Materials: Diskussionsimpuls oder Leitfrage, Beobachtungsbogen

AnalysierenBewertenSozialbewusstseinSelbstwahrnehmung
35 Min.·Ganze Klasse

Case-Study-Runde: Reale Beispiele

Verteilen Sie Fälle wie COMPAS oder Amazon-Recruiting. Individuen notieren Bias-Ursachen, dann ganztägig diskutieren und Lösungen erarbeiten.

Vorbereitung & Details

Erklären Sie, wie Bias in Trainingsdaten entsteht und sich auf KI-Ergebnisse auswirkt.

Moderationstipp: In der Case-Study-Runde: Fordern Sie die Schüler auf, ihre Analysen mit eigenen Erfahrungen oder Beobachtungen zu verknüpfen, um die Verbindung zur Lebenswelt herzustellen.

Setup: Innenkreis mit 4–6 Stühlen, umgeben von einem Außenkreis

Materials: Diskussionsimpuls oder Leitfrage, Beobachtungsbogen

AnalysierenBewertenSozialbewusstseinSelbstwahrnehmung

Dieses Thema unterrichten

Bias in KI-Systemen wird am effektivsten vermittelt, indem die Schüler selbst zu Detektiven werden: Sie untersuchen reale Datensätze, hinterfragen vermeintliche Neutralität und entwickeln Lösungen. Vermeiden Sie reine Frontalunterrichtsphasen, da das Thema durch eigene Erfahrungen und Diskussionen nachhaltiger verankert wird. Studien zeigen, dass projektbasiertes Lernen hier besonders wirksam ist, weil es kritisches Denken und Problemlösungskompetenz fördert.

Was Sie erwartet

Am Ende der Einheit können die Lernenden erklären, wie Bias in Trainingsdaten entsteht und welche gesellschaftlichen Auswirkungen dies hat. Sie analysieren Datensätze auf Ungleichheiten, entwickeln eigene Strategien zur Vermeidung von Bias und wenden diese in praktischen Beispielen an. Erfolg zeigt sich darin, dass sie diskriminierende Muster erkennen und faire Alternativen begründen.

Diese Aktivitäten sind ein Ausgangspunkt. Die vollständige Mission ist das Erlebnis.

  • Vollständiges Moderationsskript mit Lehrkraft-Dialogen
  • Druckfertige Schülermaterialien, bereit für den Unterricht
  • Differenzierungsstrategien für jeden Lerntyp
Mission erstellen

Vorsicht vor diesen Fehlvorstellungen

Häufige FehlvorstellungWährend der Gruppenanalyse beobachten Sie, dass einige Schüler annehmen, KI sei immer objektiv und neutral.

Was Sie stattdessen lehren sollten

Nutzen Sie die Gruppenanalyse, um die Schüler gezielt auf unbalancierte Datensätze hinzuweisen. Fordern Sie sie auf, nach Mustern zu suchen, die gesellschaftliche Ungleichheiten widerspiegeln, und diese im Plenum zu diskutieren.

Häufige FehlvorstellungWährend der Case-Study-Runde glauben einige Schüler, Bias entstehe nur durch Programmierfehler.

Was Sie stattdessen lehren sollten

Im Strategie-Workshop lassen Sie die Schüler mit modifizierten Datensätzen experimentieren. Zeigen Sie ihnen, wie sich Bias durch unbalancierte Daten verändert, und diskutieren Sie die Rolle der Datenauswahl im Vergleich zur Programmierung.

Häufige FehlvorstellungWährend des Rollenspiels äußern Schüler, Bias betreffe nur andere Kulturen oder Länder.

Was Sie stattdessen lehren sollten

Im Rollenspiel lenken Sie die Diskussion auf lokale Beispiele wie deutsche Stellenportale. Fordern Sie die Schüler auf, eigene Erfahrungen oder Beobachtungen einzubringen, um blinde Flecken sichtbar zu machen.

Ideen zur Lernstandserhebung

Lernstandskontrolle

Nach der Gruppenanalyse erhalten die Schüler eine kurze Beschreibung eines KI-Systems (z.B. ein Empfehlungssystem für Filme). Sie notieren auf einem Zettel: 1. Welche Art von Bias könnte hier auftreten? 2. Nennen Sie eine mögliche Auswirkung dieser Diskriminierung.

Diskussionsfrage

Nach dem Strategie-Workshop stellen Sie die Frage: 'Stellen Sie sich vor, Sie sind Teil eines Teams, das eine KI zur Erkennung von Pflanzenkrankheiten entwickelt. Welche Schritte würden Sie unternehmen, um sicherzustellen, dass die KI fair ist und keine bestimmten Pflanzensorten oder Anbauregionen benachteiligt?' Sammeln Sie die Ideen der Schüler an der Tafel.

Kurze Überprüfung

Während der Case-Study-Runde zeigen Sie eine Tabelle mit fiktiven Daten, die eine Ungleichheit aufweist (z.B. unterschiedliche Erfolgsquoten bei der Problemlösung basierend auf der Gruppenzugehörigkeit). Fragen Sie die Schüler: 'Was fällt Ihnen an diesen Daten auf? Wie könnte dieser Datensatz zu einem problematischen KI-Modell führen?'

Erweiterungen & Unterstützung

  • Challenge: Fordern Sie schnelle Gruppen auf, einen eigenen Fairness-Test für einen vorgegebenen Datensatz zu entwickeln und diesen an der Klasse zu präsentieren.
  • Scaffolding: Bereiten Sie für unsichere Schüler eine Checkliste mit konkreten Fragen zur Datensatzanalyse vor, die sie schrittweise abarbeiten können.
  • Deeper: Lassen Sie interessierte Schüler ein kurzes Video oder einen Artikel zu KI-Bias recherchieren und eine Zusammenfassung mit eigenen Beispielen erstellen.

Schlüsselvokabular

BiasEine systematische Verzerrung oder Neigung in Daten oder Algorithmen, die zu unfairen oder diskriminierenden Ergebnissen führt.
TrainingsdatenDie Datensätze, die verwendet werden, um ein KI-Modell zu trainieren und ihm Muster und Zusammenhänge beizubringen.
DiskriminierungUngleichbehandlung von Personen oder Gruppen aufgrund bestimmter Merkmale, die durch KI-Systeme verstärkt werden kann.
FairnessDas Prinzip, dass KI-Systeme keine Gruppen oder Individuen unfair benachteiligen und gerechte Ergebnisse liefern.
AlgorithmusEine Schritt-für-Schritt-Anleitung oder ein Regelwerk, das ein Computer befolgt, um eine Aufgabe auszuführen oder ein Problem zu lösen.

Bereit, Bias und Fairness in KI-Systemen zu unterrichten?

Erstellen Sie eine vollständige Mission mit allem, was Sie brauchen

Mission erstellen