Skip to content
Künstliche Intelligenz und Maschinelles Lernen · 2. Halbjahr

Ethik und Bias in der KI

Die Schülerinnen und Schüler untersuchen Vorurteile in Algorithmen und die Verantwortung beim Einsatz von KI.

Brauchen Sie einen Unterrichtsplan für Digitale Welten Gestalten: Informatik und Gesellschaft?

Mission erstellen

Leitfragen

  1. Erklären Sie, wie Vorurteile in einer künstlichen Intelligenz entstehen können.
  2. Beurteilen Sie die Frage, wer haftet, wenn eine KI eine Fehlentscheidung trifft.
  3. Analysieren Sie, in welchen Bereichen KI-Entscheidungen kritisch hinterfragt werden sollten.

KMK Bildungsstandards

KMK: Sekundarstufe I - Informatik und GesellschaftKMK: Sekundarstufe I - Bewerten
Klasse: Klasse 9
Fach: Digitale Welten Gestalten: Informatik und Gesellschaft
Einheit: Künstliche Intelligenz und Maschinelles Lernen
Zeitraum: 2. Halbjahr

Über dieses Thema

Die Schülerinnen und Schüler untersuchen, wie Vorurteile in Algorithmen entstehen und welche ethischen Verantwortungen beim KI-Einsatz bestehen. Sie analysieren reale Fälle, etwa wie Trainingsdaten mit ungleicher Repräsentation von Geschlechtern oder Ethnien zu diskriminierenden Entscheidungen führen, z. B. in Gesichtserkennung oder Kreditvergabe. Die Kernfragen drehen sich um Entstehungsmechanismen von Bias, Haftungsfragen bei Fehlentscheidungen und Bereiche, in denen KI kritisch hinterfragt werden muss.

Im KMK-Lehrplan für Informatik und Gesellschaft der Sekundarstufe I steht das Bewerten von Technologien im Vordergrund. Schüler lernen, Datenquellen auf Vielfalt zu prüfen, faire Algorithmen zu fordern und gesellschaftliche Auswirkungen abzuwägen. Dies verbindet Informatikwissen mit gesellschaftlichen Kompetenzen und schult systemisches Denken, etwa bei autonomen Systemen oder personalisierten Empfehlungen.

Aktives Lernen passt hervorragend, weil abstrakte Ethikfragen durch Diskussionen und Simulationen konkret werden. Wenn Schüler Bias in Datensätzen aufspüren oder Debatten führen, internalisieren sie Verantwortung und entwickeln Urteilsfähigkeit langfristig. Solche Methoden machen den Unterricht lebendig und relevant für den Alltag.

Lernziele

  • Erklären Sie, wie Verzerrungen (Bias) in Trainingsdaten zu diskriminierenden KI-Ergebnissen führen können.
  • Analysieren Sie die ethischen Implikationen von KI-Entscheidungen in Bereichen wie Kreditvergabe oder Strafverfolgung.
  • Bewerten Sie verschiedene Ansätze zur Minimierung von Bias in KI-Systemen und zur Gewährleistung von Fairness.
  • Entwerfen Sie Kriterien zur kritischen Hinterfragung von KI-Anwendungen im öffentlichen Sektor.

Bevor es losgeht

Grundlagen des Maschinellen Lernens

Warum: Schüler müssen verstehen, wie KI-Modelle lernen und trainiert werden, um die Entstehung von Bias nachvollziehen zu können.

Datenanalyse und Interpretation

Warum: Grundkenntnisse in der Analyse von Daten sind notwendig, um Verzerrungen in Datensätzen erkennen zu können.

Schlüsselvokabular

Algorithmic BiasSystematische und wiederholbare Fehler in einem Computersystem, die zu unfairen Ergebnissen führen, oft aufgrund von Vorurteilen in den Trainingsdaten.
TrainingsdatenDie Datensätze, die verwendet werden, um ein KI-Modell zu trainieren. Verzerrungen in diesen Daten spiegeln sich im Verhalten der KI wider.
HaftungDie rechtliche Verantwortung für Schäden, die durch eine KI-Entscheidung verursacht werden. Dies kann Entwickler, Betreiber oder Nutzer betreffen.
DiskriminierungUngleichbehandlung von Personen oder Gruppen aufgrund von Merkmalen wie Geschlecht, Ethnie oder sozialem Status, die durch KI-Systeme verstärkt werden kann.

Ideen für aktives Lernen

Alle Aktivitäten ansehen

Bezüge zur Lebenswelt

In der Kreditwürdigkeitsprüfung setzen Banken KI-Systeme ein, um Anträge zu bewerten. Wenn die Trainingsdaten historische Benachteiligungen widerspiegeln, können bestimmte Bevölkerungsgruppen ungerechtfertigt abgelehnt werden.

Polizeibehörden nutzen Gesichtserkennungssoftware, die auf KI basiert. Studien zeigen, dass diese Software bei Personen mit dunklerer Hautfarbe oder Frauen häufiger Fehlalarme auslöst, was zu ungerechtfertigten Verdächtigungen führen kann.

Soziale Medienplattformen verwenden KI, um Inhalte zu moderieren und personalisierte Feeds zu erstellen. Voreingenommene Algorithmen können zur Verbreitung von Hassreden beitragen oder bestimmte Meinungen unterdrücken.

Vorsicht vor diesen Fehlvorstellungen

Häufige FehlvorstellungKI ist immer objektiv und neutral.

Was Sie stattdessen lehren sollten

Vorurteile entstehen durch biased Trainingsdaten, die reale Ungleichheiten widerspiegeln. Aktive Analysen von Datensätzen in Gruppen helfen Schülern, diese Mechanismen selbst zu entdecken und faire Alternativen zu entwickeln. Diskussionen klären, dass Technik menschengemacht ist.

Häufige FehlvorstellungNur der KI-Entwickler haftet bei Fehlern.

Was Sie stattdessen lehren sollten

Haftung teilt sich zwischen Entwicklern, Nutzern und Regulierern, je nach Kontext. Rollenspiele fördern nuanciertes Denken, da Schüler Perspektiven wechseln und gesetzliche Grauzonen debattieren. So entsteht Verständnis für geteilte Verantwortung.

Häufige FehlvorstellungBias betrifft nur soziale Medien.

Was Sie stattdessen lehren sollten

Bias wirkt in Medizin, Justiz und Verkehr. Fallstudien in Stationen zeigen breite Auswirkungen und regen Schüler an, Alltagsbeispiele zu sammeln. Dies stärkt transferierbares Wissen.

Ideen zur Lernstandserhebung

Diskussionsfrage

Stellen Sie die Frage: 'Wer sollte die Verantwortung tragen, wenn ein autonomes Fahrzeug einen Unfall verursacht, der durch eine Fehlentscheidung der KI verursacht wurde?' Lassen Sie die Schüler verschiedene Szenarien diskutieren (Hersteller, Programmierer, Besitzer, KI selbst) und begründen Sie ihre Positionen.

Lernstandskontrolle

Geben Sie den Schülern ein kurzes Szenario, z. B. 'Eine KI zur Bewerberauswahl bevorzugt unbewusst Männer für technische Berufe.' Bitten Sie sie, auf einer Karteikarte zu notieren: 1. Wie könnte dieser Bias entstanden sein? 2. Nennen Sie eine Maßnahme, um diesen Bias zu reduzieren.

Kurze Überprüfung

Zeigen Sie ein Beispiel für eine KI-Anwendung (z. B. personalisierte Werbung). Fragen Sie die Schüler: 'Welche potenziellen ethischen Probleme oder Vorurteile sehen Sie bei dieser Anwendung?' Sammeln Sie Antworten auf einem Whiteboard oder digital.

Bereit, dieses Thema zu unterrichten?

Erstellen Sie in Sekundenschnelle eine vollständige, unterrichtsfertige Mission für aktives Lernen.

Eigene Mission generieren

Häufig gestellte Fragen

Wie entstehen Vorurteile in KI?
Vorurteile entstehen hauptsächlich durch unausgewogene Trainingsdaten, die reale gesellschaftliche Ungleichheiten abbilden, z. B. mehr Daten von hellhäutigen Personen in Gesichtserkennung. Algorithmen lernen diese Muster und reproduzieren sie. Schüler können dies durch Analyse realer Datensätze verstehen und Lösungen wie Datenaugmentation diskutieren. Präventiv hilft Vielfalt in Entwicklungsteams.
Wer haftet bei Fehlentscheidungen einer KI?
Haftung hängt vom Kontext ab: Entwickler für fehlerhafte Programmierung, Nutzer für unangemessene Anwendung, Hersteller für Produkthaftung. In Deutschland greifen EU-Richtlinien wie die KI-Verordnung. Debatten in der Klasse klären, dass klare Regulierungen notwendig sind, um Schäden zu vermeiden und Innovation zu schützen.
Wie hilft aktives Lernen beim Thema Ethik und Bias in KI?
Aktives Lernen macht abstrakte Konzepte greifbar, z. B. durch Datensatz-Analysen oder Rollenspiele, wo Schüler Bias selbst aufdecken und ethische Dilemmata debattieren. Paar- oder Gruppenarbeit fördert Perspektivenwechsel und kritisches Denken. Solche Methoden erhöhen Motivation und Retention, da Schüler relevante Alltagsbeispiele bearbeiten und Lösungen erarbeiten.
In welchen Bereichen sollte man KI-Entscheidungen kritisch prüfen?
Kritische Bereiche umfassen Justiz (Risikobewertung), Medizin (Diagnosen), Personalwesen (Einstellungen) und autonomen Verkehr, wo Fehlentscheidungen lebensverändernd sind. Schüler lernen, Transparenz und Auditierbarkeit zu fordern. Unterricht mit Fallstudien schult, wann menschliche Überwachung essenziell ist, um Diskriminierung zu verhindern.