Zum Inhalt springen
Informatik · Klasse 10 · Künstliche Intelligenz und Ethik · 2. Halbjahr

Ethik und Bias in KI-Systemen

Die Schülerinnen und Schüler diskutieren über Verantwortung, Transparenz und die Vermeidung von Vorurteilen in der KI.

KMK BildungsstandardsKMK: STD.11KMK: STD.20

Über dieses Thema

Das Thema Ethik und Bias in KI-Systemen führt Schülerinnen und Schüler der Klasse 10 an zentrale Fragen heran: Wer haftet für Fehlentscheidungen einer KI? Wie verhindern wir die Verstärkung gesellschaftlicher Vorurteile? Dürfen Algorithmen über Menschen urteilen? Sie diskutieren Verantwortung, Transparenz und Vermeidung von Bias, basierend auf KMK-Standards STD.11 (ethische Reflexion) und STD.20 (gesellschaftliche Auswirkungen). Dies verbindet Informatik mit Alltagsanwendungen wie personalisierten Empfehlungen oder automatisierten Entscheidungen in Justiz und Medizin.

Im Rahmen der Einheit „Künstliche Intelligenz und Ethik“ lernen Schüler, dass Trainingsdaten oft gesellschaftliche Ungleichheiten widerspiegeln und verstärken. Beispiele wie diskriminierende Gesichtserkennung oder voreingenommene Kreditvergabe machen abstrakte Konzepte greifbar. Das Thema schult kritisches Denken, fördert Systemverständnis und bereitet auf verantwortungsvolle Nutzung digitaler Technologien vor.

Active Learning ist hier besonders wirksam, weil ethische Dilemmata durch interaktive Formate wie Debatten, Rollenspiele und Fallanalysen lebendig werden. Schüler entwickeln eigene Positionen, argumentieren gegeneinander und reflektieren kollektiv, was tiefes Verständnis schafft und Empathie für betroffene Gruppen stärkt.

Leitfragen

  1. Wer haftet für Fehlentscheidungen einer KI?
  2. Wie verhindern wir die Verstärkung gesellschaftlicher Vorurteile?
  3. Sollten Algorithmen über Menschen urteilen dürfen?

Lernziele

  • Analysieren Sie die Ursachen und Auswirkungen von Bias in KI-Algorithmen anhand konkreter Fallbeispiele.
  • Bewerten Sie die ethischen Implikationen der Entscheidungsfindung durch KI-Systeme in verschiedenen gesellschaftlichen Bereichen.
  • Entwickeln Sie Lösungsansätze zur Minimierung von Bias und zur Gewährleistung von Transparenz in KI-Anwendungen.
  • Erklären Sie die Konzepte von Verantwortung und Haftung im Kontext von KI-Fehlentscheidungen.

Bevor es losgeht

Grundlagen der Programmierung und Algorithmen

Warum: Schüler müssen verstehen, wie Algorithmen funktionieren, um die Mechanismen hinter Bias nachvollziehen zu können.

Daten und Datenerfassung

Warum: Das Verständnis, wie Daten gesammelt und aufbereitet werden, ist essenziell, um zu verstehen, wie Bias in Trainingsdaten entsteht.

Schlüsselvokabular

Algorithmic BiasSystematische und wiederholbare Fehler in einem Computersystem, die zu unfairen Ergebnissen führen, oft durch verzerrte Trainingsdaten.
Transparenz (KI)Die Nachvollziehbarkeit, wie eine KI zu ihren Entscheidungen gelangt, einschließlich der verwendeten Daten und Modelle.
Haftung (KI)Die rechtliche oder moralische Verantwortung für Schäden oder Fehlentscheidungen, die durch ein KI-System verursacht werden.
Diskriminierung durch KIUngleichbehandlung von Personen oder Gruppen durch KI-Systeme, basierend auf Merkmalen wie Geschlecht, Ethnie oder Alter.

Vorsicht vor diesen Fehlvorstellungen

Häufige FehlvorstellungKI-Systeme sind immer neutral und objektiv.

Was Sie stattdessen lehren sollten

Viele Schüler glauben das, weil Algorithmen mathematisch wirken. Active Learning hilft durch Analyse realer Datensätze, wo sie Vorurteile entdecken. Diskussionen klären, dass Bias aus Trainingsdaten stammt, und fördern kritisches Hinterfragen.

Häufige FehlvorstellungBias entsteht nur durch absichtliche Programmierung.

Was Sie stattdessen lehren sollten

Schüler unterschätzen unbewusste Effekte historischer Daten. Rollenspiele machen klar, dass gesellschaftliche Muster sich einprägen. Kollektive Reflexion stärkt Verständnis für systemische Ursachen und präventive Maßnahmen.

Häufige FehlvorstellungTransparenz in KI ist technisch unmöglich.

Was Sie stattdessen lehren sollten

Dieser Irrtum blockiert Debatten. Durch Fallstudien lernen Schüler Explainable AI kennen. Gruppenarbeit zeigt, wie Audit-Tools Bias aufdecken, und motiviert zu ethischen Standards.

Ideen für aktives Lernen

Alle Aktivitäten ansehen

Bezüge zur Lebenswelt

  • In der Personalauswahl nutzen Unternehmen wie SAP KI-Tools zur Vorauswahl von Bewerbern. Hier ist es entscheidend, dass diese Systeme keine diskriminierenden Muster aus früheren Einstellungen übernehmen, um Chancengleichheit zu wahren.
  • Kreditinstitute wie die Sparkasse setzen Algorithmen zur Bonitätsprüfung ein. Ein Bias in diesen Systemen könnte dazu führen, dass bestimmte Bevölkerungsgruppen ungerechtfertigt höhere Zinsen erhalten oder Kredite verweigert werden.
  • Gerichte weltweit experimentieren mit KI-Systemen zur Unterstützung bei der Strafzumessung. Die Frage der Haftung bei Fehlurteilen und die Vermeidung von Vorurteilen sind hier von zentraler Bedeutung für die Gerechtigkeit.

Ideen zur Lernstandserhebung

Diskussionsfrage

Stellen Sie die Frage: 'Wer sollte die Verantwortung tragen, wenn ein autonomes Fahrzeug einen Unfall verursacht: der Hersteller, der Programmierer, der Besitzer oder die KI selbst?' Lassen Sie die Schüler in Kleingruppen argumentieren und ihre Positionen im Plenum vorstellen.

Lernstandskontrolle

Bitten Sie die Schüler, auf einem Zettel zwei Beispiele für potenziellen Bias in KI-Systemen zu nennen, denen sie im Alltag begegnen könnten (z.B. personalisierte Werbung, Suchergebnisse). Sie sollen kurz erklären, warum dies problematisch ist.

Kurze Überprüfung

Zeigen Sie ein kurzes Video oder eine Infografik zu einem KI-Bias-Beispiel (z.B. Gesichtserkennung, die bestimmte Ethnien schlechter erkennt). Fragen Sie: 'Welches ethische Problem wird hier deutlich? Wie könnte man versuchen, dieses Problem zu lösen?' Sammeln Sie Antworten per Handzeichen oder digital.

Häufig gestellte Fragen

Wie erkläre ich Bias in KI-Systemen Schülern?
Beginnen Sie mit Alltagsbeispielen wie biased YouTube-Empfehlungen oder Gesichtserkennung, die Hautfarben unterschiedlich erfasst. Zeigen Sie, wie Trainingsdaten Vorurteile abbilden, z. B. mehr männliche Führungskräfte in Karrieredaten. Lassen Sie Schüler eigene Daten analysieren, um Muster zu erkennen. Das schafft schnelles Verständnis für Ursachen und Konsequenzen in 10-15 Minuten. Ergänzen Sie mit Infografiken zu Fairness-Maßnahmen.
Wie fördere ich Diskussionen zu Ethik in KI?
Nutzen Sie strukturierte Debatten mit klaren Rollen und Zeitlimits, um alle einzubinden. Stellen Sie Key Questions wie Haftung vorab zur Vorbereitung. Active Learning durch Rotationsgespräche sorgt für Inklusion: Jede Gruppe wechselt Position, reflektiert Vorurteile. Abschließende Plenumsrunde fasst Konsens zusammen. Das vertieft Argumentation und fördert Empathie in 40-50 Minuten.
Welche realen Beispiele für KI-Bias gibt es?
Bekannte Fälle: COMPAS-Software in US-Justiz bewertete Schwarze höher recidivgefährdet, basierend auf biased Daten. Amazon-Recruiting-KI favorisierte Männer durch historische Bewerbungsdaten. Tesla-Fahrzeuge ignorierten dunkle Hautfarben bei Autopilot. Diskutieren Sie diese mit Schülern, analysieren Ursachen und Lösungen wie diversifizierte Datasets. Das verankert Theorie in Praxis.
Wie verbinde ich das Thema mit KMK-Standards?
STD.11 fordert ethische Reflexion zu Technik, STD.20 gesellschaftliche Implikationen. Integrieren Sie durch Projektphasen: Analyse (Bias erkennen), Diskussion (Verantwortung) und Gestaltung (Richtlinien). Bewerten Sie mit Rubriken zu Argumentation und Systemdenken. Das erfüllt Standards praxisnah und dokumentiert Kompetenzen für Berichte.

Planungsvorlagen für Informatik