Skip to content

Ethik und Bias in KI-SystemenAktivitäten & Unterrichtsstrategien

Künstliche Intelligenz prägt zunehmend unseren Alltag, doch ihre ethischen Implikationen bleiben oft unsichtbar. Durch aktive Auseinandersetzung mit realen Fällen und Rollenspielen verstehen Schülerinnen und Schüler, dass KI-Systeme nicht neutral sind und gesellschaftliche Verantwortung tragen. Diese Zugänge fördern kritisches Denken und zeigen, wie Informatik und Ethik zusammenhängen.

Klasse 10Digitale Welten Gestalten: Informatik in der Praxis4 Aktivitäten35 Min.50 Min.

Lernziele

  1. 1Analysieren Sie die Ursachen und Auswirkungen von Bias in KI-Algorithmen anhand konkreter Fallbeispiele.
  2. 2Bewerten Sie die ethischen Implikationen der Entscheidungsfindung durch KI-Systeme in verschiedenen gesellschaftlichen Bereichen.
  3. 3Entwickeln Sie Lösungsansätze zur Minimierung von Bias und zur Gewährleistung von Transparenz in KI-Anwendungen.
  4. 4Erklären Sie die Konzepte von Verantwortung und Haftung im Kontext von KI-Fehlentscheidungen.

Möchten Sie einen vollständigen Unterrichtsentwurf mit diesen Lernzielen? Mission erstellen

45 Min.·Kleingruppen

Rollenspiel: Haftung in KI-Fehlern

Teilen Sie die Klasse in Gruppen ein, jede übernimmt Rollen wie KI-Entwickler, Nutzer und Geschädigter. Stellen Sie ein Szenario vor, z. B. falsche medizinische Diagnose durch KI. Gruppen diskutieren 10 Minuten, rotieren Rollen und fassen zusammen.

Vorbereitung & Details

Wer haftet für Fehlentscheidungen einer KI?

Moderationstipp: Legen Sie beim Rollenspiel klare Rollenbeschreibungen vor, damit die Schüler die Perspektiven von Hersteller, Nutzer und Betroffenem konkret ausarbeiten können.

Setup: Spielfläche oder entsprechend angeordnete Tische für das Szenario

Materials: Rollenkarten mit Hintergrundinfos und Zielen, Szenario-Briefing

AnwendenAnalysierenBewertenSozialbewusstseinSelbstwahrnehmung
50 Min.·Partnerarbeit

Bias-Detektiv: Dataset-Analyse

Geben Sie anonymisierte Datensätze aus Recruiting-Algorithmen. Schüler identifizieren Vorurteile, z. B. Geschlechterbias, in Paaren. Erstellen Sie eine Tabelle mit Ursachen und Lösungsvorschlägen, präsentieren im Plenum.

Vorbereitung & Details

Wie verhindern wir die Verstärkung gesellschaftlicher Vorurteile?

Moderationstipp: Fordern Sie die Schüler auf, beim Bias-Detektiv mindestens drei konkrete Beispiele in den Datensätzen zu markieren und zu begründen.

Setup: Zwei sich gegenüberstehende Teams, Sitzplätze für das Publikum

Materials: Thesenkarte für die Debatte, Recherche-Dossier für jede Seite, Bewertungsbogen für das Publikum, Stoppuhr

AnalysierenBewertenErschaffenSelbststeuerungEntscheidungsfähigkeit
40 Min.·Ganze Klasse

Fireside Chat: Transparenz-Debatte

Formen Sie Pro- und Contra-Teams zu 'Algorithmen als Richter'. Jede Seite bereitet Argumente vor, moderiert durch Sie. Schüler notieren Gegenargumente und stimmen anonym ab.

Vorbereitung & Details

Sollten Algorithmen über Menschen urteilen dürfen?

Moderationstipp: Stellen Sie im Fireside Chat gezielte Nachfragen, um die Teilnehmer dazu zu bringen, ihre Argumente mit Beispielen zu untermauern.

Setup: Zwei sich gegenüberstehende Teams, Sitzplätze für das Publikum

Materials: Thesenkarte für die Debatte, Recherche-Dossier für jede Seite, Bewertungsbogen für das Publikum, Stoppuhr

AnalysierenBewertenErschaffenSelbststeuerungEntscheidungsfähigkeit
35 Min.·Kleingruppen

Ethik-Richtlinie: Gruppenentwicklung

Gruppen entwerfen Richtlinien für faire KI, basierend auf besprochenen Fällen. Integrieren Sie Elemente wie Audit-Pflicht. Präsentieren und vergleichen die Vorschläge.

Vorbereitung & Details

Wer haftet für Fehlentscheidungen einer KI?

Moderationstipp: Geben Sie den Gruppen für die Ethik-Richtlinie eine klare Struktur vor (z.B. Grundprinzipien, Umsetzungsbeispiele, Kontrollmechanismen), um die Diskussion zu fokussieren.

Setup: Zwei sich gegenüberstehende Teams, Sitzplätze für das Publikum

Materials: Thesenkarte für die Debatte, Recherche-Dossier für jede Seite, Bewertungsbogen für das Publikum, Stoppuhr

AnalysierenBewertenErschaffenSelbststeuerungEntscheidungsfähigkeit

Dieses Thema unterrichten

Erfahrungsgemäß gelingt die Vermittlung dieses Themas am besten durch handlungsorientierte Methoden, die Technik und Ethik verbinden. Beginnen Sie mit konkreten Beispielen aus dem Alltag, um die Relevanz zu verdeutlichen. Vermeiden Sie abstrakte Vorträge, sondern lassen Sie die Schüler selbst aktiv werden. Aktuelle Studien zeigen, dass Schüler durch eigene Entdeckungen (z.B. Bias in Bilderkennung) nachhaltiger lernen als durch reine Theorie.

Was Sie erwartet

Am Ende dieser Einheit können die Lernenden Verantwortungsfragen bei KI-Entscheidungen benennen, Bias in Datensätzen identifizieren und konkrete Maßnahmen zur Vermeidung vorschlagen. Sie argumentieren sachlich in Debatten und entwickeln ein Bewusstsein für die Grenzen automatisierter Systeme.

Diese Aktivitäten sind ein Ausgangspunkt. Die vollständige Mission ist das Erlebnis.

  • Vollständiges Moderationsskript mit Lehrkraft-Dialogen
  • Druckfertige Schülermaterialien, bereit für den Unterricht
  • Differenzierungsstrategien für jeden Lerntyp
Mission erstellen

Vorsicht vor diesen Fehlvorstellungen

Häufige FehlvorstellungDuring der Gruppenarbeit zur Dataset-Analyse beobachten Sie häufig die Annahme: 'KI-Systeme sind immer neutral und objektiv'.

Was Sie stattdessen lehren sollten

Nutzen Sie die konkreten Datensätze, um zu zeigen, wie historische Ungleichheiten in Trainingsdaten reproduziert werden. Fragen Sie die Schüler, welche gesellschaftlichen Gruppen in den Daten unterrepräsentiert sind und welche Folgen das hat.

Häufige FehlvorstellungWährend des Rollenspiels zur Haftung räumen einige Schüler ein: 'Bias entsteht nur durch absichtliche Programmierung'.

Was Sie stattdessen lehren sollten

Lenken Sie die Diskussion auf die unbewussten Muster in den Trainingsdaten zurück. Fordern Sie die Schüler auf, Beispiele zu nennen, wo Bias ohne bewusste Absicht entsteht, und lassen Sie sie über Gegenmaßnahmen diskutieren.

Häufige FehlvorstellungIm Fireside Chat äußern einige Teilnehmer die Meinung: 'Transparenz in KI ist technisch unmöglich'.

Was Sie stattdessen lehren sollten

Zeigen Sie anhand von Explainable AI-Tools (z.B. LIME oder SHAP), wie Algorithmen zumindest teilweise nachvollziehbar gemacht werden können. Lassen Sie die Schüler diskutieren, welche Grenzen trotzdem bestehen.

Ideen zur Lernstandserhebung

Diskussionsfrage

After dem Rollenspiel zur Haftung bitten Sie die Schüler, ihre Positionen in einem kurzen Reflexionspapier festzuhalten. Bewerten Sie, wie überzeugend sie ihre Argumente mit Beispielen untermauern und ob sie die Komplexität des Themas erkennen.

Lernstandskontrolle

During der Bias-Detektiv-Aktivität lassen Sie die Schüler nach Abschluss einen Zettel mit einer konkreten Beobachtung aus der Dataset-Analyse abgeben. Sammeln Sie diese ein und prüfen Sie, ob sie Bias identifizieren und erklären können.

Kurze Überprüfung

After dem Fireside Chat zeigen Sie ein kurzes Video zu einem KI-Bias-Fall. Fragen Sie die Schüler per Handzeichen, welches ethische Problem sie erkennen und welche Lösung sie vorschlagen würden. Notieren Sie häufige Antworten, um gezielt nachzuarbeiten.

Erweiterungen & Unterstützung

  • Fordern Sie schnelle Gruppen auf, eine KI-Ethik-Richtlinie für ein fiktives Unternehmen zu erstellen, das Bewerbungen automatisiert filtert.
  • Für Schüler mit Schwierigkeiten bereiten Sie eine Liste mit typischen Bias-Beispielen vor, die sie als Ausgangspunkt für die Dataset-Analyse nutzen können.
  • Vertiefen Sie mit einer Rechercheaufgabe: Lassen Sie die Schüler aktuelle Medienberichte zu KI-Fehlentscheidungen analysieren und in einer Tabelle ethische Probleme, Ursachen und Lösungsansätze gegenüberstellen.

Schlüsselvokabular

Algorithmic BiasSystematische und wiederholbare Fehler in einem Computersystem, die zu unfairen Ergebnissen führen, oft durch verzerrte Trainingsdaten.
Transparenz (KI)Die Nachvollziehbarkeit, wie eine KI zu ihren Entscheidungen gelangt, einschließlich der verwendeten Daten und Modelle.
Haftung (KI)Die rechtliche oder moralische Verantwortung für Schäden oder Fehlentscheidungen, die durch ein KI-System verursacht werden.
Diskriminierung durch KIUngleichbehandlung von Personen oder Gruppen durch KI-Systeme, basierend auf Merkmalen wie Geschlecht, Ethnie oder Alter.

Bereit, Ethik und Bias in KI-Systemen zu unterrichten?

Erstellen Sie eine vollständige Mission mit allem, was Sie brauchen

Mission erstellen