Ethik und Bias in der KIAktivitäten & Unterrichtsstrategien
Aktives Lernen eignet sich besonders gut für dieses Thema, weil Bias in KI oft unsichtbar bleibt, bis Schülerinnen und Schüler sie selbst entdecken. Durch praktische Analysen und Rollenspiele entwickeln sie ein Gespür für die ethischen und technischen Zusammenhänge, die hinter Algorithmen stecken.
Lernziele
- 1Erklären Sie, wie Verzerrungen (Bias) in Trainingsdaten zu diskriminierenden KI-Ergebnissen führen können.
- 2Analysieren Sie die ethischen Implikationen von KI-Entscheidungen in Bereichen wie Kreditvergabe oder Strafverfolgung.
- 3Bewerten Sie verschiedene Ansätze zur Minimierung von Bias in KI-Systemen und zur Gewährleistung von Fairness.
- 4Entwerfen Sie Kriterien zur kritischen Hinterfragung von KI-Anwendungen im öffentlichen Sektor.
Möchten Sie einen vollständigen Unterrichtsentwurf mit diesen Lernzielen? Mission erstellen →
Stationenrotation: Bias-Beispiele
Richten Sie vier Stationen ein: 1. Gesichtserkennungsvideos analysieren, 2. Kreditscoring-Daten prüfen, 3. Chatbot-Antworten auf Bias testen, 4. Faire Algorithmen entwerfen. Gruppen rotieren alle 10 Minuten und notieren Beobachtungen. Abschließende Plenumdiskussion fasst Ergebnisse zusammen.
Vorbereitung & Details
Erklären Sie, wie Vorurteile in einer künstlichen Intelligenz entstehen können.
Moderationstipp: Stellen Sie bei der Stationenrotation sicher, dass jede Gruppe mindestens ein Beispiel mit Geschlechter- und ein Beispiel mit Ethnie-Bias bearbeitet, um unterschiedliche Perspektiven abzubilden.
Setup: Innenkreis mit 4–6 Stühlen, umgeben von einem Außenkreis
Materials: Diskussionsimpuls oder Leitfrage, Beobachtungsbogen
Rollenspiel: Haftungsdebatte
Teilen Sie Rollen zu: KI-Entwickler, Nutzer, Geschädigter, Regulierer. Gruppen simulieren einen Unfall durch biased KI, z. B. autonomes Auto. Jede Rolle argumentiert 3 Minuten, dann votet die Klasse. Protokoll hilft bei Reflexion.
Vorbereitung & Details
Beurteilen Sie die Frage, wer haftet, wenn eine KI eine Fehlentscheidung trifft.
Moderationstipp: Begrenzen Sie im Rollenspiel die Debattenzeit pro Position auf 5 Minuten, damit alle Perspektiven gehört werden und die Schüler nicht in Details verlieren.
Setup: Spielfläche oder entsprechend angeordnete Tische für das Szenario
Materials: Rollenkarten mit Hintergrundinfos und Zielen, Szenario-Briefing
Datensatz-Analyse: Paararbeit
Paare erhalten anonymisierte Datensätze, z. B. Bewerbungsprofile. Sie zählen Repräsentation von Geschlechtern und Ethnien, identifizieren Bias und schlagen Korrekturen vor. Gemeinsame Präsentation der Klassen.
Vorbereitung & Details
Analysieren Sie, in welchen Bereichen KI-Entscheidungen kritisch hinterfragt werden sollten.
Moderationstipp: Fordern Sie bei der Datensatz-Analyse die Schüler auf, ihre Beobachtungen direkt in eine gemeinsame Tabelle einzutragen, damit die Klasse die Muster im Anschluss gemeinsam diskutieren kann.
Setup: Innenkreis mit 4–6 Stühlen, umgeben von einem Außenkreis
Materials: Diskussionsimpuls oder Leitfrage, Beobachtungsbogen
Whole Class: Ethik-Quiz
Projektieren Sie Szenarien, z. B. biased Rekrutierungstools. Schüler voten per Handzeichen oder App, diskutieren Ergebnisse. Lehrer moderiert und ergänzt Expertenwissen.
Vorbereitung & Details
Erklären Sie, wie Vorurteile in einer künstlichen Intelligenz entstehen können.
Moderationstipp: Nutzen Sie beim Ethik-Quiz die falschen Antworten der Schüler als Diskussionsimpulse, um typische Fehlvorstellungen gezielt aufzugreifen.
Setup: Innenkreis mit 4–6 Stühlen, umgeben von einem Außenkreis
Materials: Diskussionsimpuls oder Leitfrage, Beobachtungsbogen
Dieses Thema unterrichten
Erfahrungsgemäß gelingt der Zugang über konkrete Fälle besser als abstrakte Erklärungen zu Bias-Mechanismen. Vermeiden Sie es, die Technik zu stark zu vereinfachen, sondern zeigen Sie, wie menschliche Entscheidungen in Daten und Code eingeschrieben werden. Betonen Sie immer wieder, dass KI kein neutrales Werkzeug ist, sondern ein Spiegel gesellschaftlicher Strukturen.
Was Sie erwartet
Am Ende der Einheit können die Schülerinnen und Schüler Vorurteile in KI-Systemen identifizieren, ihre Entstehung erklären und Verantwortungsfragen differenziert diskutieren. Sie nutzen konkrete Beispiele, um Lösungsansätze für faire KI zu entwickeln und anzuwenden.
Diese Aktivitäten sind ein Ausgangspunkt. Die vollständige Mission ist das Erlebnis.
- Vollständiges Moderationsskript mit Lehrkraft-Dialogen
- Druckfertige Schülermaterialien, bereit für den Unterricht
- Differenzierungsstrategien für jeden Lerntyp
Vorsicht vor diesen Fehlvorstellungen
Häufige FehlvorstellungWährend der Stationenrotation zu Bias-Beispielen achten Sie darauf, dass einige Schüler annehmen, KI sei immer neutral. Fordern Sie die Gruppen auf, die Trainingsdaten der Beispiele zu untersuchen und gemeinsam zu formulieren, wie die Daten die Vorurteile reproduzieren.
Was Sie stattdessen lehren sollten
Während der Stationenrotation zu Bias-Beispielen achten Sie darauf, dass einige Schüler annehmen, KI sei immer neutral. Fordern Sie die Gruppen auf, die Trainingsdaten der Beispiele zu untersuchen und gemeinsam zu formulieren, wie die Daten die Vorurteile reproduzieren.
Häufige FehlvorstellungWährend des Rollenspiels zur Haftungsdebatte könnte der Eindruck entstehen, nur der Entwickler trage die volle Verantwortung. Lenken Sie die Diskussion darauf, dass die Schüler die Rollenkarten nutzen, um Verantwortung zwischen Hersteller, Nutzer und Regulierer aufzuteilen.
Was Sie stattdessen lehren sollten
Während des Rollenspiels zur Haftungsdebatte könnte der Eindruck entstehen, nur der Entwickler trage die volle Verantwortung. Lenken Sie die Diskussion darauf, dass die Schüler die Rollenkarten nutzen, um Verantwortung zwischen Hersteller, Nutzer und Regulierer aufzuteilen.
Häufige FehlvorstellungWährend der Stationenrotation zu Bias-Beispielen wird Bias manchmal nur mit sozialen Medien assoziiert. Fordern Sie die Schüler auf, die Beispiele systematisch nach Anwendungsbereichen zu sortieren und überlegen, wo sie selbst bereits mit KI-Systemen in Kontakt gekommen sind.
Was Sie stattdessen lehren sollten
Während der Stationenrotation zu Bias-Beispielen wird Bias manchmal nur mit sozialen Medien assoziiert. Fordern Sie die Schüler auf, die Beispiele systematisch nach Anwendungsbereichen zu sortieren und überlegen, wo sie selbst bereits mit KI-Systemen in Kontakt gekommen sind.
Ideen zur Lernstandserhebung
Nach dem Rollenspiel zur Haftungsdebatte stellen Sie die Frage: 'Wer sollte die Verantwortung tragen, wenn ein autonomes Fahrzeug einen Unfall verursacht, der durch eine Fehlentscheidung der KI verursacht wurde?' Lassen Sie die Schüler ihre Positionen mit den Argumenten aus dem Rollenspiel begründen.
Nach der Datensatz-Analyse geben Sie den Schülern ein Szenario vor, z. B. 'Eine KI zur Bewerberauswahl bevorzugt unbewusst Männer für technische Berufe.' Die Schüler notieren auf einer Karteikarte, wie dieser Bias entstanden sein könnte und welche Maßnahme ihn reduzieren würde.
Während des Ethik-Quizzes zeigen Sie ein Beispiel für eine KI-Anwendung, z. B. personalisierte Werbung. Die Schüler nennen auf Zuruf oder einem Whiteboard potenzielle ethische Probleme oder Vorurteile und begründen sie kurz.
Erweiterungen & Unterstützung
- Fordern Sie schnelle Gruppen auf, ein fiktives KI-System zu entwerfen, das einen identifizierten Bias vermeidet und ihre Lösung schriftlich zu begründen.
- Unterstützen Sie unsichere Schüler mit vorstrukturierten Fragen zu den Datensätzen und bieten Sie eine Liste mit Beispiel-Fragen zur Diskussion im Rollenspiel an.
- Vertiefen Sie mit einer Rechercheaufgabe: Bitten Sie die Schüler, aktuelle Nachrichtenartikel zu KI-Bias zu finden und im Plenum vorzustellen.
Schlüsselvokabular
| Algorithmic Bias | Systematische und wiederholbare Fehler in einem Computersystem, die zu unfairen Ergebnissen führen, oft aufgrund von Vorurteilen in den Trainingsdaten. |
| Trainingsdaten | Die Datensätze, die verwendet werden, um ein KI-Modell zu trainieren. Verzerrungen in diesen Daten spiegeln sich im Verhalten der KI wider. |
| Haftung | Die rechtliche Verantwortung für Schäden, die durch eine KI-Entscheidung verursacht werden. Dies kann Entwickler, Betreiber oder Nutzer betreffen. |
| Diskriminierung | Ungleichbehandlung von Personen oder Gruppen aufgrund von Merkmalen wie Geschlecht, Ethnie oder sozialem Status, die durch KI-Systeme verstärkt werden kann. |
Vorgeschlagene Methoden
Planungsvorlagen für Digitale Welten Gestalten: Informatik und Gesellschaft
Mehr in Künstliche Intelligenz und Maschinelles Lernen
Einführung in Künstliche Intelligenz
Die Schülerinnen und Schüler definieren KI und unterscheiden zwischen starker und schwacher KI sowie deren Anwendungsbereichen.
2 methodologies
Wie Maschinen lernen
Die Schülerinnen und Schüler unterscheiden zwischen klassischer Programmierung und lernenden Systemen anhand von Trainingsdaten.
2 methodologies
Grundlagen des Maschinellen Lernens
Die Schülerinnen und Schüler lernen die Konzepte von überwachtem und unüberwachtem Lernen kennen und identifizieren Anwendungsbeispiele.
2 methodologies
Neuronale Netze verstehen
Die Schülerinnen und Schüler erhalten eine vereinfachte Darstellung der Funktionsweise von Neuronen und Schichten in einem Netzwerk.
2 methodologies
Anwendungen von KI im Alltag
Die Schülerinnen und Schüler identifizieren und analysieren verschiedene KI-Anwendungen in ihrem Alltag (z.B. Sprachassistenten, Empfehlungssysteme).
2 methodologies
Bereit, Ethik und Bias in der KI zu unterrichten?
Erstellen Sie eine vollständige Mission mit allem, was Sie brauchen
Mission erstellen