Ethik und Bias in der KI
Die Schülerinnen und Schüler untersuchen Vorurteile in Algorithmen und die Verantwortung beim Einsatz von KI.
Brauchen Sie einen Unterrichtsplan für Digitale Welten Gestalten: Informatik und Gesellschaft?
Leitfragen
- Erklären Sie, wie Vorurteile in einer künstlichen Intelligenz entstehen können.
- Beurteilen Sie die Frage, wer haftet, wenn eine KI eine Fehlentscheidung trifft.
- Analysieren Sie, in welchen Bereichen KI-Entscheidungen kritisch hinterfragt werden sollten.
KMK Bildungsstandards
Über dieses Thema
Die Schülerinnen und Schüler untersuchen, wie Vorurteile in Algorithmen entstehen und welche ethischen Verantwortungen beim KI-Einsatz bestehen. Sie analysieren reale Fälle, etwa wie Trainingsdaten mit ungleicher Repräsentation von Geschlechtern oder Ethnien zu diskriminierenden Entscheidungen führen, z. B. in Gesichtserkennung oder Kreditvergabe. Die Kernfragen drehen sich um Entstehungsmechanismen von Bias, Haftungsfragen bei Fehlentscheidungen und Bereiche, in denen KI kritisch hinterfragt werden muss.
Im KMK-Lehrplan für Informatik und Gesellschaft der Sekundarstufe I steht das Bewerten von Technologien im Vordergrund. Schüler lernen, Datenquellen auf Vielfalt zu prüfen, faire Algorithmen zu fordern und gesellschaftliche Auswirkungen abzuwägen. Dies verbindet Informatikwissen mit gesellschaftlichen Kompetenzen und schult systemisches Denken, etwa bei autonomen Systemen oder personalisierten Empfehlungen.
Aktives Lernen passt hervorragend, weil abstrakte Ethikfragen durch Diskussionen und Simulationen konkret werden. Wenn Schüler Bias in Datensätzen aufspüren oder Debatten führen, internalisieren sie Verantwortung und entwickeln Urteilsfähigkeit langfristig. Solche Methoden machen den Unterricht lebendig und relevant für den Alltag.
Lernziele
- Erklären Sie, wie Verzerrungen (Bias) in Trainingsdaten zu diskriminierenden KI-Ergebnissen führen können.
- Analysieren Sie die ethischen Implikationen von KI-Entscheidungen in Bereichen wie Kreditvergabe oder Strafverfolgung.
- Bewerten Sie verschiedene Ansätze zur Minimierung von Bias in KI-Systemen und zur Gewährleistung von Fairness.
- Entwerfen Sie Kriterien zur kritischen Hinterfragung von KI-Anwendungen im öffentlichen Sektor.
Bevor es losgeht
Warum: Schüler müssen verstehen, wie KI-Modelle lernen und trainiert werden, um die Entstehung von Bias nachvollziehen zu können.
Warum: Grundkenntnisse in der Analyse von Daten sind notwendig, um Verzerrungen in Datensätzen erkennen zu können.
Schlüsselvokabular
| Algorithmic Bias | Systematische und wiederholbare Fehler in einem Computersystem, die zu unfairen Ergebnissen führen, oft aufgrund von Vorurteilen in den Trainingsdaten. |
| Trainingsdaten | Die Datensätze, die verwendet werden, um ein KI-Modell zu trainieren. Verzerrungen in diesen Daten spiegeln sich im Verhalten der KI wider. |
| Haftung | Die rechtliche Verantwortung für Schäden, die durch eine KI-Entscheidung verursacht werden. Dies kann Entwickler, Betreiber oder Nutzer betreffen. |
| Diskriminierung | Ungleichbehandlung von Personen oder Gruppen aufgrund von Merkmalen wie Geschlecht, Ethnie oder sozialem Status, die durch KI-Systeme verstärkt werden kann. |
Ideen für aktives Lernen
Alle Aktivitäten ansehenStationenrotation: Bias-Beispiele
Richten Sie vier Stationen ein: 1. Gesichtserkennungsvideos analysieren, 2. Kreditscoring-Daten prüfen, 3. Chatbot-Antworten auf Bias testen, 4. Faire Algorithmen entwerfen. Gruppen rotieren alle 10 Minuten und notieren Beobachtungen. Abschließende Plenumdiskussion fasst Ergebnisse zusammen.
Rollenspiel: Haftungsdebatte
Teilen Sie Rollen zu: KI-Entwickler, Nutzer, Geschädigter, Regulierer. Gruppen simulieren einen Unfall durch biased KI, z. B. autonomes Auto. Jede Rolle argumentiert 3 Minuten, dann votet die Klasse. Protokoll hilft bei Reflexion.
Datensatz-Analyse: Paararbeit
Paare erhalten anonymisierte Datensätze, z. B. Bewerbungsprofile. Sie zählen Repräsentation von Geschlechtern und Ethnien, identifizieren Bias und schlagen Korrekturen vor. Gemeinsame Präsentation der Klassen.
Whole Class: Ethik-Quiz
Projektieren Sie Szenarien, z. B. biased Rekrutierungstools. Schüler voten per Handzeichen oder App, diskutieren Ergebnisse. Lehrer moderiert und ergänzt Expertenwissen.
Bezüge zur Lebenswelt
In der Kreditwürdigkeitsprüfung setzen Banken KI-Systeme ein, um Anträge zu bewerten. Wenn die Trainingsdaten historische Benachteiligungen widerspiegeln, können bestimmte Bevölkerungsgruppen ungerechtfertigt abgelehnt werden.
Polizeibehörden nutzen Gesichtserkennungssoftware, die auf KI basiert. Studien zeigen, dass diese Software bei Personen mit dunklerer Hautfarbe oder Frauen häufiger Fehlalarme auslöst, was zu ungerechtfertigten Verdächtigungen führen kann.
Soziale Medienplattformen verwenden KI, um Inhalte zu moderieren und personalisierte Feeds zu erstellen. Voreingenommene Algorithmen können zur Verbreitung von Hassreden beitragen oder bestimmte Meinungen unterdrücken.
Vorsicht vor diesen Fehlvorstellungen
Häufige FehlvorstellungKI ist immer objektiv und neutral.
Was Sie stattdessen lehren sollten
Vorurteile entstehen durch biased Trainingsdaten, die reale Ungleichheiten widerspiegeln. Aktive Analysen von Datensätzen in Gruppen helfen Schülern, diese Mechanismen selbst zu entdecken und faire Alternativen zu entwickeln. Diskussionen klären, dass Technik menschengemacht ist.
Häufige FehlvorstellungNur der KI-Entwickler haftet bei Fehlern.
Was Sie stattdessen lehren sollten
Haftung teilt sich zwischen Entwicklern, Nutzern und Regulierern, je nach Kontext. Rollenspiele fördern nuanciertes Denken, da Schüler Perspektiven wechseln und gesetzliche Grauzonen debattieren. So entsteht Verständnis für geteilte Verantwortung.
Häufige FehlvorstellungBias betrifft nur soziale Medien.
Was Sie stattdessen lehren sollten
Bias wirkt in Medizin, Justiz und Verkehr. Fallstudien in Stationen zeigen breite Auswirkungen und regen Schüler an, Alltagsbeispiele zu sammeln. Dies stärkt transferierbares Wissen.
Ideen zur Lernstandserhebung
Stellen Sie die Frage: 'Wer sollte die Verantwortung tragen, wenn ein autonomes Fahrzeug einen Unfall verursacht, der durch eine Fehlentscheidung der KI verursacht wurde?' Lassen Sie die Schüler verschiedene Szenarien diskutieren (Hersteller, Programmierer, Besitzer, KI selbst) und begründen Sie ihre Positionen.
Geben Sie den Schülern ein kurzes Szenario, z. B. 'Eine KI zur Bewerberauswahl bevorzugt unbewusst Männer für technische Berufe.' Bitten Sie sie, auf einer Karteikarte zu notieren: 1. Wie könnte dieser Bias entstanden sein? 2. Nennen Sie eine Maßnahme, um diesen Bias zu reduzieren.
Zeigen Sie ein Beispiel für eine KI-Anwendung (z. B. personalisierte Werbung). Fragen Sie die Schüler: 'Welche potenziellen ethischen Probleme oder Vorurteile sehen Sie bei dieser Anwendung?' Sammeln Sie Antworten auf einem Whiteboard oder digital.
Vorgeschlagene Methoden
Bereit, dieses Thema zu unterrichten?
Erstellen Sie in Sekundenschnelle eine vollständige, unterrichtsfertige Mission für aktives Lernen.
Eigene Mission generierenHäufig gestellte Fragen
Wie entstehen Vorurteile in KI?
Wer haftet bei Fehlentscheidungen einer KI?
Wie hilft aktives Lernen beim Thema Ethik und Bias in KI?
In welchen Bereichen sollte man KI-Entscheidungen kritisch prüfen?
Planungsvorlagen für Digitale Welten Gestalten: Informatik und Gesellschaft
Mehr in Künstliche Intelligenz und Maschinelles Lernen
Einführung in Künstliche Intelligenz
Die Schülerinnen und Schüler definieren KI und unterscheiden zwischen starker und schwacher KI sowie deren Anwendungsbereichen.
2 methodologies
Wie Maschinen lernen
Die Schülerinnen und Schüler unterscheiden zwischen klassischer Programmierung und lernenden Systemen anhand von Trainingsdaten.
2 methodologies
Grundlagen des Maschinellen Lernens
Die Schülerinnen und Schüler lernen die Konzepte von überwachtem und unüberwachtem Lernen kennen und identifizieren Anwendungsbeispiele.
2 methodologies
Neuronale Netze verstehen
Die Schülerinnen und Schüler erhalten eine vereinfachte Darstellung der Funktionsweise von Neuronen und Schichten in einem Netzwerk.
2 methodologies
Anwendungen von KI im Alltag
Die Schülerinnen und Schüler identifizieren und analysieren verschiedene KI-Anwendungen in ihrem Alltag (z.B. Sprachassistenten, Empfehlungssysteme).
2 methodologies