Zum Inhalt springen
Informatik · Klasse 12 · Informatik und Gesellschaft · 2. Halbjahr

Ethik der Künstlichen Intelligenz

Die Schülerinnen und Schüler reflektieren über ethische Fragen im Zusammenhang mit KI, wie Bias, Diskriminierung und Verantwortung.

KMK BildungsstandardsKMK: Sekundarstufe II - Interagieren und ReflektierenKMK: Sekundarstufe II - Beurteilen und Bewerten

Über dieses Thema

Die Ethik der Künstlichen Intelligenz thematisiert moralische Dilemmata, die mit KI-Entwicklungen verbunden sind. Schülerinnen und Schüler der 12. Klasse reflektieren Bias in Trainingsdaten, diskriminierende Algorithmen und Verantwortungsfragen bei Fehlentscheidungen. Dies verbindet sich eng mit den KMK-Standards Sekundarstufe II für Interagieren und Reflektieren sowie Beurteilen und Bewerten. Lernende analysieren reale Fälle wie Vorurteile in Gesichtserkennung oder Kreditvergabe und üben, ethische Konsequenzen abzuwägen.

Im Fach Informatik und Gesellschaft fördert das Thema systemisches Denken. Schülerinnen und Schüler bewerten, wie unbalancierte Daten zu Ungleichheiten führen und warum Transparenz sowie Erklärbarkeit in KI-Systemen unerlässlich sind. Sie lernen, Verantwortung zwischen Entwicklern, Betreibern und Gesellschaft zuzuweisen. Solche Diskussionen stärken das Urteilsvermögen für eine vernetzte Welt.

Aktives Lernen passt hervorragend zu diesem Thema, weil abstrakte ethische Fragen durch Rollenspiele, Debatten und Fallanalysen konkret werden. Schülerinnen und Schüler argumentieren in Gruppen, wechseln Perspektiven und entwickeln Lösungen gemeinsam. Dadurch entsteht echtes Engagement und ein nachhaltiges Verständnis komplexer Verantwortlichkeiten.

Leitfragen

  1. Wer trägt die Verantwortung, wenn eine KI eine Fehlentscheidung trifft?
  2. Wie können Vorurteile in Trainingsdaten zu diskriminierenden Algorithmen führen?
  3. Beurteilen Sie die Notwendigkeit von Transparenz und Erklärbarkeit in KI-Systemen.

Lernziele

  • Analysieren Sie Fallbeispiele, um spezifische ethische Probleme im Zusammenhang mit KI-Bias und Diskriminierung zu identifizieren.
  • Bewerten Sie die Angemessenheit verschiedener Ansätze zur Gewährleistung von Transparenz und Erklärbarkeit in KI-Systemen.
  • Entwickeln Sie Argumente zur Zuweisung von Verantwortung bei Fehlentscheidungen von KI-Systemen unter Berücksichtigung verschiedener Akteure.
  • Vergleichen Sie die ethischen Implikationen von KI-Anwendungen in verschiedenen Sektoren wie dem Gesundheitswesen und der Strafjustiz.

Bevor es losgeht

Grundlagen von Algorithmen und Datenstrukturen

Warum: Ein Verständnis dafür, wie Algorithmen funktionieren, ist notwendig, um zu verstehen, wie Bias in sie gelangen kann.

Grundlagen der Datenverarbeitung und -analyse

Warum: Schüler müssen die Konzepte von Trainingsdaten und Datenmustern verstehen, um die Ursachen von Bias nachvollziehen zu können.

Schlüsselvokabular

KI-BiasSystematische Verzerrungen in den Ergebnissen eines KI-Systems, die oft aus unausgewogenen oder vorurteilsbehafteten Trainingsdaten resultieren.
Algorithmische DiskriminierungUngerechte oder nachteilige Behandlung von Personen oder Gruppen durch KI-Algorithmen, die auf Merkmalen wie Rasse, Geschlecht oder sozialem Status basiert.
Erklärbarkeit (Explainability)Die Fähigkeit, die Entscheidungen und Vorhersagen eines KI-Systems für Menschen verständlich zu machen.
VerantwortungszuweisungDer Prozess der Bestimmung, wer für die Handlungen oder Ergebnisse eines KI-Systems haftbar gemacht werden kann, z. B. Entwickler, Betreiber oder Nutzer.
TransparenzDer Grad, in dem die Funktionsweise, die Datenquellen und die Entscheidungsprozesse eines KI-Systems offengelegt und nachvollziehbar sind.

Vorsicht vor diesen Fehlvorstellungen

Häufige FehlvorstellungKI ist neutral und frei von Vorurteilen.

Was Sie stattdessen lehren sollten

KI übernimmt Bias aus Trainingsdaten, was zu Diskriminierung führt. Dataset-Analysen in Gruppen lassen Schüler Vorurteile selbst entdecken und Korrekturmaßnahmen erörtern.

Häufige FehlvorstellungNur Entwickler tragen Verantwortung für KI-Fehler.

Was Sie stattdessen lehren sollten

Verantwortung liegt bei allen Beteiligten, inklusive Nutzer und Gesellschaft. Rollenspiele helfen, multiple Perspektiven einzunehmen und geteilte Pflichten zu verstehen.

Häufige FehlvorstellungTransparenz schwächt KI-Systeme unnötig.

Was Sie stattdessen lehren sollten

Erklärbarkeit schafft Vertrauen und ermöglicht Kontrolle. Debatten zeigen, wie Transparenz ethische Risiken minimiert, ohne Effizienz stark zu beeinträchtigen.

Ideen für aktives Lernen

Alle Aktivitäten ansehen

Bezüge zur Lebenswelt

  • Gerichte in den USA setzen zunehmend KI-gestützte Risikobewertungstools ein, um über Haftentscheidungen zu informieren. Diese Systeme können jedoch unbeabsichtigt Vorurteile aus historischen Daten widerspiegeln und die Diskriminierung von Minderheitengruppen verstärken.
  • Finanzinstitute wie die Deutsche Bank nutzen KI für Kreditentscheidungen. Die Transparenz dieser Algorithmen ist entscheidend, um sicherzustellen, dass keine diskriminierenden Praktiken angewendet werden, die bestimmten Bevölkerungsgruppen den Zugang zu Krediten verwehren.
  • Automobilhersteller wie Volkswagen entwickeln autonome Fahrsysteme. Die Frage der Verantwortung bei Unfällen, die durch solche Systeme verursacht werden, ist komplex und erfordert klare ethische Richtlinien und gesetzliche Regelungen.

Ideen zur Lernstandserhebung

Diskussionsfrage

Teilen Sie die Klasse in Kleingruppen auf und geben Sie jeder Gruppe einen kurzen Fallbericht über eine KI-Fehlentscheidung (z. B. fehlerhafte Gesichtserkennung, falsche Kreditbewertung). Bitten Sie die Gruppen, folgende Fragen zu diskutieren und ihre Ergebnisse zu präsentieren: 1. Welche ethischen Probleme sind in diesem Fall aufgetreten? 2. Wer trägt die Verantwortung für die Fehlentscheidung und warum?

Lernstandskontrolle

Geben Sie jedem Schüler eine Karte mit der Frage: 'Nennen Sie ein Beispiel für KI-Bias und erklären Sie kurz, wie es zu Diskriminierung führen kann. Welche Maßnahme könnte helfen, dieses Problem zu mildern?'

Gegenseitige Bewertung

Lassen Sie die Schüler anonym kurze Argumentationen zur Notwendigkeit von Transparenz in KI-Systemen verfassen. Tauschen Sie die Argumentationen paarweise aus. Die Schüler bewerten die Argumentation ihres Partners anhand von zwei Kriterien: Klarheit der Argumentation und Relevanz der Beispiele. Geben Sie konstruktives Feedback.

Häufig gestellte Fragen

Wer trägt Verantwortung bei Fehlentscheidungen einer KI?
Verantwortung verteilt sich auf Entwickler für Design und Daten, Betreiber für Einsatz und Nutzer für Anwendung. Schüler lernen in Reflexionen, dass regulatorische Rahmen notwendig sind, um Haftung klar zu regeln. Dies fördert ein nuanciertes Verständnis, das über Schuldzuweisung hinausgeht und präventive Maßnahmen betont.
Wie führen Vorurteile in Trainingsdaten zu Diskriminierung?
Trainingsdaten spiegeln gesellschaftliche Ungleichheiten wider, z. B. unterrepräsentierte Gruppen in Bildern. Algorithmen lernen daraus generalisierte Muster, die zu unfairen Entscheidungen führen, wie falsche Ablehnungen bei Bewerbungen. Analysen zeigen, wie Diversifizierung und Auditing Bias reduzieren können.
Warum ist Transparenz in KI-Systemen essenziell?
Transparenz ermöglicht Nachvollziehbarkeit von Entscheidungen, baut Vertrauen auf und erlaubt Korrekturen von Fehlern. Ohne Erklärbarkeit bleiben Black-Box-Systeme unkontrollierbar, was Risiken wie Diskriminierung verstärkt. Bewertungen lehren Schüler, Transparenz als Kern ethischer KI zu fordern.
Wie unterstützt aktives Lernen beim Thema KI-Ethik?
Aktives Lernen macht ethische Konflikte erfahrbar durch Debatten, Rollenspiele und Gruppendiskussionen. Schüler argumentieren aktiv, testen Perspektiven und entwickeln eigene Urteile. Solche Methoden vertiefen Reflexion, fördern Empathie und machen abstrakte Themen relevant, was zu bleibendem Wissen führt.

Planungsvorlagen für Informatik