Skip to content
Informatik · Klasse 11

Ideen für aktives Lernen

Künstliche Intelligenz und Ethik

Aktive Lernformen wie Simulationen und Rollenspiele eignen sich besonders gut, um die abstrakte Thematik von KI und Ethik greifbar zu machen. Schülerinnen und Schüler erkennen erst im praktischen Tun, wie Algorithmen Vorurteile übernehmen und welche gesellschaftlichen Folgen dies hat. Gleichzeitig fördert die direkte Auseinandersetzung mit echten Fällen das kritische Denken über technische und moralische Verantwortung.

KMK BildungsstandardsKMK: Sekundarstufe II - Informatik, Mensch und GesellschaftKMK: Sekundarstufe II - Bewerten
40–60 Min.Partnerarbeit → Ganze Klasse4 Aktivitäten

Aktivität 01

Sokratisches Seminar45 Min. · Kleingruppen

Gruppenanalyse: Bias in realen Fällen

Teilen Sie reale Beispiele wie COMPAS oder Gesichtserkennung aus. Gruppen sammeln Ursachen für Bias, notieren Auswirkungen und schlagen Lösungen vor. Präsentieren Sie Ergebnisse in Plenum.

Kann ein Algorithmus moralische Entscheidungen treffen?

ModerationstippBitten Sie die Gruppen während der Analyse realer Bias-Fälle, konkret zu benennen, welche gesellschaftlichen Gruppen benachteiligt werden und wie sich dies im Algorithmus widerspiegelt.

Worauf zu achten istDie Schüler erhalten eine kurze Beschreibung eines KI-Anwendungsfalls (z.B. Gesichtserkennung für Zugangskontrollen). Sie sollen auf einem Zettel notieren: 1. Welche Art von Bias könnte hier auftreten? 2. Nennen Sie eine mögliche Konsequenz dieses Bias.

AnalysierenBewertenErschaffenSozialbewusstseinBeziehungsfähigkeit
Komplette Unterrichtsstunde erstellen

Aktivität 02

Planspiel50 Min. · Partnerarbeit

Planspiel: Einfaches ML-Modell bauen

Nutzen Sie Tools wie Teachable Machine. Schüler laden neutrale und biased Daten hoch, trainieren Modelle und vergleichen Ergebnisse. Diskutieren Sie Unterschiede in Kleingruppen.

Wie entstehen Vorurteile in KI-Systemen und wie können wir sie verhindern?

ModerationstippGeben Sie den Schülerinnen und Schülern beim Bau des einfachen ML-Modells klare Vorgaben für die Datenerhebung, um Verzerrungen gezielt zu provozieren und so den Bias-Effekt sichtbar zu machen.

Worauf zu achten istStellen Sie die Frage: 'Wer trägt die Verantwortung, wenn ein autonomes Fahrzeug einen Unfall verursacht?' Die Schüler sollen in Kleingruppen diskutieren und die verschiedenen Akteure (Hersteller, Programmierer, Halter, KI selbst) und ihre jeweilige Verantwortung benennen und begründen.

AnwendenAnalysierenBewertenErschaffenSozialbewusstseinEntscheidungsfähigkeit
Komplette Unterrichtsstunde erstellen

Aktivität 03

Rollenspiel40 Min. · Kleingruppen

Rollenspiel: Verantwortung bei KI-Fehlern

Schüler übernehmen Rollen wie Entwickler, Nutzer und Betroffener in einem Szenario. Diskutieren Sie Schuldfragen und Regeln. Abschließende Reflexion im Plenum.

Wer trägt die Verantwortung, wenn eine KI einen Fehler macht?

ModerationstippWeisen Sie die Rollenspiel-Teilnehmenden an, nach dem Spiel eine Reflexionsphase einzulegen, in der sie benennen, welche Entscheidungen sie als fair oder unfair empfunden haben und warum.

Worauf zu achten istPräsentieren Sie zwei kurze, vereinfachte Datensätze für ein KI-Modell (z.B. zur Vorhersage von Prüfungserfolg). Ein Datensatz ist bewusst verzerrt (z.B. nur Daten von Schülern einer bestimmten Schule). Die Schüler sollen kurz erklären, welcher Datensatz wahrscheinlich zu einem verzerrten Modell führt und warum.

AnwendenAnalysierenBewertenSozialbewusstseinSelbstwahrnehmung
Komplette Unterrichtsstunde erstellen

Aktivität 04

Debatte60 Min. · Ganze Klasse

Debatte: Moralische KI-Entscheidungen

Teilen Sie Klasse in Für- und Gegenpositionen. Jede Seite bereitet Argumente vor, debattiert 10 Minuten pro Runde. Bewerten Sie mit Rubrik.

Kann ein Algorithmus moralische Entscheidungen treffen?

Worauf zu achten istDie Schüler erhalten eine kurze Beschreibung eines KI-Anwendungsfalls (z.B. Gesichtserkennung für Zugangskontrollen). Sie sollen auf einem Zettel notieren: 1. Welche Art von Bias könnte hier auftreten? 2. Nennen Sie eine mögliche Konsequenz dieses Bias.

AnalysierenBewertenErschaffenSelbststeuerungEntscheidungsfähigkeit
Komplette Unterrichtsstunde erstellen

Vorlagen

Vorlagen, die zu diesen Informatik-Aktivitäten passen

Nutzen, bearbeiten, drucken oder teilen.

Einige Hinweise zum Unterrichten dieser Einheit

Erfahrene Lehrkräfte setzen bei diesem Thema auf eine Mischung aus Theorie und Praxis, um die Komplexität der Thematik zu reduzieren. Sie vermeiden abstrakte Definitionen von Bias und setzen stattdessen auf konkrete Beispiele und eigene Experimente mit Daten. Wichtig ist, dass Schülerinnen und Schüler die Grenzen von KI-Systemen selbst erleben, etwa durch verzerrte Datensätze oder moralische Dilemmata. Eine offene Fehlerkultur hilft, Vorurteile nicht als individuelles Versagen, sondern als systemisches Problem zu begreifen.

Am Ende dieser Einheit können die Lernenden erklären, wie Bias in KI entsteht und welche Rolle Trainingsdaten dabei spielen. Sie sind in der Lage, Verantwortungsfragen bei KI-Entscheidungen zu diskutieren und argumentieren sachlich über ethische Grenzen maschineller Systeme. Die Fähigkeit, eigene Vorurteile in Algorithmen zu erkennen und zu minimieren, steht im Mittelpunkt.


Vorsicht vor diesen Fehlvorstellungen

  • Während der Gruppenanalyse von Bias in realen Fällen hören Sie oft den Satz: 'KI-Algorithmen sind immer objektiv und neutral.'

    Nutzen Sie die bereitgestellten Fallbeispiele (z.B. Kreditvergabe oder Polizeiarbeit), um die Schülerinnen und Schüler gezielt nach Vorurteilen in den Trainingsdaten zu fragen. Lassen Sie sie ein konkretes Beispiel herausarbeiten, wo der Algorithmus diskriminiert, und diskutieren Sie, wie sich dies im Code widerspiegelt.

  • Immer wieder wird behauptet: 'Bias in KI lässt sich vollständig eliminieren.'

    Greifen Sie auf die Simulationsergebnisse des einfachen ML-Modells zurück und zeigen Sie, wie selbst nach Korrekturen Reste von Bias bestehen bleiben. Nutzen Sie die Gruppenvergleiche, um zu verdeutlichen, dass Bias ein fortlaufender Prozess ist und nie ganz verschwindet.

  • Häufig wird gesagt: 'KI trifft moralische Entscheidungen wie Menschen.'

    Beziehen Sie sich auf die Diskussionen im Rollenspiel zu KI-Fehlern. Lassen Sie die Schülerinnen und Schüler herausarbeiten, dass KI keine Bewusstseinsentscheidungen trifft, sondern nur Muster reproduziert. Fragen Sie nach, welche Rolle menschliche Aufsicht und Werte in der Programmierung spielen.


In dieser Übersicht verwendete Methoden