Skip to content

Künstliche Intelligenz und EthikAktivitäten & Unterrichtsstrategien

Aktive Lernformen wie Simulationen und Rollenspiele eignen sich besonders gut, um die abstrakte Thematik von KI und Ethik greifbar zu machen. Schülerinnen und Schüler erkennen erst im praktischen Tun, wie Algorithmen Vorurteile übernehmen und welche gesellschaftlichen Folgen dies hat. Gleichzeitig fördert die direkte Auseinandersetzung mit echten Fällen das kritische Denken über technische und moralische Verantwortung.

Klasse 11Informatik in der Oberstufe: Algorithmen, Daten und Gesellschaft4 Aktivitäten40 Min.60 Min.

Lernziele

  1. 1Erklären Sie die grundlegenden Funktionsweisen von Machine-Learning-Algorithmen, insbesondere das Prinzip des überwachten Lernens anhand von Beispieldatensätzen.
  2. 2Analysieren Sie gegebene Datensätze auf potenzielle Verzerrungen (Bias) und identifizieren Sie die Quellen dieser Verzerrungen im Kontext gesellschaftlicher Vorurteile.
  3. 3Bewerten Sie die ethischen Implikationen von KI-gestützten Entscheidungen in konkreten Anwendungsfällen wie Kreditvergabe oder Gesichtserkennung.
  4. 4Entwickeln Sie Vorschläge zur Minimierung von Bias in KI-Systemen, indem Sie alternative Datenaufbereitungs- oder Algorithmusdesign-Strategien diskutieren.
  5. 5Kritisieren Sie die Zuweisung von Verantwortung bei Fehlern von KI-Systemen und schlagen Sie Lösungsansätze für Haftungsfragen vor.

Möchten Sie einen vollständigen Unterrichtsentwurf mit diesen Lernzielen? Mission erstellen

45 Min.·Kleingruppen

Gruppenanalyse: Bias in realen Fällen

Teilen Sie reale Beispiele wie COMPAS oder Gesichtserkennung aus. Gruppen sammeln Ursachen für Bias, notieren Auswirkungen und schlagen Lösungen vor. Präsentieren Sie Ergebnisse in Plenum.

Vorbereitung & Details

Kann ein Algorithmus moralische Entscheidungen treffen?

Moderationstipp: Bitten Sie die Gruppen während der Analyse realer Bias-Fälle, konkret zu benennen, welche gesellschaftlichen Gruppen benachteiligt werden und wie sich dies im Algorithmus widerspiegelt.

Setup: Stühle sind in zwei konzentrischen Kreisen angeordnet

Materials: Diskussionsfrage oder Impuls (projiziert), Beobachtungsbogen für den Außenkreis

AnalysierenBewertenErschaffenSozialbewusstseinBeziehungsfähigkeit
50 Min.·Partnerarbeit

Planspiel: Einfaches ML-Modell bauen

Nutzen Sie Tools wie Teachable Machine. Schüler laden neutrale und biased Daten hoch, trainieren Modelle und vergleichen Ergebnisse. Diskutieren Sie Unterschiede in Kleingruppen.

Vorbereitung & Details

Wie entstehen Vorurteile in KI-Systemen und wie können wir sie verhindern?

Moderationstipp: Geben Sie den Schülerinnen und Schülern beim Bau des einfachen ML-Modells klare Vorgaben für die Datenerhebung, um Verzerrungen gezielt zu provozieren und so den Bias-Effekt sichtbar zu machen.

Setup: Flexibler Raum für verschiedene Gruppenstationen

Materials: Rollenkarten mit Zielen und Ressourcen, Spielwährung oder Token, Rundenprotokoll

AnwendenAnalysierenBewertenErschaffenSozialbewusstseinEntscheidungsfähigkeit
40 Min.·Kleingruppen

Rollenspiel: Verantwortung bei KI-Fehlern

Schüler übernehmen Rollen wie Entwickler, Nutzer und Betroffener in einem Szenario. Diskutieren Sie Schuldfragen und Regeln. Abschließende Reflexion im Plenum.

Vorbereitung & Details

Wer trägt die Verantwortung, wenn eine KI einen Fehler macht?

Moderationstipp: Weisen Sie die Rollenspiel-Teilnehmenden an, nach dem Spiel eine Reflexionsphase einzulegen, in der sie benennen, welche Entscheidungen sie als fair oder unfair empfunden haben und warum.

Setup: Spielfläche oder entsprechend angeordnete Tische für das Szenario

Materials: Rollenkarten mit Hintergrundinfos und Zielen, Szenario-Briefing

AnwendenAnalysierenBewertenSozialbewusstseinSelbstwahrnehmung
60 Min.·Ganze Klasse

Debatte: Moralische KI-Entscheidungen

Teilen Sie Klasse in Für- und Gegenpositionen. Jede Seite bereitet Argumente vor, debattiert 10 Minuten pro Runde. Bewerten Sie mit Rubrik.

Vorbereitung & Details

Kann ein Algorithmus moralische Entscheidungen treffen?

Setup: Zwei sich gegenüberstehende Teams, Sitzplätze für das Publikum

Materials: Thesenkarte für die Debatte, Recherche-Dossier für jede Seite, Bewertungsbogen für das Publikum, Stoppuhr

AnalysierenBewertenErschaffenSelbststeuerungEntscheidungsfähigkeit

Dieses Thema unterrichten

Erfahrene Lehrkräfte setzen bei diesem Thema auf eine Mischung aus Theorie und Praxis, um die Komplexität der Thematik zu reduzieren. Sie vermeiden abstrakte Definitionen von Bias und setzen stattdessen auf konkrete Beispiele und eigene Experimente mit Daten. Wichtig ist, dass Schülerinnen und Schüler die Grenzen von KI-Systemen selbst erleben, etwa durch verzerrte Datensätze oder moralische Dilemmata. Eine offene Fehlerkultur hilft, Vorurteile nicht als individuelles Versagen, sondern als systemisches Problem zu begreifen.

Was Sie erwartet

Am Ende dieser Einheit können die Lernenden erklären, wie Bias in KI entsteht und welche Rolle Trainingsdaten dabei spielen. Sie sind in der Lage, Verantwortungsfragen bei KI-Entscheidungen zu diskutieren und argumentieren sachlich über ethische Grenzen maschineller Systeme. Die Fähigkeit, eigene Vorurteile in Algorithmen zu erkennen und zu minimieren, steht im Mittelpunkt.

Diese Aktivitäten sind ein Ausgangspunkt. Die vollständige Mission ist das Erlebnis.

  • Vollständiges Moderationsskript mit Lehrkraft-Dialogen
  • Druckfertige Schülermaterialien, bereit für den Unterricht
  • Differenzierungsstrategien für jeden Lerntyp
Mission erstellen

Vorsicht vor diesen Fehlvorstellungen

Häufige FehlvorstellungWährend der Gruppenanalyse von Bias in realen Fällen hören Sie oft den Satz: 'KI-Algorithmen sind immer objektiv und neutral.'

Was Sie stattdessen lehren sollten

Nutzen Sie die bereitgestellten Fallbeispiele (z.B. Kreditvergabe oder Polizeiarbeit), um die Schülerinnen und Schüler gezielt nach Vorurteilen in den Trainingsdaten zu fragen. Lassen Sie sie ein konkretes Beispiel herausarbeiten, wo der Algorithmus diskriminiert, und diskutieren Sie, wie sich dies im Code widerspiegelt.

Häufige FehlvorstellungImmer wieder wird behauptet: 'Bias in KI lässt sich vollständig eliminieren.'

Was Sie stattdessen lehren sollten

Greifen Sie auf die Simulationsergebnisse des einfachen ML-Modells zurück und zeigen Sie, wie selbst nach Korrekturen Reste von Bias bestehen bleiben. Nutzen Sie die Gruppenvergleiche, um zu verdeutlichen, dass Bias ein fortlaufender Prozess ist und nie ganz verschwindet.

Häufige FehlvorstellungHäufig wird gesagt: 'KI trifft moralische Entscheidungen wie Menschen.'

Was Sie stattdessen lehren sollten

Beziehen Sie sich auf die Diskussionen im Rollenspiel zu KI-Fehlern. Lassen Sie die Schülerinnen und Schüler herausarbeiten, dass KI keine Bewusstseinsentscheidungen trifft, sondern nur Muster reproduziert. Fragen Sie nach, welche Rolle menschliche Aufsicht und Werte in der Programmierung spielen.

Ideen zur Lernstandserhebung

Lernstandskontrolle

Nach der Gruppenanalyse erhalten die Schülerinnen und Schüler einen kurzen KI-Anwendungsfall (z.B. Gesichtserkennung im öffentlichen Raum). Sie notieren auf einem Zettel, welche Art von Bias auftreten könnte und welche Konsequenz dies für die betroffenen Personengruppen hätte.

Diskussionsfrage

Während des Rollenspiels zur Verantwortung bei KI-Fehlern moderieren Sie die anschließende Diskussion. Die Schülerinnen und Schüler sollen in Kleingruppen die Verantwortung der verschiedenen Akteure (Hersteller, Programmierer, Halter, KI selbst) benennen und begründen. Dokumentieren Sie die Argumente in einer Mindmap an der Tafel.

Kurze Überprüfung

Während der Simulation des einfachen ML-Modells präsentieren Sie zwei Datensätze zur Vorhersage von Prüfungserfolg. Ein Datensatz ist bewusst verzerrt (z.B. nur Daten von Gymnasien). Die Schülerinnen und Schüler sollen kurz erklären, welcher Datensatz zu einem verzerrten Modell führt und warum. Sammeln Sie die Antworten per Handzeichen oder digitalem Tool.

Erweiterungen & Unterstützung

  • Fordern Sie Schülerinnen und Schüler auf, ein eigenes kleines KI-Modell mit gezielt verzerrten Daten zu trainieren und die Ergebnisse zu präsentieren. Fragen Sie nach, wie sie den Bias erkannt und reduziert haben.
  • Unterstützen Sie Lernende mit schwächeren Englischkenntnissen, indem Sie vereinfachte Texte oder Visualisierungen zu Bias-Fällen bereitstellen.
  • Vertiefen Sie das Thema mit einer Exkursion zu einem lokalen Unternehmen, das KI einsetzt, oder laden Sie eine Expertin oder einen Experten ein, um über ethische Herausforderungen in der Praxis zu sprechen.

Schlüsselvokabular

Machine LearningEin Teilbereich der künstlichen Intelligenz, bei dem Algorithmen aus Daten lernen, Muster zu erkennen und Vorhersagen zu treffen, ohne explizit programmiert zu werden.
Bias (Verzerrung)Systematische Abweichungen in Trainingsdaten oder Algorithmen, die zu unfairen oder diskriminierenden Ergebnissen führen können.
TrainingsdatenDie Datensätze, die einem Machine-Learning-Modell präsentiert werden, damit es lernen kann, Muster und Zusammenhänge zu erkennen.
Überwachtes LernenEine Methode des maschinellen Lernens, bei der der Algorithmus mit gelabelten Daten trainiert wird, um eine Funktion von Eingaben zu Ausgaben zu lernen.
AlgorithmusEine schrittweise Anleitung oder ein Regelwerk zur Lösung eines Problems oder zur Durchführung einer Berechnung.

Bereit, Künstliche Intelligenz und Ethik zu unterrichten?

Erstellen Sie eine vollständige Mission mit allem, was Sie brauchen

Mission erstellen