Künstliche Intelligenz und EthikAktivitäten & Unterrichtsstrategien
Aktive Lernformen wie Simulationen und Rollenspiele eignen sich besonders gut, um die abstrakte Thematik von KI und Ethik greifbar zu machen. Schülerinnen und Schüler erkennen erst im praktischen Tun, wie Algorithmen Vorurteile übernehmen und welche gesellschaftlichen Folgen dies hat. Gleichzeitig fördert die direkte Auseinandersetzung mit echten Fällen das kritische Denken über technische und moralische Verantwortung.
Lernziele
- 1Erklären Sie die grundlegenden Funktionsweisen von Machine-Learning-Algorithmen, insbesondere das Prinzip des überwachten Lernens anhand von Beispieldatensätzen.
- 2Analysieren Sie gegebene Datensätze auf potenzielle Verzerrungen (Bias) und identifizieren Sie die Quellen dieser Verzerrungen im Kontext gesellschaftlicher Vorurteile.
- 3Bewerten Sie die ethischen Implikationen von KI-gestützten Entscheidungen in konkreten Anwendungsfällen wie Kreditvergabe oder Gesichtserkennung.
- 4Entwickeln Sie Vorschläge zur Minimierung von Bias in KI-Systemen, indem Sie alternative Datenaufbereitungs- oder Algorithmusdesign-Strategien diskutieren.
- 5Kritisieren Sie die Zuweisung von Verantwortung bei Fehlern von KI-Systemen und schlagen Sie Lösungsansätze für Haftungsfragen vor.
Möchten Sie einen vollständigen Unterrichtsentwurf mit diesen Lernzielen? Mission erstellen →
Gruppenanalyse: Bias in realen Fällen
Teilen Sie reale Beispiele wie COMPAS oder Gesichtserkennung aus. Gruppen sammeln Ursachen für Bias, notieren Auswirkungen und schlagen Lösungen vor. Präsentieren Sie Ergebnisse in Plenum.
Vorbereitung & Details
Kann ein Algorithmus moralische Entscheidungen treffen?
Moderationstipp: Bitten Sie die Gruppen während der Analyse realer Bias-Fälle, konkret zu benennen, welche gesellschaftlichen Gruppen benachteiligt werden und wie sich dies im Algorithmus widerspiegelt.
Setup: Stühle sind in zwei konzentrischen Kreisen angeordnet
Materials: Diskussionsfrage oder Impuls (projiziert), Beobachtungsbogen für den Außenkreis
Planspiel: Einfaches ML-Modell bauen
Nutzen Sie Tools wie Teachable Machine. Schüler laden neutrale und biased Daten hoch, trainieren Modelle und vergleichen Ergebnisse. Diskutieren Sie Unterschiede in Kleingruppen.
Vorbereitung & Details
Wie entstehen Vorurteile in KI-Systemen und wie können wir sie verhindern?
Moderationstipp: Geben Sie den Schülerinnen und Schülern beim Bau des einfachen ML-Modells klare Vorgaben für die Datenerhebung, um Verzerrungen gezielt zu provozieren und so den Bias-Effekt sichtbar zu machen.
Setup: Flexibler Raum für verschiedene Gruppenstationen
Materials: Rollenkarten mit Zielen und Ressourcen, Spielwährung oder Token, Rundenprotokoll
Rollenspiel: Verantwortung bei KI-Fehlern
Schüler übernehmen Rollen wie Entwickler, Nutzer und Betroffener in einem Szenario. Diskutieren Sie Schuldfragen und Regeln. Abschließende Reflexion im Plenum.
Vorbereitung & Details
Wer trägt die Verantwortung, wenn eine KI einen Fehler macht?
Moderationstipp: Weisen Sie die Rollenspiel-Teilnehmenden an, nach dem Spiel eine Reflexionsphase einzulegen, in der sie benennen, welche Entscheidungen sie als fair oder unfair empfunden haben und warum.
Setup: Spielfläche oder entsprechend angeordnete Tische für das Szenario
Materials: Rollenkarten mit Hintergrundinfos und Zielen, Szenario-Briefing
Debatte: Moralische KI-Entscheidungen
Teilen Sie Klasse in Für- und Gegenpositionen. Jede Seite bereitet Argumente vor, debattiert 10 Minuten pro Runde. Bewerten Sie mit Rubrik.
Vorbereitung & Details
Kann ein Algorithmus moralische Entscheidungen treffen?
Setup: Zwei sich gegenüberstehende Teams, Sitzplätze für das Publikum
Materials: Thesenkarte für die Debatte, Recherche-Dossier für jede Seite, Bewertungsbogen für das Publikum, Stoppuhr
Dieses Thema unterrichten
Erfahrene Lehrkräfte setzen bei diesem Thema auf eine Mischung aus Theorie und Praxis, um die Komplexität der Thematik zu reduzieren. Sie vermeiden abstrakte Definitionen von Bias und setzen stattdessen auf konkrete Beispiele und eigene Experimente mit Daten. Wichtig ist, dass Schülerinnen und Schüler die Grenzen von KI-Systemen selbst erleben, etwa durch verzerrte Datensätze oder moralische Dilemmata. Eine offene Fehlerkultur hilft, Vorurteile nicht als individuelles Versagen, sondern als systemisches Problem zu begreifen.
Was Sie erwartet
Am Ende dieser Einheit können die Lernenden erklären, wie Bias in KI entsteht und welche Rolle Trainingsdaten dabei spielen. Sie sind in der Lage, Verantwortungsfragen bei KI-Entscheidungen zu diskutieren und argumentieren sachlich über ethische Grenzen maschineller Systeme. Die Fähigkeit, eigene Vorurteile in Algorithmen zu erkennen und zu minimieren, steht im Mittelpunkt.
Diese Aktivitäten sind ein Ausgangspunkt. Die vollständige Mission ist das Erlebnis.
- Vollständiges Moderationsskript mit Lehrkraft-Dialogen
- Druckfertige Schülermaterialien, bereit für den Unterricht
- Differenzierungsstrategien für jeden Lerntyp
Vorsicht vor diesen Fehlvorstellungen
Häufige FehlvorstellungWährend der Gruppenanalyse von Bias in realen Fällen hören Sie oft den Satz: 'KI-Algorithmen sind immer objektiv und neutral.'
Was Sie stattdessen lehren sollten
Nutzen Sie die bereitgestellten Fallbeispiele (z.B. Kreditvergabe oder Polizeiarbeit), um die Schülerinnen und Schüler gezielt nach Vorurteilen in den Trainingsdaten zu fragen. Lassen Sie sie ein konkretes Beispiel herausarbeiten, wo der Algorithmus diskriminiert, und diskutieren Sie, wie sich dies im Code widerspiegelt.
Häufige FehlvorstellungImmer wieder wird behauptet: 'Bias in KI lässt sich vollständig eliminieren.'
Was Sie stattdessen lehren sollten
Greifen Sie auf die Simulationsergebnisse des einfachen ML-Modells zurück und zeigen Sie, wie selbst nach Korrekturen Reste von Bias bestehen bleiben. Nutzen Sie die Gruppenvergleiche, um zu verdeutlichen, dass Bias ein fortlaufender Prozess ist und nie ganz verschwindet.
Häufige FehlvorstellungHäufig wird gesagt: 'KI trifft moralische Entscheidungen wie Menschen.'
Was Sie stattdessen lehren sollten
Beziehen Sie sich auf die Diskussionen im Rollenspiel zu KI-Fehlern. Lassen Sie die Schülerinnen und Schüler herausarbeiten, dass KI keine Bewusstseinsentscheidungen trifft, sondern nur Muster reproduziert. Fragen Sie nach, welche Rolle menschliche Aufsicht und Werte in der Programmierung spielen.
Ideen zur Lernstandserhebung
Nach der Gruppenanalyse erhalten die Schülerinnen und Schüler einen kurzen KI-Anwendungsfall (z.B. Gesichtserkennung im öffentlichen Raum). Sie notieren auf einem Zettel, welche Art von Bias auftreten könnte und welche Konsequenz dies für die betroffenen Personengruppen hätte.
Während des Rollenspiels zur Verantwortung bei KI-Fehlern moderieren Sie die anschließende Diskussion. Die Schülerinnen und Schüler sollen in Kleingruppen die Verantwortung der verschiedenen Akteure (Hersteller, Programmierer, Halter, KI selbst) benennen und begründen. Dokumentieren Sie die Argumente in einer Mindmap an der Tafel.
Während der Simulation des einfachen ML-Modells präsentieren Sie zwei Datensätze zur Vorhersage von Prüfungserfolg. Ein Datensatz ist bewusst verzerrt (z.B. nur Daten von Gymnasien). Die Schülerinnen und Schüler sollen kurz erklären, welcher Datensatz zu einem verzerrten Modell führt und warum. Sammeln Sie die Antworten per Handzeichen oder digitalem Tool.
Erweiterungen & Unterstützung
- Fordern Sie Schülerinnen und Schüler auf, ein eigenes kleines KI-Modell mit gezielt verzerrten Daten zu trainieren und die Ergebnisse zu präsentieren. Fragen Sie nach, wie sie den Bias erkannt und reduziert haben.
- Unterstützen Sie Lernende mit schwächeren Englischkenntnissen, indem Sie vereinfachte Texte oder Visualisierungen zu Bias-Fällen bereitstellen.
- Vertiefen Sie das Thema mit einer Exkursion zu einem lokalen Unternehmen, das KI einsetzt, oder laden Sie eine Expertin oder einen Experten ein, um über ethische Herausforderungen in der Praxis zu sprechen.
Schlüsselvokabular
| Machine Learning | Ein Teilbereich der künstlichen Intelligenz, bei dem Algorithmen aus Daten lernen, Muster zu erkennen und Vorhersagen zu treffen, ohne explizit programmiert zu werden. |
| Bias (Verzerrung) | Systematische Abweichungen in Trainingsdaten oder Algorithmen, die zu unfairen oder diskriminierenden Ergebnissen führen können. |
| Trainingsdaten | Die Datensätze, die einem Machine-Learning-Modell präsentiert werden, damit es lernen kann, Muster und Zusammenhänge zu erkennen. |
| Überwachtes Lernen | Eine Methode des maschinellen Lernens, bei der der Algorithmus mit gelabelten Daten trainiert wird, um eine Funktion von Eingaben zu Ausgaben zu lernen. |
| Algorithmus | Eine schrittweise Anleitung oder ein Regelwerk zur Lösung eines Problems oder zur Durchführung einer Berechnung. |
Vorgeschlagene Methoden
Planungsvorlagen für Informatik in der Oberstufe: Algorithmen, Daten und Gesellschaft
Mehr in Informatik, Mensch und Gesellschaft
Grundlagen des Maschinellen Lernens
Einführung in die Konzepte von überwachtem und unüberwachtem Lernen.
2 methodologies
Automatisierung und Arbeitswelt
Veränderung von Berufsbildern und wirtschaftlichen Strukturen durch Software.
2 methodologies
Digitale Souveränität
Bedeutung von Open Source, Standards und Kontrolle über die eigene digitale Identität.
2 methodologies
Urheberrecht und Lizenzen in der Softwareentwicklung
Die Schülerinnen und Schüler verstehen die rechtlichen Rahmenbedingungen für Software und digitale Inhalte.
2 methodologies
Digitale Spuren und Privatsphäre
Reflexion über die Erfassung und Nutzung persönlicher Daten im Internet.
2 methodologies
Bereit, Künstliche Intelligenz und Ethik zu unterrichten?
Erstellen Sie eine vollständige Mission mit allem, was Sie brauchen
Mission erstellen