Künstliche Intelligenz und VerantwortungAktivitäten & Unterrichtsstrategien
Aktive Methoden wie Debatten und Rollenspiele helfen Schülern, abstrakte Konzepte wie KI-Verantwortung greifbar zu machen. Indem sie konkrete Szenarien durchspielen, entwickeln sie ein Bewusstsein für ethische Zusammenhänge und erkennen, dass Technologie nie neutral ist.
Lernziele
- 1Analysieren Sie, wie menschliche Vorurteile in Trainingsdaten von KI-Systemen kodiert werden und zu diskriminierenden Ergebnissen führen.
- 2Bewerten Sie die moralische Zurechenbarkeit von Entscheidungen, die von autonomen Systemen getroffen werden, und identifizieren Sie mögliche Haftungsträger.
- 3Entwickeln Sie ethische Richtlinien für den Einsatz autonomer Waffensysteme unter Berücksichtigung von Völkerrecht und menschlicher Kontrolle.
- 4Vergleichen Sie verschiedene philosophische Ansätze zur Verantwortung von Maschinen und algorithmenbasierten Systemen.
Möchten Sie einen vollständigen Unterrichtsentwurf mit diesen Lernzielen? Mission erstellen →
Debatte: Pro und Contra autonome Waffen
Teilen Sie die Klasse in zwei Gruppen: Befürworter und Gegner autonomer Waffensysteme. Jede Gruppe bereitet Argumente vor, basierend auf ethischen Kriterien. Nach 10 Minuten Präsentation folgt eine offene Fragerunde mit Abstimmung.
Vorbereitung & Details
Wer haftet, wenn eine KI eine Fehlentscheidung trifft und Schaden verursacht?
Moderationstipp: Legen Sie in der Debatte klare Pro- und Contra-Argumente fest, damit die Schüler sich auf inhaltliche Auseinandersetzungen konzentrieren können.
Setup: Zwei sich gegenüberstehende Teams, Sitzplätze für das Publikum
Materials: Thesenkarte für die Debatte, Recherche-Dossier für jede Seite, Bewertungsbogen für das Publikum, Stoppuhr
Fallstudienanalyse: Bias in KI-Algorithmen
Verteilen Sie reale Fälle wie voreingenommene Gesichtserkennung. In Gruppen identifizieren Schüler Ursachen für Vorurteile in den Daten und schlagen Lösungen vor. Abschließend präsentieren sie Empfehlungen.
Vorbereitung & Details
Analysieren Sie, inwiefern Algorithmen Vorurteile widerspiegeln oder verstärken können.
Moderationstipp: Verteilen Sie in der Fallstudie zu Bias unterschiedliche Datensätze an Gruppen, um konkrete Unterschiede in den Ergebnissen zu verdeutlichen.
Setup: Gruppentische mit Platz für die Fallunterlagen
Materials: Fallstudien-Paket (3-5 Seiten), Arbeitsblatt mit Analyseraster, Präsentationsvorlage
Rollenspiel: Haftung bei KI-Fehler
Schüler übernehmen Rollen wie KI-Entwickler, Geschädigter und Richter. Sie rekonstruieren ein Szenario mit Fehlentscheidung und argumentieren über Haftung. Die Klasse bewertet die Urteile.
Vorbereitung & Details
Bewerten Sie die ethischen Grenzen des Einsatzes autonomer Waffensysteme.
Moderationstipp: Nutzen Sie im Rollenspiel zur Haftung verschiedene Rollenkarten mit konkreten Interessen, um die Diskussion zu strukturieren.
Setup: Spielfläche oder entsprechend angeordnete Tische für das Szenario
Materials: Rollenkarten mit Hintergrundinfos und Zielen, Szenario-Briefing
Diskussionskarussell: Verantwortungsketten
Richten Sie Stationen mit Fragen zu Haftung, Bias und Waffen ein. Paare rotieren alle 7 Minuten, notieren Ideen und bauen aufeinander auf. Abschlussrunde synthetisiert Ergebnisse.
Vorbereitung & Details
Wer haftet, wenn eine KI eine Fehlentscheidung trifft und Schaden verursacht?
Moderationstipp: Beginnen Sie das Diskussionskarussell mit einer einfachen Verantwortungskette und steigern Sie die Komplexität in den Runden.
Setup: Innenkreis mit 4–6 Stühlen, umgeben von einem Außenkreis
Materials: Diskussionsimpuls oder Leitfrage, Beobachtungsbogen
Dieses Thema unterrichten
Erfahrungsgemäß arbeiten Schüler am effektivsten mit konkreten Beispielen. Vermeiden Sie theoretische Vorträge und setzen Sie stattdessen auf Analysen realer Fälle. Wichtig ist, dass Schüler verstehen, dass KI-Systeme zwar komplex sind, aber immer von Menschen designed und kontrolliert werden.
Was Sie erwartet
Schüler können nach den Aktivitäten Verantwortungsfragen in KI-Kontexten differenziert diskutieren und argumentativ begründen. Sie identifizieren Bias-Quellen und verstehen, dass ethische Entscheidungen immer menschliche Urteile erfordern.
Diese Aktivitäten sind ein Ausgangspunkt. Die vollständige Mission ist das Erlebnis.
- Vollständiges Moderationsskript mit Lehrkraft-Dialogen
- Druckfertige Schülermaterialien, bereit für den Unterricht
- Differenzierungsstrategien für jeden Lerntyp
Vorsicht vor diesen Fehlvorstellungen
Häufige FehlvorstellungWährend der Fallstudie zu Bias in KI-Algorithmen hören manche Schüler die Aussage, dass Algorithmen neutral seien.
Was Sie stattdessen lehren sollten
Weisen Sie in dieser Phase explizit auf die Trainingsdaten hin und lassen Sie die Gruppen die Herkunft und Auswahl der Daten analysieren, um menschliche Vorurteile sichtbar zu machen.
Häufige FehlvorstellungIm Rollenspiel zur Haftung bei KI-Fehlern glauben einige, das System trage selbst Verantwortung.
Was Sie stattdessen lehren sollten
Nutzen Sie die Rollenverteilung, um zu verdeutlichen, dass nur Menschen haftbar gemacht werden können, und fordern Sie die Schüler auf, konkrete Verantwortliche in ihren Szenarien zu benennen.
Häufige FehlvorstellungBei der Debatte zu autonomen Waffen wird oft pauschal angenommen, der Entwickler hafte immer allein.
Was Sie stattdessen lehren sollten
Fordern Sie die Debattenteams auf, Verantwortungsketten zu benennen und zu diskutieren, wer in der Praxis tatsächlich haftet, etwa Betreiber, Militär oder politische Entscheidungsträger.
Ideen zur Lernstandserhebung
Nach der Fallstudie zu Bias in KI-Algorithmen teilen Sie die Klasse in Kleingruppen ein und geben jeder Gruppe ein Fallbeispiel (z.B. ein KI-gestütztes Bewerbungssystem). Fragen Sie: Wer trägt die Verantwortung für die Benachteiligung? Die Schüler begründen ihre Antwort mit Bezug auf die gelernten Konzepte.
Während des Rollenspiels zur Haftung bei KI-Fehlern sammeln Sie anonyme Zettel mit zwei Sätzen: Der erste erklärt, warum eine KI keine moralische Schuld tragen kann. Der zweite beschreibt eine konkrete ethische Herausforderung, die die Schüler beunruhigt.
Nach der Debatte zu autonomen Waffen präsentieren Sie eine Reihe von Aussagen (z.B. 'Eine KI kann moralische Schuld auf sich laden.'). Die Schüler antworten mit 'stimme zu' oder 'stimme nicht zu' und begründen ihre Wahl in Stichpunkten.
Erweiterungen & Unterstützung
- Fordern Sie Schüler auf, ein eigenes Fallbeispiel für eine KI-Ethikfrage zu entwickeln und mit Lösungsideen zu präsentieren.
- Unterstützen Sie unsichere Schüler durch vorgegebene Argumentationsbausteine oder eine vorbereitete Mindmap zur Verantwortungsfrage.
- Vertiefen Sie mit einer Rechercheaufgabe zu aktuellen KI-Ethik-Richtlinien der EU oder einzelner Unternehmen.
Schlüsselvokabular
| Algorithmische Voreingenommenheit (Bias) | Systematische und wiederholbare Fehler in einem Computersystem, die zu unfairen Ergebnissen führen, oft durch fehlerhafte Daten oder Designentscheidungen. |
| Autonomes System | Ein System, das in der Lage ist, seine Umgebung wahrzunehmen, Entscheidungen zu treffen und unabhängig zu handeln, ohne ständige menschliche Eingriffe. |
| Moralische Handlungsfähigkeit | Die Fähigkeit eines Akteurs, moralische Entscheidungen zu treffen und für diese verantwortlich gemacht zu werden; bei KI ist dies umstritten. |
| Zurechenbarkeit | Die Zuweisung von Verantwortung für Handlungen oder deren Folgen an eine Person oder Entität, auch wenn die Handlung durch ein System ausgeführt wurde. |
| Verantwortungsethik | Ein ethischer Rahmen, der die Konsequenzen menschlichen Handelns betont und die Pflichten zur Vermeidung von Schäden in den Vordergrund stellt, besonders relevant bei neuen Technologien. |
Vorgeschlagene Methoden
Mehr in Zukunftsethik: Technik und Umwelt
Einführung in die Angewandte Ethik
Die Schülerinnen und Schüler lernen die Bedeutung der angewandten Ethik für aktuelle gesellschaftliche Probleme kennen.
2 methodologies
Transhumanismus und Enhancement
Die Schülerinnen und Schüler diskutieren die ethischen Implikationen der Verbesserung menschlicher Fähigkeiten durch Technologie.
2 methodologies
Ökologische Ethik: Verantwortung für die Zukunft (Jonas)
Untersuchung des Imperativs von Hans Jonas und der Rechte künftiger Generationen.
2 methodologies
Tierethik: Haben Tiere Rechte?
Die Schülerinnen und Schüler diskutieren verschiedene Positionen zur moralischen Berücksichtigung von Tieren.
2 methodologies
Klimaethik: Globale Gerechtigkeit
Die Schülerinnen und Schüler setzen sich mit den ethischen Dimensionen des Klimawandels und globaler Gerechtigkeit auseinander.
2 methodologies
Bereit, Künstliche Intelligenz und Verantwortung zu unterrichten?
Erstellen Sie eine vollständige Mission mit allem, was Sie brauchen
Mission erstellen