Künstliche Intelligenz und Verantwortung
Diskussion über die moralische Handlungsfähigkeit von Algorithmen und autonomen Systemen.
Brauchen Sie einen Unterrichtsplan für Denken und Handeln: Grundlagen der Philosophie?
Leitfragen
- Wer haftet, wenn eine KI eine Fehlentscheidung trifft und Schaden verursacht?
- Analysieren Sie, inwiefern Algorithmen Vorurteile widerspiegeln oder verstärken können.
- Bewerten Sie die ethischen Grenzen des Einsatzes autonomer Waffensysteme.
KMK Bildungsstandards
Über dieses Thema
Das Thema 'Künstliche Intelligenz und Verantwortung' führt Schüler in Klasse 10 an die moralische Handlungsfähigkeit von Algorithmen und autonomen Systemen heran. Sie besprechen zentrale Fragen: Wer haftet, wenn eine KI eine Fehlentscheidung trifft und Schaden verursacht? Inwiefern spiegeln oder verstärken Algorithmen Vorurteile? Welche ethischen Grenzen gibt es beim Einsatz autonomer Waffensysteme? Dies orientiert sich an den KMK-Standards PH-6.3 und PH-6.4 und fördert ethisches Urteilsvermögen in der Zukunftsethik.
Im philosophischen Kontext verbindet das Thema Technikentwicklung mit Verantwortung und Gesellschaft. Schüler erkennen, dass KI keine eigenständige Moral besitzt, sondern menschliche Entscheidungen in Daten und Programmierung abbildet. Sie lernen, systemische Risiken wie Bias in Trainingsdaten zu analysieren und bewerten Konsequenzen für Individuen und Gesellschaft. Solche Diskussionen schärfen das Argumentieren und Perspektivenwechseln.
Aktives Lernen ist hier besonders wirksam, weil abstrakte ethische Dilemmata durch Debatten, Rollenspiele und Fallstudien lebendig werden. Schüler üben, Positionen zu vertreten, Gegenargumente zu prüfen und eigene Urteile zu fällen. Dadurch entsteht tieferes Verständnis und langfristige Transferfähigkeit auf reale Technikdebatten.
Lernziele
- Analysieren Sie, wie menschliche Vorurteile in Trainingsdaten von KI-Systemen kodiert werden und zu diskriminierenden Ergebnissen führen.
- Bewerten Sie die moralische Zurechenbarkeit von Entscheidungen, die von autonomen Systemen getroffen werden, und identifizieren Sie mögliche Haftungsträger.
- Entwickeln Sie ethische Richtlinien für den Einsatz autonomer Waffensysteme unter Berücksichtigung von Völkerrecht und menschlicher Kontrolle.
- Vergleichen Sie verschiedene philosophische Ansätze zur Verantwortung von Maschinen und algorithmenbasierten Systemen.
Bevor es losgeht
Warum: Ein Verständnis grundlegender ethischer Konzepte wie Normen, Werte und Moral ist notwendig, um die ethischen Dilemmata der KI zu erfassen.
Warum: Die Fähigkeit, Argumente zu analysieren und zu bewerten, ist entscheidend für die Diskussion komplexer ethischer Fragen und die Beurteilung von Haftungsfragen.
Schlüsselvokabular
| Algorithmische Voreingenommenheit (Bias) | Systematische und wiederholbare Fehler in einem Computersystem, die zu unfairen Ergebnissen führen, oft durch fehlerhafte Daten oder Designentscheidungen. |
| Autonomes System | Ein System, das in der Lage ist, seine Umgebung wahrzunehmen, Entscheidungen zu treffen und unabhängig zu handeln, ohne ständige menschliche Eingriffe. |
| Moralische Handlungsfähigkeit | Die Fähigkeit eines Akteurs, moralische Entscheidungen zu treffen und für diese verantwortlich gemacht zu werden; bei KI ist dies umstritten. |
| Zurechenbarkeit | Die Zuweisung von Verantwortung für Handlungen oder deren Folgen an eine Person oder Entität, auch wenn die Handlung durch ein System ausgeführt wurde. |
| Verantwortungsethik | Ein ethischer Rahmen, der die Konsequenzen menschlichen Handelns betont und die Pflichten zur Vermeidung von Schäden in den Vordergrund stellt, besonders relevant bei neuen Technologien. |
Ideen für aktives Lernen
Alle Aktivitäten ansehenDebatte: Pro und Contra autonome Waffen
Teilen Sie die Klasse in zwei Gruppen: Befürworter und Gegner autonomer Waffensysteme. Jede Gruppe bereitet Argumente vor, basierend auf ethischen Kriterien. Nach 10 Minuten Präsentation folgt eine offene Fragerunde mit Abstimmung.
Fallstudienanalyse: Bias in KI-Algorithmen
Verteilen Sie reale Fälle wie voreingenommene Gesichtserkennung. In Gruppen identifizieren Schüler Ursachen für Vorurteile in den Daten und schlagen Lösungen vor. Abschließend präsentieren sie Empfehlungen.
Rollenspiel: Haftung bei KI-Fehler
Schüler übernehmen Rollen wie KI-Entwickler, Geschädigter und Richter. Sie rekonstruieren ein Szenario mit Fehlentscheidung und argumentieren über Haftung. Die Klasse bewertet die Urteile.
Diskussionskarussell: Verantwortungsketten
Richten Sie Stationen mit Fragen zu Haftung, Bias und Waffen ein. Paare rotieren alle 7 Minuten, notieren Ideen und bauen aufeinander auf. Abschlussrunde synthetisiert Ergebnisse.
Bezüge zur Lebenswelt
Gerichte in Deutschland prüfen derzeit Fälle, in denen autonome Fahrzeuge in Unfälle verwickelt waren, um zu klären, ob der Hersteller, der Programmierer oder der Halter haftbar gemacht werden kann.
Unternehmen wie Google und Microsoft entwickeln Richtlinien für den ethischen Einsatz ihrer KI-Produkte, um sicherzustellen, dass diese nicht diskriminieren und transparent arbeiten, was die Debatte um Bias in Gesichtserkennungssoftware widerspiegelt.
Die Vereinten Nationen diskutieren über die Regulierung autonomer Waffensysteme (LAWS), um die menschliche Kontrolle über den Einsatz tödlicher Gewalt zu gewährleisten und ethische Grenzen zu definieren.
Vorsicht vor diesen Fehlvorstellungen
Häufige FehlvorstellungKI-Algorithmen sind neutral und objektiv.
Was Sie stattdessen lehren sollten
Algorithmen übernehmen Vorurteile aus Trainingsdaten, die menschliche Bias enthalten. Aktive Analysen realer Fälle in Gruppen helfen Schülern, diese Ketten nachzuvollziehen und Lösungen zu entwickeln.
Häufige FehlvorstellungAutonome Systeme haben eigene moralische Verantwortung.
Was Sie stattdessen lehren sollten
Systeme handeln determiniert nach Programmierung, ohne eigenes Bewusstsein. Rollenspiele verdeutlichen, dass Verantwortung bei Menschen liegt, und fördern differenziertes Denken durch Perspektivenwechsel.
Häufige FehlvorstellungBei KI-Fehlern haftet immer nur der Entwickler.
Was Sie stattdessen lehren sollten
Haftung kann sich auf Betreiber, Datenlieferanten oder Nutzer erstrecken. Debatten trainieren Schüler, Verantwortungsketten zu entwirren und faire Zuschreibungen vorzunehmen.
Ideen zur Lernstandserhebung
Teilen Sie die Klasse in Kleingruppen auf. Geben Sie jeder Gruppe ein Fallbeispiel (z.B. ein KI-gestütztes Bewerbungssystem, das bestimmte Gruppen benachteiligt, oder ein autonomes Fahrzeug, das einen Unfall verursacht). Fragen Sie: Wer trägt die Verantwortung für den entstandenen Schaden? Begründen Sie Ihre Antwort mit Bezug auf die gelernten Konzepte.
Bitten Sie die Schüler, auf einem Zettel zwei Sätze zu schreiben: Der erste Satz soll erklären, warum eine KI keine eigene Moral haben kann. Der zweite Satz soll eine konkrete ethische Herausforderung beim Einsatz von KI beschreiben, die sie persönlich am meisten beunruhigt.
Stellen Sie eine Reihe von Aussagen über KI und Verantwortung auf (z.B. 'Eine KI kann moralische Schuld auf sich laden.'). Lassen Sie die Schüler mit 'stimme zu' oder 'stimme nicht zu' antworten und bitten Sie anschließend einige Schüler, ihre Wahl kurz zu begründen.
Vorgeschlagene Methoden
Bereit, dieses Thema zu unterrichten?
Erstellen Sie in Sekundenschnelle eine vollständige, unterrichtsfertige Mission für aktives Lernen.
Eigene Mission generierenHäufig gestellte Fragen
Wer haftet bei Fehlentscheidungen einer KI?
Wie entstehen Vorurteile in KI-Algorithmen?
Welche ethischen Grenzen haben autonome Waffensysteme?
Wie hilft aktives Lernen beim Verständnis von KI-Verantwortung?
Mehr in Zukunftsethik: Technik und Umwelt
Einführung in die Angewandte Ethik
Die Schülerinnen und Schüler lernen die Bedeutung der angewandten Ethik für aktuelle gesellschaftliche Probleme kennen.
2 methodologies
Transhumanismus und Enhancement
Die Schülerinnen und Schüler diskutieren die ethischen Implikationen der Verbesserung menschlicher Fähigkeiten durch Technologie.
2 methodologies
Ökologische Ethik: Verantwortung für die Zukunft (Jonas)
Untersuchung des Imperativs von Hans Jonas und der Rechte künftiger Generationen.
2 methodologies
Tierethik: Haben Tiere Rechte?
Die Schülerinnen und Schüler diskutieren verschiedene Positionen zur moralischen Berücksichtigung von Tieren.
2 methodologies
Klimaethik: Globale Gerechtigkeit
Die Schülerinnen und Schüler setzen sich mit den ethischen Dimensionen des Klimawandels und globaler Gerechtigkeit auseinander.
2 methodologies