Skip to content
Zukunftsethik: Technik und Umwelt · 2. Halbjahr

Künstliche Intelligenz und Verantwortung

Diskussion über die moralische Handlungsfähigkeit von Algorithmen und autonomen Systemen.

Brauchen Sie einen Unterrichtsplan für Denken und Handeln: Grundlagen der Philosophie?

Mission erstellen

Leitfragen

  1. Wer haftet, wenn eine KI eine Fehlentscheidung trifft und Schaden verursacht?
  2. Analysieren Sie, inwiefern Algorithmen Vorurteile widerspiegeln oder verstärken können.
  3. Bewerten Sie die ethischen Grenzen des Einsatzes autonomer Waffensysteme.

KMK Bildungsstandards

KMK-DE-PH-6.3KMK-DE-PH-6.4
Klasse: Klasse 10
Fach: Denken und Handeln: Grundlagen der Philosophie
Einheit: Zukunftsethik: Technik und Umwelt
Zeitraum: 2. Halbjahr

Über dieses Thema

Das Thema 'Künstliche Intelligenz und Verantwortung' führt Schüler in Klasse 10 an die moralische Handlungsfähigkeit von Algorithmen und autonomen Systemen heran. Sie besprechen zentrale Fragen: Wer haftet, wenn eine KI eine Fehlentscheidung trifft und Schaden verursacht? Inwiefern spiegeln oder verstärken Algorithmen Vorurteile? Welche ethischen Grenzen gibt es beim Einsatz autonomer Waffensysteme? Dies orientiert sich an den KMK-Standards PH-6.3 und PH-6.4 und fördert ethisches Urteilsvermögen in der Zukunftsethik.

Im philosophischen Kontext verbindet das Thema Technikentwicklung mit Verantwortung und Gesellschaft. Schüler erkennen, dass KI keine eigenständige Moral besitzt, sondern menschliche Entscheidungen in Daten und Programmierung abbildet. Sie lernen, systemische Risiken wie Bias in Trainingsdaten zu analysieren und bewerten Konsequenzen für Individuen und Gesellschaft. Solche Diskussionen schärfen das Argumentieren und Perspektivenwechseln.

Aktives Lernen ist hier besonders wirksam, weil abstrakte ethische Dilemmata durch Debatten, Rollenspiele und Fallstudien lebendig werden. Schüler üben, Positionen zu vertreten, Gegenargumente zu prüfen und eigene Urteile zu fällen. Dadurch entsteht tieferes Verständnis und langfristige Transferfähigkeit auf reale Technikdebatten.

Lernziele

  • Analysieren Sie, wie menschliche Vorurteile in Trainingsdaten von KI-Systemen kodiert werden und zu diskriminierenden Ergebnissen führen.
  • Bewerten Sie die moralische Zurechenbarkeit von Entscheidungen, die von autonomen Systemen getroffen werden, und identifizieren Sie mögliche Haftungsträger.
  • Entwickeln Sie ethische Richtlinien für den Einsatz autonomer Waffensysteme unter Berücksichtigung von Völkerrecht und menschlicher Kontrolle.
  • Vergleichen Sie verschiedene philosophische Ansätze zur Verantwortung von Maschinen und algorithmenbasierten Systemen.

Bevor es losgeht

Grundlagen der Ethik: Normen und Werte

Warum: Ein Verständnis grundlegender ethischer Konzepte wie Normen, Werte und Moral ist notwendig, um die ethischen Dilemmata der KI zu erfassen.

Argumentationslehre und Logik

Warum: Die Fähigkeit, Argumente zu analysieren und zu bewerten, ist entscheidend für die Diskussion komplexer ethischer Fragen und die Beurteilung von Haftungsfragen.

Schlüsselvokabular

Algorithmische Voreingenommenheit (Bias)Systematische und wiederholbare Fehler in einem Computersystem, die zu unfairen Ergebnissen führen, oft durch fehlerhafte Daten oder Designentscheidungen.
Autonomes SystemEin System, das in der Lage ist, seine Umgebung wahrzunehmen, Entscheidungen zu treffen und unabhängig zu handeln, ohne ständige menschliche Eingriffe.
Moralische HandlungsfähigkeitDie Fähigkeit eines Akteurs, moralische Entscheidungen zu treffen und für diese verantwortlich gemacht zu werden; bei KI ist dies umstritten.
ZurechenbarkeitDie Zuweisung von Verantwortung für Handlungen oder deren Folgen an eine Person oder Entität, auch wenn die Handlung durch ein System ausgeführt wurde.
VerantwortungsethikEin ethischer Rahmen, der die Konsequenzen menschlichen Handelns betont und die Pflichten zur Vermeidung von Schäden in den Vordergrund stellt, besonders relevant bei neuen Technologien.

Ideen für aktives Lernen

Alle Aktivitäten ansehen

Bezüge zur Lebenswelt

Gerichte in Deutschland prüfen derzeit Fälle, in denen autonome Fahrzeuge in Unfälle verwickelt waren, um zu klären, ob der Hersteller, der Programmierer oder der Halter haftbar gemacht werden kann.

Unternehmen wie Google und Microsoft entwickeln Richtlinien für den ethischen Einsatz ihrer KI-Produkte, um sicherzustellen, dass diese nicht diskriminieren und transparent arbeiten, was die Debatte um Bias in Gesichtserkennungssoftware widerspiegelt.

Die Vereinten Nationen diskutieren über die Regulierung autonomer Waffensysteme (LAWS), um die menschliche Kontrolle über den Einsatz tödlicher Gewalt zu gewährleisten und ethische Grenzen zu definieren.

Vorsicht vor diesen Fehlvorstellungen

Häufige FehlvorstellungKI-Algorithmen sind neutral und objektiv.

Was Sie stattdessen lehren sollten

Algorithmen übernehmen Vorurteile aus Trainingsdaten, die menschliche Bias enthalten. Aktive Analysen realer Fälle in Gruppen helfen Schülern, diese Ketten nachzuvollziehen und Lösungen zu entwickeln.

Häufige FehlvorstellungAutonome Systeme haben eigene moralische Verantwortung.

Was Sie stattdessen lehren sollten

Systeme handeln determiniert nach Programmierung, ohne eigenes Bewusstsein. Rollenspiele verdeutlichen, dass Verantwortung bei Menschen liegt, und fördern differenziertes Denken durch Perspektivenwechsel.

Häufige FehlvorstellungBei KI-Fehlern haftet immer nur der Entwickler.

Was Sie stattdessen lehren sollten

Haftung kann sich auf Betreiber, Datenlieferanten oder Nutzer erstrecken. Debatten trainieren Schüler, Verantwortungsketten zu entwirren und faire Zuschreibungen vorzunehmen.

Ideen zur Lernstandserhebung

Diskussionsfrage

Teilen Sie die Klasse in Kleingruppen auf. Geben Sie jeder Gruppe ein Fallbeispiel (z.B. ein KI-gestütztes Bewerbungssystem, das bestimmte Gruppen benachteiligt, oder ein autonomes Fahrzeug, das einen Unfall verursacht). Fragen Sie: Wer trägt die Verantwortung für den entstandenen Schaden? Begründen Sie Ihre Antwort mit Bezug auf die gelernten Konzepte.

Lernstandskontrolle

Bitten Sie die Schüler, auf einem Zettel zwei Sätze zu schreiben: Der erste Satz soll erklären, warum eine KI keine eigene Moral haben kann. Der zweite Satz soll eine konkrete ethische Herausforderung beim Einsatz von KI beschreiben, die sie persönlich am meisten beunruhigt.

Kurze Überprüfung

Stellen Sie eine Reihe von Aussagen über KI und Verantwortung auf (z.B. 'Eine KI kann moralische Schuld auf sich laden.'). Lassen Sie die Schüler mit 'stimme zu' oder 'stimme nicht zu' antworten und bitten Sie anschließend einige Schüler, ihre Wahl kurz zu begründen.

Bereit, dieses Thema zu unterrichten?

Erstellen Sie in Sekundenschnelle eine vollständige, unterrichtsfertige Mission für aktives Lernen.

Eigene Mission generieren

Häufig gestellte Fragen

Wer haftet bei Fehlentscheidungen einer KI?
Haftung richtet sich nach Kontext: Entwickler für fehlerhafte Programmierung, Betreiber für Einsatzbedingungen, Datenlieferanten für biasierte Inputs. Schüler lernen in Diskussionen, dass klare Regulierungen notwendig sind, um Lücken zu schließen. Philosophisch geht es um die Verlagerung menschlicher Verantwortung auf Technik, was ethische Standards wie Transparenz erfordert. (62 Wörter)
Wie entstehen Vorurteile in KI-Algorithmen?
Vorurteile stammen aus unausgewogenen Trainingsdaten, die reale gesellschaftliche Ungleichheiten abbilden, z. B. bei Geschlecht oder Ethnie. Algorithmen verstärken diese durch Lernmuster. Schüler analysieren Fälle, um zu verstehen, wie Diversität in Daten und Audits Bias mindern. Dies sensibilisiert für faire Technikgestaltung. (58 Wörter)
Welche ethischen Grenzen haben autonome Waffensysteme?
Autonome Waffen bergen Risiken wie Fehlentscheidungen ohne menschliche Kontrolle, was gegen Prinzipien wie Unterscheidung Zivilist-Kombattant verstößt. Internationale Debatten fordern Verbote. Schüler bewerten in Debatten, ob Technik Leben-über-Leben-Entscheidungen treffen darf, und entwickeln eigene Positionen. (56 Wörter)
Wie hilft aktives Lernen beim Verständnis von KI-Verantwortung?
Aktives Lernen macht ethische Dilemmata greifbar: Durch Rollenspiele und Debatten üben Schüler Argumentation und Perspektivenwechsel. Fallstudien zu realen KI-Fehlern fördern kritisches Analysieren von Bias und Haftung. Gruppenarbeit stärkt Empathie und Transfer auf aktuelle Debatten, was passives Lesen übertrifft. (64 Wörter)