Skip to content
Technik und Zukunft: Darf der Mensch alles, was er kann? · 2. Halbjahr

Künstliche Intelligenz und Verantwortung

Wer haftet für Entscheidungen, die von Algorithmen getroffen werden?

Brauchen Sie einen Unterrichtsplan für Wer bin ich und was soll ich tun? – Philosophische Orientierung in der Moderne?

Mission erstellen

Leitfragen

  1. Analysiere die ethischen Herausforderungen autonomer Systeme (z.B. selbstfahrende Autos).
  2. Erkläre, wie Verantwortung bei Entscheidungen von KI-Systemen zugewiesen werden kann.
  3. Beurteile, ob Maschinen moralische Akteure sein können oder nur Werkzeuge.

KMK Bildungsstandards

Probleme des menschlichen HandelnsMedienkritik
Klasse: Klasse 9
Fach: Wer bin ich und was soll ich tun? – Philosophische Orientierung in der Moderne
Einheit: Technik und Zukunft: Darf der Mensch alles, was er kann?
Zeitraum: 2. Halbjahr

Über dieses Thema

Das Thema ‚Künstliche Intelligenz und Verantwortung‘ untersucht, wer für Entscheidungen haftet, die Algorithmen treffen. Schüler der Klasse 9 analysieren ethische Herausforderungen autonomer Systeme, etwa bei selbstfahrenden Autos. Sie erklären, wie Verantwortung bei KI-Entscheidungen zugewiesen werden kann, und beurteilen, ob Maschinen moralische Akteure oder bloße Werkzeuge sind. Dies verbindet sich mit den KMK-Standards zu Problemen des menschlichen Handelns und Medienkritik.

In der Einheit ‚Technik und Zukunft: Darf der Mensch alles, was er kann?‘ lernen Schüler, Verantwortungsdiffusion zu erkennen. Sie diskutieren Szenarien, in denen KI zwischen Leben wählen muss, und vergleichen menschliche Moral mit programmierter Logik. Solche Debatten schärfen das Urteilsvermögen und fördern Reflexion über Technikfolgen.

Aktives Lernen passt hervorragend, weil abstrakte Konzepte durch Rollenspiele und Gruppendiskussionen konkret werden. Schüler erproben ethische Dilemmata selbst, was emotionale Bindung schafft und langfristiges Verständnis vertieft. Praktische Übungen machen Verantwortungsfragen greifbar und motivieren zu nuancierter Haltung gegenüber KI.

Lernziele

  • Analysiere die ethischen Dilemmata, die sich aus autonomen Entscheidungen von KI-Systemen ergeben, z.B. bei der Programmierung von Fahrzeugen für Unfallszenarien.
  • Erkläre die verschiedenen Modelle der Verantwortungszuweisung bei Fehlfunktionen oder Schäden durch KI-Systeme.
  • Vergleiche die Kriterien für moralische Urteilsfähigkeit bei Menschen mit den Fähigkeiten heutiger KI-Systeme.
  • Bewerte die Aussagekraft von KI-Systemen als Werkzeuge im Vergleich zu potenziellen moralischen Akteuren unter Berücksichtigung ihrer Autonomie und Entscheidungsfindung.

Bevor es losgeht

Grundlagen der Medienkompetenz

Warum: Ein grundlegendes Verständnis dafür, wie Medien funktionieren und wie Informationen präsentiert werden, ist notwendig, um die Funktionsweise von Algorithmen kritisch zu hinterfragen.

Einführung in ethische Grundbegriffe

Warum: Schüler sollten grundlegende Konzepte wie Verantwortung, Schuld und moralisches Handeln kennen, um die ethischen Herausforderungen von KI zu verstehen.

Schlüsselvokabular

Autonomes SystemEin System, das in der Lage ist, seine Umgebung wahrzunehmen und unabhängig Entscheidungen zu treffen, ohne ständige menschliche Eingriffe.
VerantwortungsdiffusionDie Streuung von Verantwortung über mehrere Personen oder Instanzen, wodurch es schwierig wird, eine einzelne verantwortliche Partei zu identifizieren.
AlgorithmusEine Schritt-für-Schritt-Anleitung oder ein Regelwerk, das ein Computer befolgt, um eine bestimmte Aufgabe zu lösen oder eine Entscheidung zu treffen.
KI-EthikDas Teilgebiet der Ethik, das sich mit den moralischen Fragen und Herausforderungen befasst, die durch die Entwicklung und Anwendung von künstlicher Intelligenz entstehen.

Ideen für aktives Lernen

Alle Aktivitäten ansehen

Bezüge zur Lebenswelt

Ingenieure bei Automobilherstellern wie Waymo oder Tesla entwickeln und testen autonome Fahrsysteme, bei denen Entscheidungen über Leben und Tod in Millisekunden getroffen werden müssen.

Juristen und Versicherungsgesellschaften arbeiten an neuen Haftungsmodellen für Schäden, die durch autonome Drohnen oder Roboter in der Logistik oder Landwirtschaft verursacht werden.

Entwickler von medizinischen Diagnose-KI-Systemen müssen sicherstellen, dass die Algorithmen nicht diskriminieren und dass die Verantwortung für Fehldiagnosen klar geregelt ist.

Vorsicht vor diesen Fehlvorstellungen

Häufige FehlvorstellungKI trifft immer faire Entscheidungen, da sie neutral ist.

Was Sie stattdessen lehren sollten

Algorithmen spiegeln Datenbias wider, was zu diskriminierenden Ergebnissen führt. Aktive Analysen realer Fälle helfen Schülern, Vorurteile in Trainingsdaten zu erkennen und Verantwortung den Entwicklern zuzuweisen. Gruppendiskussionen klären, dass Neutralität illusorisch ist.

Häufige FehlvorstellungBei KI-Unfällen haftet immer der Hersteller.

Was Sie stattdessen lehren sollten

Verantwortung verteilt sich auf Programmierer, Betreiber und Nutzer, je nach Kontext. Rollenspiele lassen Schüler Szenarien durchspielen und Nuancen entdecken. So verstehen sie, dass Haftung kontextabhängig ist.

Häufige FehlvorstellungMaschinen können moralisch verantwortlich sein wie Menschen.

Was Sie stattdessen lehren sollten

KI fehlt Bewusstsein und Intentionalität, sie folgt nur Regeln. Debatten fördern Vergleiche mit Werkzeugen und machen klar, dass Moral menschlich bleibt. Schüler lernen durch Argumentation die Grenzen.

Ideen zur Lernstandserhebung

Diskussionsfrage

Stellen Sie den Schülern folgende Frage: 'Ein selbstfahrendes Auto muss entscheiden, ob es ausweicht und einen Fußgänger verletzt oder geradeaus fährt und die Insassen gefährdet. Wer soll diese Entscheidung programmieren und wer trägt die Verantwortung, wenn etwas schiefgeht? Begründet eure Antworten.'

Lernstandskontrolle

Bitten Sie die Schüler, auf einer Karte zwei Sätze zu schreiben: einen, der erklärt, warum es schwierig ist, die Verantwortung bei KI-Entscheidungen zuzuweisen, und einen, der eine mögliche Lösung oder einen Ansatz dafür vorschlägt.

Kurze Überprüfung

Geben Sie den Schülern drei kurze Szenarien mit KI-Beteiligung (z.B. ein autonomer Rasenmäher, ein KI-gestütztes Empfehlungssystem, ein Chatbot). Lassen Sie sie für jedes Szenario kurz notieren, wer ihrer Meinung nach die Verantwortung tragen könnte und warum.

Bereit, dieses Thema zu unterrichten?

Erstellen Sie in Sekundenschnelle eine vollständige, unterrichtsfertige Mission für aktives Lernen.

Eigene Mission generieren

Häufig gestellte Fragen

Wer haftet für Unfälle mit selbstfahrenden Autos?
Haftung richtet sich nach dem Unfallhergang: Programmierer bei fehlerhaften Algorithmen, Hersteller bei Defekten, Fahrzeughalter bei Missbrauch. Deutsche Rechtsprechung orientiert sich am Produkthaftungsgesetz. Schüler analysieren Fälle, um Verantwortungsketten zu verstehen und ethische Lücken zu diskutieren. Dies schult kritisches Denken zu Technikrecht.
Können Maschinen moralische Akteure sein?
Nein, Maschinen handeln determiniert nach Programmierung, ohne freien Willen oder Gewissen. Sie sind Werkzeuge, für die Menschen verantwortlich bleiben. Philosophische Debatten klären diesen Unterschied und regen zu Reflexion über Menschlichkeit an. Schüler lernen, KI als Erweiterung menschlicher Entscheidungen zu sehen.
Wie hilft aktives Lernen bei KI-Ethik?
Aktives Lernen macht abstrakte Dilemmata durch Rollenspiele und Debatten erfahrbar. Schüler internalisieren Verantwortungsfragen, indem sie Rollen übernehmen und Argumente austauschen. Solche Methoden fördern Empathie, kritisches Denken und bleibendes Wissen, da emotionale Beteiligung Konzepte vertieft. Praktische Übungen überzeugen effektiver als Frontalunterricht.
Was sind ethische Herausforderungen autonomer Systeme?
Herausforderungen umfassen Bias in Algorithmen, Transparenzmangel und Entscheidungen in Konflikten wie dem Trolley-Problem. Schüler bewerten, ob KI priorisieren soll. Diskussionen zu Datenschutz und Manipulation schärfen Medienkompetenz und ethisches Urteil für die digitale Gesellschaft.