Skip to content
Philosophie · Klasse 9

Ideen für aktives Lernen

Künstliche Intelligenz und Verantwortung

Aktives Lernen funktioniert hier besonders gut, weil ethische Fragen zu Künstlicher Intelligenz oft abstrakt bleiben, wenn sie nur theoretisch behandelt werden. Durch Rollenspiele, Debatten und Fallanalysen werden die Schülerinnen und Schüler gezwungen, Verantwortungszuschreibungen konkret zu durchdenken und nicht nur oberflächlich zu diskutieren.

KMK BildungsstandardsProbleme des menschlichen HandelnsMedienkritik
30–50 Min.Partnerarbeit → Ganze Klasse4 Aktivitäten

Aktivität 01

Rollenspiel45 Min. · Kleingruppen

Rollenspiel: Trolley-Problem mit KI

Teilen Sie die Klasse in Gruppen auf. Jede Gruppe simuliert ein Szenario mit einem selbstfahrenden Auto, das zwischen Opfern wählen muss. Schüler übernehmen Rollen als Programmierer, Auto und Betroffene, diskutieren Entscheidungen und notieren Argumente. Abschließend präsentieren sie Lösungsvorschläge.

Analysiere die ethischen Herausforderungen autonomer Systeme (z.B. selbstfahrende Autos).

ModerationstippStellen Sie beim Rollenspiel sicher, dass alle Gruppen ihre Entscheidungsbegründungen schriftlich festhalten, um später im Plenum eine strukturierte Diskussion führen zu können.

Worauf zu achten istStellen Sie den Schülern folgende Frage: 'Ein selbstfahrendes Auto muss entscheiden, ob es ausweicht und einen Fußgänger verletzt oder geradeaus fährt und die Insassen gefährdet. Wer soll diese Entscheidung programmieren und wer trägt die Verantwortung, wenn etwas schiefgeht? Begründet eure Antworten.'

AnwendenAnalysierenBewertenSozialbewusstseinSelbstwahrnehmung
Komplette Unterrichtsstunde erstellen

Aktivität 02

Debatte50 Min. · Kleingruppen

Debatte: Maschinen als moralische Akteure

Formen Sie Pro- und Contra-Teams. Teams bereiten Argumente vor, ob KI moralisch haftbar sein kann. Moderator leitet die Debatte mit festen Redezeiten. Am Ende votet die Klasse und reflektiert gängige Positionen.

Erkläre, wie Verantwortung bei Entscheidungen von KI-Systemen zugewiesen werden kann.

ModerationstippLenken Sie die Debatte zur Maschine als moralischem Akteur gezielt durch gezielte Nachfragen, die die Schüler dazu bringen, ihre Argumente mit konkreten Beispielen aus den Fallstudien zu untermauern.

Worauf zu achten istBitten Sie die Schüler, auf einer Karte zwei Sätze zu schreiben: einen, der erklärt, warum es schwierig ist, die Verantwortung bei KI-Entscheidungen zuzuweisen, und einen, der eine mögliche Lösung oder einen Ansatz dafür vorschlägt.

AnalysierenBewertenErschaffenSelbststeuerungEntscheidungsfähigkeit
Komplette Unterrichtsstunde erstellen

Aktivität 03

Fallstudienanalyse35 Min. · Partnerarbeit

Fallstudien-Analyse: Echte KI-Fehler

Verteilen Sie Fälle wie Chatbot-Vorurteile oder Drohnenentscheidungen. Paare analysieren Ursachen, Verantwortliche und Lösungen in einer Tabelle. Gemeinsam besprechen sie Muster in der Klasse.

Beurteile, ob Maschinen moralische Akteure sein können oder nur Werkzeuge.

ModerationstippVisualisieren Sie beim Verantwortungsbaum jeden Schritt an der Tafel, damit die Schüler nachvollziehen können, wie Verantwortung in komplexen Systemen verteilt wird.

Worauf zu achten istGeben Sie den Schülern drei kurze Szenarien mit KI-Beteiligung (z.B. ein autonomer Rasenmäher, ein KI-gestütztes Empfehlungssystem, ein Chatbot). Lassen Sie sie für jedes Szenario kurz notieren, wer ihrer Meinung nach die Verantwortung tragen könnte und warum.

AnalysierenBewertenErschaffenEntscheidungsfähigkeitSelbststeuerung
Komplette Unterrichtsstunde erstellen

Aktivität 04

Fallstudienanalyse30 Min. · Einzelarbeit

Verantwortungsbaum: Zuweisung visualisieren

Individuell zeichnen Schüler einen Baum mit KI-Entscheidung im Stamm und Zweigen für Hersteller, Nutzer, Programmierer. In Kleingruppen ergänzen und diskutieren sie. Plakatieren Sie die besten.

Analysiere die ethischen Herausforderungen autonomer Systeme (z.B. selbstfahrende Autos).

ModerationstippWählen Sie bei den Fallstudien zu KI-Fehlern aktuelle Beispiele aus, die die Schüler emotional berühren, um die ethische Dimension greifbarer zu machen.

Worauf zu achten istStellen Sie den Schülern folgende Frage: 'Ein selbstfahrendes Auto muss entscheiden, ob es ausweicht und einen Fußgänger verletzt oder geradeaus fährt und die Insassen gefährdet. Wer soll diese Entscheidung programmieren und wer trägt die Verantwortung, wenn etwas schiefgeht? Begründet eure Antworten.'

AnalysierenBewertenErschaffenEntscheidungsfähigkeitSelbststeuerung
Komplette Unterrichtsstunde erstellen

Einige Hinweise zum Unterrichten dieser Einheit

Thema sollte nicht als rein technische Diskussion geführt werden, sondern immer wieder an konkrete Lebenswelten der Schüler anknüpfen. Vermeiden Sie es, ethische Fragen als rein philosophische Übung zu behandeln – stattdessen müssen die Schüler erleben, dass ihre eigenen Entscheidungen (z.B. im Trolley-Problem) reale Konsequenzen haben. Studien zeigen, dass moralische Urteile bei Jugendlichen stark von Emotionen und konkreten Erfahrungen abhängen, nicht von abstrakten Regeln.

Am Ende der Einheit können die Schülerinnen und Schüler Verantwortungsfragen bei KI-Entscheidungen differenziert erörtern, indem sie verschiedene Akteure und deren Rollen benennen und moralische Grenzen von Maschinen verstehen. Sie nutzen Argumentationsstrukturen, um eigene Positionen zu begründen und die Perspektiven anderer nachzuvollziehen.


Vorsicht vor diesen Fehlvorstellungen

  • Während des Rollenspiels zum Trolley-Problem mit KI könnte die Aussage fallen: 'KI trifft immer faire Entscheidungen, da sie neutral ist.'

    Nutzen Sie die Diskussion im Anschluss an das Rollenspiel, um gemeinsam mit den Schülern die Trainingsdaten der KI zu analysieren und zu zeigen, wie Vorurteile in Algorithmen entstehen. Zeigen Sie reale Beispiele, bei denen KI-Systeme diskriminierende Entscheidungen trafen.

  • Im Rahmen der Debatte zur Maschine als moralischem Akteur könnte geäußert werden: 'Bei KI-Unfällen haftet immer der Hersteller.'

    Führen Sie nach der Debatte eine strukturierte Nachfrage ein: 'Wer ist neben dem Hersteller noch verantwortlich, wenn ein selbstfahrendes Auto einen Unfall verursacht?' Lassen Sie die Schüler in Kleingruppen mögliche Verantwortungsträger (Programmierer, Nutzer, Betreiber) diskutieren und deren Rollen im Verantwortungsbaum visualisieren.

  • In der Fallstudien-Analyse zu echten KI-Fehlern könnte die Annahme auftauchen: 'Maschinen können moralisch verantwortlich sein wie Menschen.'

    Reflektieren Sie nach der Analyse der Fallstudien gemeinsam mit den Schülern die Unterschiede zwischen menschlicher und maschineller Verantwortung. Nutzen Sie die Debatte als Anlass, um die Schüler aufzufordern, drei konkrete Gründe zu nennen, warum eine KI keine moralischen Akteure sein kann.


In dieser Übersicht verwendete Methoden