Skip to content

Künstliche Intelligenz und VerantwortungAktivitäten & Unterrichtsstrategien

Aktives Lernen funktioniert hier besonders gut, weil ethische Fragen zu Künstlicher Intelligenz oft abstrakt bleiben, wenn sie nur theoretisch behandelt werden. Durch Rollenspiele, Debatten und Fallanalysen werden die Schülerinnen und Schüler gezwungen, Verantwortungszuschreibungen konkret zu durchdenken und nicht nur oberflächlich zu diskutieren.

Klasse 9Wer bin ich und was soll ich tun? – Philosophische Orientierung in der Moderne4 Aktivitäten30 Min.50 Min.

Lernziele

  1. 1Analysiere die ethischen Dilemmata, die sich aus autonomen Entscheidungen von KI-Systemen ergeben, z.B. bei der Programmierung von Fahrzeugen für Unfallszenarien.
  2. 2Erkläre die verschiedenen Modelle der Verantwortungszuweisung bei Fehlfunktionen oder Schäden durch KI-Systeme.
  3. 3Vergleiche die Kriterien für moralische Urteilsfähigkeit bei Menschen mit den Fähigkeiten heutiger KI-Systeme.
  4. 4Bewerte die Aussagekraft von KI-Systemen als Werkzeuge im Vergleich zu potenziellen moralischen Akteuren unter Berücksichtigung ihrer Autonomie und Entscheidungsfindung.

Möchten Sie einen vollständigen Unterrichtsentwurf mit diesen Lernzielen? Mission erstellen

45 Min.·Kleingruppen

Rollenspiel: Trolley-Problem mit KI

Teilen Sie die Klasse in Gruppen auf. Jede Gruppe simuliert ein Szenario mit einem selbstfahrenden Auto, das zwischen Opfern wählen muss. Schüler übernehmen Rollen als Programmierer, Auto und Betroffene, diskutieren Entscheidungen und notieren Argumente. Abschließend präsentieren sie Lösungsvorschläge.

Vorbereitung & Details

Analysiere die ethischen Herausforderungen autonomer Systeme (z.B. selbstfahrende Autos).

Moderationstipp: Stellen Sie beim Rollenspiel sicher, dass alle Gruppen ihre Entscheidungsbegründungen schriftlich festhalten, um später im Plenum eine strukturierte Diskussion führen zu können.

Setup: Spielfläche oder entsprechend angeordnete Tische für das Szenario

Materials: Rollenkarten mit Hintergrundinfos und Zielen, Szenario-Briefing

AnwendenAnalysierenBewertenSozialbewusstseinSelbstwahrnehmung
50 Min.·Kleingruppen

Debatte: Maschinen als moralische Akteure

Formen Sie Pro- und Contra-Teams. Teams bereiten Argumente vor, ob KI moralisch haftbar sein kann. Moderator leitet die Debatte mit festen Redezeiten. Am Ende votet die Klasse und reflektiert gängige Positionen.

Vorbereitung & Details

Erkläre, wie Verantwortung bei Entscheidungen von KI-Systemen zugewiesen werden kann.

Moderationstipp: Lenken Sie die Debatte zur Maschine als moralischem Akteur gezielt durch gezielte Nachfragen, die die Schüler dazu bringen, ihre Argumente mit konkreten Beispielen aus den Fallstudien zu untermauern.

Setup: Zwei sich gegenüberstehende Teams, Sitzplätze für das Publikum

Materials: Thesenkarte für die Debatte, Recherche-Dossier für jede Seite, Bewertungsbogen für das Publikum, Stoppuhr

AnalysierenBewertenErschaffenSelbststeuerungEntscheidungsfähigkeit
35 Min.·Partnerarbeit

Fallstudien-Analyse: Echte KI-Fehler

Verteilen Sie Fälle wie Chatbot-Vorurteile oder Drohnenentscheidungen. Paare analysieren Ursachen, Verantwortliche und Lösungen in einer Tabelle. Gemeinsam besprechen sie Muster in der Klasse.

Vorbereitung & Details

Beurteile, ob Maschinen moralische Akteure sein können oder nur Werkzeuge.

Moderationstipp: Visualisieren Sie beim Verantwortungsbaum jeden Schritt an der Tafel, damit die Schüler nachvollziehen können, wie Verantwortung in komplexen Systemen verteilt wird.

Setup: Gruppentische mit Platz für die Fallunterlagen

Materials: Fallstudien-Paket (3-5 Seiten), Arbeitsblatt mit Analyseraster, Präsentationsvorlage

AnalysierenBewertenErschaffenEntscheidungsfähigkeitSelbststeuerung
30 Min.·Einzelarbeit

Verantwortungsbaum: Zuweisung visualisieren

Individuell zeichnen Schüler einen Baum mit KI-Entscheidung im Stamm und Zweigen für Hersteller, Nutzer, Programmierer. In Kleingruppen ergänzen und diskutieren sie. Plakatieren Sie die besten.

Vorbereitung & Details

Analysiere die ethischen Herausforderungen autonomer Systeme (z.B. selbstfahrende Autos).

Moderationstipp: Wählen Sie bei den Fallstudien zu KI-Fehlern aktuelle Beispiele aus, die die Schüler emotional berühren, um die ethische Dimension greifbarer zu machen.

Setup: Gruppentische mit Platz für die Fallunterlagen

Materials: Fallstudien-Paket (3-5 Seiten), Arbeitsblatt mit Analyseraster, Präsentationsvorlage

AnalysierenBewertenErschaffenEntscheidungsfähigkeitSelbststeuerung

Dieses Thema unterrichten

Thema sollte nicht als rein technische Diskussion geführt werden, sondern immer wieder an konkrete Lebenswelten der Schüler anknüpfen. Vermeiden Sie es, ethische Fragen als rein philosophische Übung zu behandeln – stattdessen müssen die Schüler erleben, dass ihre eigenen Entscheidungen (z.B. im Trolley-Problem) reale Konsequenzen haben. Studien zeigen, dass moralische Urteile bei Jugendlichen stark von Emotionen und konkreten Erfahrungen abhängen, nicht von abstrakten Regeln.

Was Sie erwartet

Am Ende der Einheit können die Schülerinnen und Schüler Verantwortungsfragen bei KI-Entscheidungen differenziert erörtern, indem sie verschiedene Akteure und deren Rollen benennen und moralische Grenzen von Maschinen verstehen. Sie nutzen Argumentationsstrukturen, um eigene Positionen zu begründen und die Perspektiven anderer nachzuvollziehen.

Diese Aktivitäten sind ein Ausgangspunkt. Die vollständige Mission ist das Erlebnis.

  • Vollständiges Moderationsskript mit Lehrkraft-Dialogen
  • Druckfertige Schülermaterialien, bereit für den Unterricht
  • Differenzierungsstrategien für jeden Lerntyp
Mission erstellen

Vorsicht vor diesen Fehlvorstellungen

Häufige FehlvorstellungWährend des Rollenspiels zum Trolley-Problem mit KI könnte die Aussage fallen: 'KI trifft immer faire Entscheidungen, da sie neutral ist.'

Was Sie stattdessen lehren sollten

Nutzen Sie die Diskussion im Anschluss an das Rollenspiel, um gemeinsam mit den Schülern die Trainingsdaten der KI zu analysieren und zu zeigen, wie Vorurteile in Algorithmen entstehen. Zeigen Sie reale Beispiele, bei denen KI-Systeme diskriminierende Entscheidungen trafen.

Häufige FehlvorstellungIm Rahmen der Debatte zur Maschine als moralischem Akteur könnte geäußert werden: 'Bei KI-Unfällen haftet immer der Hersteller.'

Was Sie stattdessen lehren sollten

Führen Sie nach der Debatte eine strukturierte Nachfrage ein: 'Wer ist neben dem Hersteller noch verantwortlich, wenn ein selbstfahrendes Auto einen Unfall verursacht?' Lassen Sie die Schüler in Kleingruppen mögliche Verantwortungsträger (Programmierer, Nutzer, Betreiber) diskutieren und deren Rollen im Verantwortungsbaum visualisieren.

Häufige FehlvorstellungIn der Fallstudien-Analyse zu echten KI-Fehlern könnte die Annahme auftauchen: 'Maschinen können moralisch verantwortlich sein wie Menschen.'

Was Sie stattdessen lehren sollten

Reflektieren Sie nach der Analyse der Fallstudien gemeinsam mit den Schülern die Unterschiede zwischen menschlicher und maschineller Verantwortung. Nutzen Sie die Debatte als Anlass, um die Schüler aufzufordern, drei konkrete Gründe zu nennen, warum eine KI keine moralischen Akteure sein kann.

Ideen zur Lernstandserhebung

Diskussionsfrage

Nach dem Rollenspiel zum Trolley-Problem mit KI stellen Sie die Frage: 'Ein selbstfahrendes Auto muss entscheiden, ob es ausweicht und einen Fußgänger verletzt oder geradeaus fährt und die Insassen gefährdet. Wer soll diese Entscheidung programmieren und wer trägt die Verantwortung, wenn etwas schiefgeht? Begründet eure Antworten.' Die Antworten sollten zeigen, dass die Schüler Verantwortung zwischen Entwicklern, Nutzern und Systemen differenzieren können.

Lernstandskontrolle

Nach der Debatte zur Maschine als moralischem Akteur bitten Sie die Schüler, auf einer Karte zwei Sätze zu schreiben: einen, der erklärt, warum es schwierig ist, die Verantwortung bei KI-Entscheidungen zuzuweisen, und einen, der eine mögliche Lösung oder einen Ansatz dafür vorschlägt. Sammeln Sie die Karten und werten Sie aus, ob die Schüler konkrete Akteure und Systeme benennen.

Kurze Überprüfung

Während der Fallstudien-Analyse zu echten KI-Fehlern geben Sie den Schülern drei kurze Szenarien (z.B. ein autonomer Rasenmäher, ein KI-gestütztes Empfehlungssystem, ein Chatbot). Lassen Sie sie für jedes Szenario kurz notieren, wer ihrer Meinung nach die Verantwortung tragen könnte und warum. Die Notizen dienen als Grundlage für die spätere Visualisierung im Verantwortungsbaum.

Erweiterungen & Unterstützung

  • Fordern Sie schnelle Schüler auf, ein eigenes KI-Szenario zu entwickeln, in dem sie Verantwortung zwischen verschiedenen Akteuren verteilen und ihre Lösung mit den Mitschülern diskutieren.
  • Unterstützen Sie unsichere Schüler durch vorgefertigte Rollenkarten mit klaren Argumentationshilfen, die sie in der Debatte oder im Rollenspiel nutzen können.
  • Vertiefen Sie das Thema mit einem Expertenvortrag (z.B. per Video) eines Ethikers oder KI-Entwicklers, gefolgt von einer Reflexion über die Grenzen und Möglichkeiten menschlicher Verantwortung bei KI-Systemen.

Schlüsselvokabular

Autonomes SystemEin System, das in der Lage ist, seine Umgebung wahrzunehmen und unabhängig Entscheidungen zu treffen, ohne ständige menschliche Eingriffe.
VerantwortungsdiffusionDie Streuung von Verantwortung über mehrere Personen oder Instanzen, wodurch es schwierig wird, eine einzelne verantwortliche Partei zu identifizieren.
AlgorithmusEine Schritt-für-Schritt-Anleitung oder ein Regelwerk, das ein Computer befolgt, um eine bestimmte Aufgabe zu lösen oder eine Entscheidung zu treffen.
KI-EthikDas Teilgebiet der Ethik, das sich mit den moralischen Fragen und Herausforderungen befasst, die durch die Entwicklung und Anwendung von künstlicher Intelligenz entstehen.

Bereit, Künstliche Intelligenz und Verantwortung zu unterrichten?

Erstellen Sie eine vollständige Mission mit allem, was Sie brauchen

Mission erstellen