Künstliche Intelligenz und VerantwortungAktivitäten & Unterrichtsstrategien
Aktives Lernen funktioniert hier besonders gut, weil ethische Fragen zu Künstlicher Intelligenz oft abstrakt bleiben, wenn sie nur theoretisch behandelt werden. Durch Rollenspiele, Debatten und Fallanalysen werden die Schülerinnen und Schüler gezwungen, Verantwortungszuschreibungen konkret zu durchdenken und nicht nur oberflächlich zu diskutieren.
Lernziele
- 1Analysiere die ethischen Dilemmata, die sich aus autonomen Entscheidungen von KI-Systemen ergeben, z.B. bei der Programmierung von Fahrzeugen für Unfallszenarien.
- 2Erkläre die verschiedenen Modelle der Verantwortungszuweisung bei Fehlfunktionen oder Schäden durch KI-Systeme.
- 3Vergleiche die Kriterien für moralische Urteilsfähigkeit bei Menschen mit den Fähigkeiten heutiger KI-Systeme.
- 4Bewerte die Aussagekraft von KI-Systemen als Werkzeuge im Vergleich zu potenziellen moralischen Akteuren unter Berücksichtigung ihrer Autonomie und Entscheidungsfindung.
Möchten Sie einen vollständigen Unterrichtsentwurf mit diesen Lernzielen? Mission erstellen →
Rollenspiel: Trolley-Problem mit KI
Teilen Sie die Klasse in Gruppen auf. Jede Gruppe simuliert ein Szenario mit einem selbstfahrenden Auto, das zwischen Opfern wählen muss. Schüler übernehmen Rollen als Programmierer, Auto und Betroffene, diskutieren Entscheidungen und notieren Argumente. Abschließend präsentieren sie Lösungsvorschläge.
Vorbereitung & Details
Analysiere die ethischen Herausforderungen autonomer Systeme (z.B. selbstfahrende Autos).
Moderationstipp: Stellen Sie beim Rollenspiel sicher, dass alle Gruppen ihre Entscheidungsbegründungen schriftlich festhalten, um später im Plenum eine strukturierte Diskussion führen zu können.
Setup: Spielfläche oder entsprechend angeordnete Tische für das Szenario
Materials: Rollenkarten mit Hintergrundinfos und Zielen, Szenario-Briefing
Debatte: Maschinen als moralische Akteure
Formen Sie Pro- und Contra-Teams. Teams bereiten Argumente vor, ob KI moralisch haftbar sein kann. Moderator leitet die Debatte mit festen Redezeiten. Am Ende votet die Klasse und reflektiert gängige Positionen.
Vorbereitung & Details
Erkläre, wie Verantwortung bei Entscheidungen von KI-Systemen zugewiesen werden kann.
Moderationstipp: Lenken Sie die Debatte zur Maschine als moralischem Akteur gezielt durch gezielte Nachfragen, die die Schüler dazu bringen, ihre Argumente mit konkreten Beispielen aus den Fallstudien zu untermauern.
Setup: Zwei sich gegenüberstehende Teams, Sitzplätze für das Publikum
Materials: Thesenkarte für die Debatte, Recherche-Dossier für jede Seite, Bewertungsbogen für das Publikum, Stoppuhr
Fallstudien-Analyse: Echte KI-Fehler
Verteilen Sie Fälle wie Chatbot-Vorurteile oder Drohnenentscheidungen. Paare analysieren Ursachen, Verantwortliche und Lösungen in einer Tabelle. Gemeinsam besprechen sie Muster in der Klasse.
Vorbereitung & Details
Beurteile, ob Maschinen moralische Akteure sein können oder nur Werkzeuge.
Moderationstipp: Visualisieren Sie beim Verantwortungsbaum jeden Schritt an der Tafel, damit die Schüler nachvollziehen können, wie Verantwortung in komplexen Systemen verteilt wird.
Setup: Gruppentische mit Platz für die Fallunterlagen
Materials: Fallstudien-Paket (3-5 Seiten), Arbeitsblatt mit Analyseraster, Präsentationsvorlage
Verantwortungsbaum: Zuweisung visualisieren
Individuell zeichnen Schüler einen Baum mit KI-Entscheidung im Stamm und Zweigen für Hersteller, Nutzer, Programmierer. In Kleingruppen ergänzen und diskutieren sie. Plakatieren Sie die besten.
Vorbereitung & Details
Analysiere die ethischen Herausforderungen autonomer Systeme (z.B. selbstfahrende Autos).
Moderationstipp: Wählen Sie bei den Fallstudien zu KI-Fehlern aktuelle Beispiele aus, die die Schüler emotional berühren, um die ethische Dimension greifbarer zu machen.
Setup: Gruppentische mit Platz für die Fallunterlagen
Materials: Fallstudien-Paket (3-5 Seiten), Arbeitsblatt mit Analyseraster, Präsentationsvorlage
Dieses Thema unterrichten
Thema sollte nicht als rein technische Diskussion geführt werden, sondern immer wieder an konkrete Lebenswelten der Schüler anknüpfen. Vermeiden Sie es, ethische Fragen als rein philosophische Übung zu behandeln – stattdessen müssen die Schüler erleben, dass ihre eigenen Entscheidungen (z.B. im Trolley-Problem) reale Konsequenzen haben. Studien zeigen, dass moralische Urteile bei Jugendlichen stark von Emotionen und konkreten Erfahrungen abhängen, nicht von abstrakten Regeln.
Was Sie erwartet
Am Ende der Einheit können die Schülerinnen und Schüler Verantwortungsfragen bei KI-Entscheidungen differenziert erörtern, indem sie verschiedene Akteure und deren Rollen benennen und moralische Grenzen von Maschinen verstehen. Sie nutzen Argumentationsstrukturen, um eigene Positionen zu begründen und die Perspektiven anderer nachzuvollziehen.
Diese Aktivitäten sind ein Ausgangspunkt. Die vollständige Mission ist das Erlebnis.
- Vollständiges Moderationsskript mit Lehrkraft-Dialogen
- Druckfertige Schülermaterialien, bereit für den Unterricht
- Differenzierungsstrategien für jeden Lerntyp
Vorsicht vor diesen Fehlvorstellungen
Häufige FehlvorstellungWährend des Rollenspiels zum Trolley-Problem mit KI könnte die Aussage fallen: 'KI trifft immer faire Entscheidungen, da sie neutral ist.'
Was Sie stattdessen lehren sollten
Nutzen Sie die Diskussion im Anschluss an das Rollenspiel, um gemeinsam mit den Schülern die Trainingsdaten der KI zu analysieren und zu zeigen, wie Vorurteile in Algorithmen entstehen. Zeigen Sie reale Beispiele, bei denen KI-Systeme diskriminierende Entscheidungen trafen.
Häufige FehlvorstellungIm Rahmen der Debatte zur Maschine als moralischem Akteur könnte geäußert werden: 'Bei KI-Unfällen haftet immer der Hersteller.'
Was Sie stattdessen lehren sollten
Führen Sie nach der Debatte eine strukturierte Nachfrage ein: 'Wer ist neben dem Hersteller noch verantwortlich, wenn ein selbstfahrendes Auto einen Unfall verursacht?' Lassen Sie die Schüler in Kleingruppen mögliche Verantwortungsträger (Programmierer, Nutzer, Betreiber) diskutieren und deren Rollen im Verantwortungsbaum visualisieren.
Häufige FehlvorstellungIn der Fallstudien-Analyse zu echten KI-Fehlern könnte die Annahme auftauchen: 'Maschinen können moralisch verantwortlich sein wie Menschen.'
Was Sie stattdessen lehren sollten
Reflektieren Sie nach der Analyse der Fallstudien gemeinsam mit den Schülern die Unterschiede zwischen menschlicher und maschineller Verantwortung. Nutzen Sie die Debatte als Anlass, um die Schüler aufzufordern, drei konkrete Gründe zu nennen, warum eine KI keine moralischen Akteure sein kann.
Ideen zur Lernstandserhebung
Nach dem Rollenspiel zum Trolley-Problem mit KI stellen Sie die Frage: 'Ein selbstfahrendes Auto muss entscheiden, ob es ausweicht und einen Fußgänger verletzt oder geradeaus fährt und die Insassen gefährdet. Wer soll diese Entscheidung programmieren und wer trägt die Verantwortung, wenn etwas schiefgeht? Begründet eure Antworten.' Die Antworten sollten zeigen, dass die Schüler Verantwortung zwischen Entwicklern, Nutzern und Systemen differenzieren können.
Nach der Debatte zur Maschine als moralischem Akteur bitten Sie die Schüler, auf einer Karte zwei Sätze zu schreiben: einen, der erklärt, warum es schwierig ist, die Verantwortung bei KI-Entscheidungen zuzuweisen, und einen, der eine mögliche Lösung oder einen Ansatz dafür vorschlägt. Sammeln Sie die Karten und werten Sie aus, ob die Schüler konkrete Akteure und Systeme benennen.
Während der Fallstudien-Analyse zu echten KI-Fehlern geben Sie den Schülern drei kurze Szenarien (z.B. ein autonomer Rasenmäher, ein KI-gestütztes Empfehlungssystem, ein Chatbot). Lassen Sie sie für jedes Szenario kurz notieren, wer ihrer Meinung nach die Verantwortung tragen könnte und warum. Die Notizen dienen als Grundlage für die spätere Visualisierung im Verantwortungsbaum.
Erweiterungen & Unterstützung
- Fordern Sie schnelle Schüler auf, ein eigenes KI-Szenario zu entwickeln, in dem sie Verantwortung zwischen verschiedenen Akteuren verteilen und ihre Lösung mit den Mitschülern diskutieren.
- Unterstützen Sie unsichere Schüler durch vorgefertigte Rollenkarten mit klaren Argumentationshilfen, die sie in der Debatte oder im Rollenspiel nutzen können.
- Vertiefen Sie das Thema mit einem Expertenvortrag (z.B. per Video) eines Ethikers oder KI-Entwicklers, gefolgt von einer Reflexion über die Grenzen und Möglichkeiten menschlicher Verantwortung bei KI-Systemen.
Schlüsselvokabular
| Autonomes System | Ein System, das in der Lage ist, seine Umgebung wahrzunehmen und unabhängig Entscheidungen zu treffen, ohne ständige menschliche Eingriffe. |
| Verantwortungsdiffusion | Die Streuung von Verantwortung über mehrere Personen oder Instanzen, wodurch es schwierig wird, eine einzelne verantwortliche Partei zu identifizieren. |
| Algorithmus | Eine Schritt-für-Schritt-Anleitung oder ein Regelwerk, das ein Computer befolgt, um eine bestimmte Aufgabe zu lösen oder eine Entscheidung zu treffen. |
| KI-Ethik | Das Teilgebiet der Ethik, das sich mit den moralischen Fragen und Herausforderungen befasst, die durch die Entwicklung und Anwendung von künstlicher Intelligenz entstehen. |
Vorgeschlagene Methoden
Mehr in Technik und Zukunft: Darf der Mensch alles, was er kann?
Einführung in die Technikethik
Die Schülerinnen und Schüler definieren den Gegenstand der Technikethik und identifizieren ethische Fragen im Umgang mit neuen Technologien.
2 methodologies
Datenschutz und Überwachung
Die Schülerinnen und Schüler diskutieren die ethischen Implikationen von Big Data, Überwachungstechnologien und dem Recht auf Privatsphäre.
2 methodologies
Optimierung des Menschen: Neuro-Enhancement
Diskussion über Neuro-Enhancement und Gentechnik (Designer-Babys).
2 methodologies
Gentechnik und Designer-Babys
Die Schülerinnen und Schüler setzen sich mit den ethischen Fragen der Genmanipulation am Menschen auseinander.
2 methodologies
Ökologische Ethik
Verantwortung gegenüber künftigen Generationen und der Mitwelt.
2 methodologies
Bereit, Künstliche Intelligenz und Verantwortung zu unterrichten?
Erstellen Sie eine vollständige Mission mit allem, was Sie brauchen
Mission erstellen