Künstliche Intelligenz und Verantwortung
Wer haftet für Entscheidungen, die von Algorithmen getroffen werden?
Brauchen Sie einen Unterrichtsplan für Wer bin ich und was soll ich tun? – Philosophische Orientierung in der Moderne?
Leitfragen
- Analysiere die ethischen Herausforderungen autonomer Systeme (z.B. selbstfahrende Autos).
- Erkläre, wie Verantwortung bei Entscheidungen von KI-Systemen zugewiesen werden kann.
- Beurteile, ob Maschinen moralische Akteure sein können oder nur Werkzeuge.
KMK Bildungsstandards
Über dieses Thema
Das Thema ‚Künstliche Intelligenz und Verantwortung‘ untersucht, wer für Entscheidungen haftet, die Algorithmen treffen. Schüler der Klasse 9 analysieren ethische Herausforderungen autonomer Systeme, etwa bei selbstfahrenden Autos. Sie erklären, wie Verantwortung bei KI-Entscheidungen zugewiesen werden kann, und beurteilen, ob Maschinen moralische Akteure oder bloße Werkzeuge sind. Dies verbindet sich mit den KMK-Standards zu Problemen des menschlichen Handelns und Medienkritik.
In der Einheit ‚Technik und Zukunft: Darf der Mensch alles, was er kann?‘ lernen Schüler, Verantwortungsdiffusion zu erkennen. Sie diskutieren Szenarien, in denen KI zwischen Leben wählen muss, und vergleichen menschliche Moral mit programmierter Logik. Solche Debatten schärfen das Urteilsvermögen und fördern Reflexion über Technikfolgen.
Aktives Lernen passt hervorragend, weil abstrakte Konzepte durch Rollenspiele und Gruppendiskussionen konkret werden. Schüler erproben ethische Dilemmata selbst, was emotionale Bindung schafft und langfristiges Verständnis vertieft. Praktische Übungen machen Verantwortungsfragen greifbar und motivieren zu nuancierter Haltung gegenüber KI.
Lernziele
- Analysiere die ethischen Dilemmata, die sich aus autonomen Entscheidungen von KI-Systemen ergeben, z.B. bei der Programmierung von Fahrzeugen für Unfallszenarien.
- Erkläre die verschiedenen Modelle der Verantwortungszuweisung bei Fehlfunktionen oder Schäden durch KI-Systeme.
- Vergleiche die Kriterien für moralische Urteilsfähigkeit bei Menschen mit den Fähigkeiten heutiger KI-Systeme.
- Bewerte die Aussagekraft von KI-Systemen als Werkzeuge im Vergleich zu potenziellen moralischen Akteuren unter Berücksichtigung ihrer Autonomie und Entscheidungsfindung.
Bevor es losgeht
Warum: Ein grundlegendes Verständnis dafür, wie Medien funktionieren und wie Informationen präsentiert werden, ist notwendig, um die Funktionsweise von Algorithmen kritisch zu hinterfragen.
Warum: Schüler sollten grundlegende Konzepte wie Verantwortung, Schuld und moralisches Handeln kennen, um die ethischen Herausforderungen von KI zu verstehen.
Schlüsselvokabular
| Autonomes System | Ein System, das in der Lage ist, seine Umgebung wahrzunehmen und unabhängig Entscheidungen zu treffen, ohne ständige menschliche Eingriffe. |
| Verantwortungsdiffusion | Die Streuung von Verantwortung über mehrere Personen oder Instanzen, wodurch es schwierig wird, eine einzelne verantwortliche Partei zu identifizieren. |
| Algorithmus | Eine Schritt-für-Schritt-Anleitung oder ein Regelwerk, das ein Computer befolgt, um eine bestimmte Aufgabe zu lösen oder eine Entscheidung zu treffen. |
| KI-Ethik | Das Teilgebiet der Ethik, das sich mit den moralischen Fragen und Herausforderungen befasst, die durch die Entwicklung und Anwendung von künstlicher Intelligenz entstehen. |
Ideen für aktives Lernen
Alle Aktivitäten ansehenRollenspiel: Trolley-Problem mit KI
Teilen Sie die Klasse in Gruppen auf. Jede Gruppe simuliert ein Szenario mit einem selbstfahrenden Auto, das zwischen Opfern wählen muss. Schüler übernehmen Rollen als Programmierer, Auto und Betroffene, diskutieren Entscheidungen und notieren Argumente. Abschließend präsentieren sie Lösungsvorschläge.
Debatte: Maschinen als moralische Akteure
Formen Sie Pro- und Contra-Teams. Teams bereiten Argumente vor, ob KI moralisch haftbar sein kann. Moderator leitet die Debatte mit festen Redezeiten. Am Ende votet die Klasse und reflektiert gängige Positionen.
Fallstudien-Analyse: Echte KI-Fehler
Verteilen Sie Fälle wie Chatbot-Vorurteile oder Drohnenentscheidungen. Paare analysieren Ursachen, Verantwortliche und Lösungen in einer Tabelle. Gemeinsam besprechen sie Muster in der Klasse.
Verantwortungsbaum: Zuweisung visualisieren
Individuell zeichnen Schüler einen Baum mit KI-Entscheidung im Stamm und Zweigen für Hersteller, Nutzer, Programmierer. In Kleingruppen ergänzen und diskutieren sie. Plakatieren Sie die besten.
Bezüge zur Lebenswelt
Ingenieure bei Automobilherstellern wie Waymo oder Tesla entwickeln und testen autonome Fahrsysteme, bei denen Entscheidungen über Leben und Tod in Millisekunden getroffen werden müssen.
Juristen und Versicherungsgesellschaften arbeiten an neuen Haftungsmodellen für Schäden, die durch autonome Drohnen oder Roboter in der Logistik oder Landwirtschaft verursacht werden.
Entwickler von medizinischen Diagnose-KI-Systemen müssen sicherstellen, dass die Algorithmen nicht diskriminieren und dass die Verantwortung für Fehldiagnosen klar geregelt ist.
Vorsicht vor diesen Fehlvorstellungen
Häufige FehlvorstellungKI trifft immer faire Entscheidungen, da sie neutral ist.
Was Sie stattdessen lehren sollten
Algorithmen spiegeln Datenbias wider, was zu diskriminierenden Ergebnissen führt. Aktive Analysen realer Fälle helfen Schülern, Vorurteile in Trainingsdaten zu erkennen und Verantwortung den Entwicklern zuzuweisen. Gruppendiskussionen klären, dass Neutralität illusorisch ist.
Häufige FehlvorstellungBei KI-Unfällen haftet immer der Hersteller.
Was Sie stattdessen lehren sollten
Verantwortung verteilt sich auf Programmierer, Betreiber und Nutzer, je nach Kontext. Rollenspiele lassen Schüler Szenarien durchspielen und Nuancen entdecken. So verstehen sie, dass Haftung kontextabhängig ist.
Häufige FehlvorstellungMaschinen können moralisch verantwortlich sein wie Menschen.
Was Sie stattdessen lehren sollten
KI fehlt Bewusstsein und Intentionalität, sie folgt nur Regeln. Debatten fördern Vergleiche mit Werkzeugen und machen klar, dass Moral menschlich bleibt. Schüler lernen durch Argumentation die Grenzen.
Ideen zur Lernstandserhebung
Stellen Sie den Schülern folgende Frage: 'Ein selbstfahrendes Auto muss entscheiden, ob es ausweicht und einen Fußgänger verletzt oder geradeaus fährt und die Insassen gefährdet. Wer soll diese Entscheidung programmieren und wer trägt die Verantwortung, wenn etwas schiefgeht? Begründet eure Antworten.'
Bitten Sie die Schüler, auf einer Karte zwei Sätze zu schreiben: einen, der erklärt, warum es schwierig ist, die Verantwortung bei KI-Entscheidungen zuzuweisen, und einen, der eine mögliche Lösung oder einen Ansatz dafür vorschlägt.
Geben Sie den Schülern drei kurze Szenarien mit KI-Beteiligung (z.B. ein autonomer Rasenmäher, ein KI-gestütztes Empfehlungssystem, ein Chatbot). Lassen Sie sie für jedes Szenario kurz notieren, wer ihrer Meinung nach die Verantwortung tragen könnte und warum.
Vorgeschlagene Methoden
Bereit, dieses Thema zu unterrichten?
Erstellen Sie in Sekundenschnelle eine vollständige, unterrichtsfertige Mission für aktives Lernen.
Eigene Mission generierenHäufig gestellte Fragen
Wer haftet für Unfälle mit selbstfahrenden Autos?
Können Maschinen moralische Akteure sein?
Wie hilft aktives Lernen bei KI-Ethik?
Was sind ethische Herausforderungen autonomer Systeme?
Mehr in Technik und Zukunft: Darf der Mensch alles, was er kann?
Einführung in die Technikethik
Die Schülerinnen und Schüler definieren den Gegenstand der Technikethik und identifizieren ethische Fragen im Umgang mit neuen Technologien.
2 methodologies
Datenschutz und Überwachung
Die Schülerinnen und Schüler diskutieren die ethischen Implikationen von Big Data, Überwachungstechnologien und dem Recht auf Privatsphäre.
2 methodologies
Optimierung des Menschen: Neuro-Enhancement
Diskussion über Neuro-Enhancement und Gentechnik (Designer-Babys).
2 methodologies
Gentechnik und Designer-Babys
Die Schülerinnen und Schüler setzen sich mit den ethischen Fragen der Genmanipulation am Menschen auseinander.
2 methodologies
Ökologische Ethik
Verantwortung gegenüber künftigen Generationen und der Mitwelt.
2 methodologies