Zum Inhalt springen
Philosophie · Klasse 12 · Angewandte Ethik: Technik und Umwelt · 2. Halbjahr

Ethik der Digitalisierung: Künstliche Intelligenz

Ethische Fragen im Zusammenhang mit der Entwicklung und dem Einsatz von Künstlicher Intelligenz (KI), Autonomie und Verantwortung.

KMK BildungsstandardsKMK-AE-6.3KMK-AE-6.4

Über dieses Thema

Die Ethik der Digitalisierung mit Fokus auf Künstliche Intelligenz (KI) beleuchtet zentrale Fragen zur Autonomie von KI-Systemen und der damit verbundenen Verantwortung. Schüler analysieren, ob Algorithmen moralisch handeln können, wer für Entscheidungen haftet und welche Auswirkungen KI auf Arbeitsmarkt und menschliche Urteilsfindung hat. Basierend auf den KMK-Standards AE-6.3 und AE-6.4 fördert das Thema philosophische Reflexion über Technik in der Moderne und trainiert argumentatives Denken.

Im Kontext der angewandten Ethik verbindet es abstrakte Prinzipien mit realen Szenarien wie autonomen Fahrzeugen oder algorithmischer Diskriminierung. Schüler lernen, dass KI keine eigenen Intentionen hat, sondern auf Trainingsdaten reagiert, was Bias und Verantwortungsfragen aufwirft. Diese Perspektive stärkt das Verständnis für gesellschaftliche Implikationen und bereitet auf interdisziplinäre Debatten vor.

Aktives Lernen eignet sich hervorragend, da ethische Dilemmata durch Rollenspiele und Gruppendiskussionen lebendig werden. Schüler konstruieren Argumente selbst, prüfen Positionen gegeneinander und entwickeln nuanciertes Urteilsvermögen, das reines Lesen nicht erreicht. (172 Wörter)

Leitfragen

  1. Analysiere die ethischen Herausforderungen, die sich aus der Autonomie von KI-Systemen ergeben.
  2. Erkläre, ob Algorithmen moralisch handeln können und wer die Verantwortung trägt.
  3. Beurteile die Implikationen von KI für den Arbeitsmarkt und die menschliche Entscheidungsfindung.

Lernziele

  • Analysiere die ethischen Dilemmata, die sich aus der Entscheidungsautonomie von KI-Systemen ergeben, indem du spezifische Beispiele wie autonome Fahrzeuge oder medizinische Diagnosesysteme untersuchst.
  • Erkläre die Kriterien, anhand derer menschliches moralisches Handeln bestimmt wird, und bewerte, ob und unter welchen Bedingungen Algorithmen als moralisch handelnd betrachtet werden können.
  • Bewerte die Verantwortung von Entwicklern, Nutzern und Gesetzgebern für ethisch problematische Ergebnisse von KI-Systemen.
  • Synthetisiere Argumente zur potenziellen Veränderung des Arbeitsmarktes durch KI und formuliere ethische Leitlinien für einen gerechten Übergang.
  • Kritisiere die Auswirkungen von KI auf menschliche Entscheidungsprozesse, insbesondere im Hinblick auf Bias und die Delegation von Urteilsvermögen.

Bevor es losgeht

Grundlagen der Ethik: Normative Theorien

Warum: Ein Verständnis grundlegender ethischer Theorien wie Utilitarismus oder Deontologie ist notwendig, um KI-Entscheidungen bewerten zu können.

Einführung in die Philosophie der Technik

Warum: Grundkenntnisse über die Beziehung zwischen Mensch und Technik sowie über technologische Determinismen helfen, die gesellschaftlichen Auswirkungen von KI zu verstehen.

Schlüsselvokabular

Algorithmische Voreingenommenheit (Bias)Systematische und wiederholbare Fehler in einem Computersystem, die zu ungerechten Ergebnissen führen. Bei KI entsteht Bias oft durch unausgewogene Trainingsdaten.
KI-AutonomieDie Fähigkeit eines KI-Systems, eigenständig Ziele zu setzen, Entscheidungen zu treffen und Handlungen auszuführen, ohne direkte menschliche Steuerung.
VerantwortungsdiffusionDie Tendenz, die Verantwortung für eine Handlung auf mehrere Personen oder Entitäten zu verteilen, was dazu führen kann, dass sich niemand mehr direkt verantwortlich fühlt, insbesondere bei komplexen Systemen wie KI.
Maschinelles LernenEin Teilbereich der KI, der es Systemen ermöglicht, aus Daten zu lernen und sich zu verbessern, ohne explizit programmiert zu werden. Die Trainingsdaten sind entscheidend für das Verhalten der KI.
Ethik-by-DesignEin Ansatz, bei dem ethische Überlegungen von Beginn an in den Entwurf und die Entwicklung von Technologien, einschließlich KI, integriert werden.

Vorsicht vor diesen Fehlvorstellungen

Häufige FehlvorstellungKI-Systeme sind neutral und unvoreingenommen.

Was Sie stattdessen lehren sollten

KI übernimmt Bias aus Trainingsdaten, was zu diskriminierenden Entscheidungen führt. Gruppendiskussionen von Fallbeispielen helfen Schülern, Datenquellen zu hinterfragen und aktiv Muster zu erkennen.

Häufige FehlvorstellungKI kann eigenständig moralisch entscheiden.

Was Sie stattdessen lehren sollten

Algorithmen simulieren Entscheidungen basierend auf Programmierung, besitzen aber keine Moral. Rollenspiele verdeutlichen dies, indem Schüler KI-Perspektiven einnehmen und Grenzen der Autonomie erleben.

Häufige FehlvorstellungDie Verantwortung liegt allein bei der KI.

Was Sie stattdessen lehren sollten

Entwickler, Nutzer und Regulierer teilen Verantwortung. Debatten fördern das Verständnis, da Schüler Argumente austauschen und rechtliche Ketten nachvollziehen.

Ideen für aktives Lernen

Alle Aktivitäten ansehen

Bezüge zur Lebenswelt

  • In der Automobilindustrie entwickeln Unternehmen wie Waymo und Tesla autonome Fahrsysteme, die komplexe ethische Entscheidungen in Verkehrssituationen treffen müssen, beispielsweise bei unvermeidbaren Unfällen.
  • Kliniken und Forschungseinrichtungen nutzen KI-gestützte Diagnosesysteme, wie sie beispielsweise von Google Health entwickelt werden, um Krankheiten wie Krebs frühzeitig zu erkennen. Hier stellt sich die Frage nach der Verantwortung bei Fehldiagnosen.
  • Soziale Medienplattformen wie Facebook (Meta) setzen Algorithmen zur Inhaltsmoderation ein, die entscheiden, welche Beiträge angezeigt oder gelöscht werden. Dies wirft Fragen nach Zensur und algorithmischer Voreingenommenheit auf.

Ideen zur Lernstandserhebung

Diskussionsfrage

Stellen Sie die Frage: 'Wenn eine autonome Drohne eine Fehlentscheidung trifft und Schaden verursacht, wer trägt die Verantwortung: der Programmierer, das Unternehmen, das die Drohne verkauft, oder die KI selbst?' Lassen Sie die Schüler in Kleingruppen verschiedene Szenarien diskutieren und ihre Argumente sammeln.

Lernstandskontrolle

Bitten Sie die Schüler, auf einer Karteikarte eine Situation zu beschreiben, in der KI eine ethisch fragwürdige Entscheidung treffen könnte. Sie sollen kurz erläutern, warum die Entscheidung problematisch ist und wer dafür zur Rechenschaft gezogen werden könnte.

Kurze Überprüfung

Geben Sie den Schülern eine kurze Fallstudie (z.B. ein KI-gestütztes Bewerbungssystem, das bestimmte Gruppen diskriminiert). Fragen Sie: 'Identifizieren Sie die Quelle des Bias in diesem System und schlagen Sie eine Maßnahme vor, um die algorithmische Voreingenommenheit zu reduzieren.'

Häufig gestellte Fragen

Was sind die Hauptethik-Herausforderungen bei KI?
Zu den Kernproblemen zählen Autonomiefragen, wie KI unvorhersehbare Entscheidungen trifft, Bias in Algorithmen und Verantwortungsverteilung bei Schäden. Schüler analysieren Implikationen für Arbeitsmarkt und Privatsphäre. Die KMK-Standards fordern hier differenzierte Beurteilung, um philosophische Tiefe zu erreichen. Praktische Übungen machen diese abstrakten Konflikte greifbar. (62 Wörter)
Kann KI moralisch handeln?
KI handelt nicht moralisch, da sie keine Bewusstsein oder Intentionen hat, sondern probabilistische Muster verarbeitet. Moral setzt Reflexion voraus, die Maschinen fehlt. Schüler lernen dies durch Vergleich mit menschlichem Handeln und diskutieren Grenzen der Simulation. Dies stärkt ethisches Urteilsvermögen. (58 Wörter)
Wer trägt Verantwortung bei KI-Fehlern?
Verantwortung liegt primär bei Entwicklern und Betreibern, da sie Design und Einsatz bestimmen. Nutzer haften bei Missbrauch. Rechtliche Rahmen wie EU-KI-Verordnung klären dies. Diskussionen helfen Schülern, Kausalitäten zu entwirren und faire Modelle zu entwickeln. (56 Wörter)
Wie hilft aktives Lernen beim Verständnis von KI-Ethik?
Aktives Lernen macht Ethik greifbar durch Debatten, Rollenspiele und Fallanalysen. Schüler argumentieren Positionen ein, prallen aufeinander und reflektieren Bias. Das fördert kritisches Denken stärker als Frontalunterricht, da emotionale Beteiligung Nuancen vertieft und langfristig Gedächtnis festigt. Gruppenarbeit simuliert reale Diskurse. (68 Wörter)