Zum Inhalt springen
Philosophie · Klasse 11 · Angewandte Ethik: Herausforderungen der Gegenwart · 2. Halbjahr

Ethik der Künstlichen Intelligenz (KI)

Ethische Fragen im Zusammenhang mit der Entwicklung und dem Einsatz von Künstlicher Intelligenz.

KMK BildungsstandardsEthisch-praktische UrteilsbildungMedienkritik

Über dieses Thema

Das Thema Ethik der Künstlichen Intelligenz (KI) untersucht ethische Fragen zur Entwicklung und zum Einsatz von KI-Systemen. Schüler analysieren Herausforderungen autonomer Systeme, wie Entscheidungen in selbstfahrenden Autos, und das Problem der Verantwortungszuschreibung: Wer haftet bei Fehlern einer KI? Sie beurteilen moralische Implikationen für Arbeit (Automatisierung von Jobs), Privatsphäre (Datenmissbrauch) und soziale Gerechtigkeit (Bias in Algorithmen). Dies entspricht den KMK-Standards für ethisch-praktische Urteilsbildung und Medienkritik.

Im Kontext von Angewandter Ethik verbindet das Thema philosophische Grundfragen zu Mensch, Moral und Erkenntnis mit Gegenwartsherausforderungen. Schüler üben, Argumente abzuwägen, philosophische Positionen wie Utilitarismus oder Deontologie anzuwenden und gesellschaftliche Folgen kritisch zu reflektieren. Solche Diskussionen fördern Medienkompetenz und ethisches Denken, das über das Fach hinauswirkt.

Active Learning eignet sich hervorragend, weil abstrakte Dilemmata durch Rollenspiele, Debatten und Fallanalysen greifbar werden. Schüler entwickeln Urteilsfähigkeit, indem sie Positionen vertreten, gegenseitig argumentieren und Lösungen erarbeiten. So entsteht echtes Verständnis und Engagement für ethische Themen.

Leitfragen

  1. Analysieren Sie die ethischen Herausforderungen autonomer Systeme und Entscheidungen durch KI.
  2. Erklären Sie das Problem der Verantwortungszuschreibung bei KI-Systemen.
  3. Beurteilen Sie die moralischen Implikationen von KI für Arbeit, Privatsphäre und soziale Gerechtigkeit.

Lernziele

  • Analysieren Sie die ethischen Dilemmata, die sich aus der Entscheidungsfindung autonomer KI-Systeme in komplexen Szenarien ergeben.
  • Erklären Sie die Herausforderungen bei der Zuweisung von Verantwortung und Schuld, wenn KI-Systeme fehlerhafte oder schädliche Ergebnisse produzieren.
  • Bewerten Sie die potenziellen Auswirkungen von KI auf die Arbeitsplatzstruktur, einschließlich Automatisierung und Umschulungsbedarf.
  • Kritisieren Sie die Risiken von algorithmischem Bias in KI-Systemen und deren Einfluss auf soziale Gerechtigkeit und Chancengleichheit.
  • Entwerfen Sie ethische Richtlinien für den verantwortungsvollen Einsatz von KI im Hinblick auf Datenschutz und Privatsphäre.

Bevor es losgeht

Grundlagen der Ethik: Tugendethik, Deontologie, Utilitarismus

Warum: Ein grundlegendes Verständnis verschiedener ethischer Theorien ist notwendig, um die moralischen Implikationen von KI-Systemen bewerten zu können.

Einführung in die Medienkompetenz und kritische Informationsbewertung

Warum: Schüler müssen lernen, Informationen über neue Technologien kritisch zu hinterfragen und potenzielle Risiken und Vorteile zu erkennen.

Schlüsselvokabular

Autonomes SystemEin System, das in der Lage ist, seine Umgebung wahrzunehmen und unabhängig zu handeln, ohne ständige menschliche Steuerung. Beispiele sind selbstfahrende Autos oder autonome Drohnen.
VerantwortungszuschreibungDie Schwierigkeit, festzustellen, wer für die Handlungen oder Fehler eines KI-Systems verantwortlich ist. Dies betrifft Entwickler, Nutzer oder die KI selbst.
Algorithmischer BiasSystematische und wiederholbare Fehler in einem Computersystem, die zu unfairen Ergebnissen führen, oft aufgrund voreingenommener Trainingsdaten. Dies kann Diskriminierung verstärken.
DatenschutzDas Recht von Individuen, die Kontrolle über ihre persönlichen Daten zu behalten und zu bestimmen, wie diese gesammelt, verwendet und weitergegeben werden. KI wirft hier neue Fragen auf.
DeontologieEin ethischer Ansatz, der besagt, dass die Moral einer Handlung von der Einhaltung bestimmter Regeln oder Pflichten abhängt, unabhängig von den Konsequenzen. Dies kann auf KI-Entscheidungen angewendet werden.
UtilitarismusEin ethischer Ansatz, der Handlungen danach bewertet, ob sie das größte Glück für die größte Anzahl von Menschen hervorbringen. KI-Entscheidungen können nach diesem Prinzip bewertet werden.

Vorsicht vor diesen Fehlvorstellungen

Häufige FehlvorstellungKI ist immer neutral und objektiv.

Was Sie stattdessen lehren sollten

KI übernimmt Vorurteile der Trainingsdaten und Entwickler. Active Learning wie Fallanalysen hilft Schülern, reale Beispiele zu untersuchen und Bias-Muster zu erkennen, was kritisches Denken schult.

Häufige FehlvorstellungBei KI-Fehlern haftet die Maschine selbst.

Was Sie stattdessen lehren sollten

Verantwortung liegt bei Programmierern, Betreibern oder Gesetzgebern. Rollenspiele klären Zuschreibungsprobleme, indem Schüler Perspektiven einnehmen und Argumente austauschen.

Häufige FehlvorstellungKI ersetzt menschliche Moral vollständig.

Was Sie stattdessen lehren sollten

KI simuliert Entscheidungen, ersetzt aber keine ethische Reflexion. Debatten zeigen Grenzen auf und fördern Verständnis durch gegenseitige Herausforderung von Positionen.

Ideen für aktives Lernen

Alle Aktivitäten ansehen

Bezüge zur Lebenswelt

  • In der Automobilindustrie müssen Ingenieure und Ethiker entscheiden, wie autonome Fahrzeuge in Unfallsituationen reagieren sollen. Dies betrifft die Programmierung von Entscheidungsbäumen, die Leben retten oder minimieren sollen, wie es bei der Entwicklung von Systemen für Tesla oder Waymo diskutiert wird.
  • Gerichte und Versicherungsunternehmen stehen vor der Herausforderung, Haftungsfragen bei Unfällen mit autonomen Fahrzeugen zu klären. Ein Beispiel ist die Debatte um die Verantwortung bei einem tödlichen Unfall eines selbstfahrenden Autos in Arizona.
  • Personalabteilungen nutzen zunehmend KI-gestützte Tools zur Bewerberauswahl. Hier muss sichergestellt werden, dass Algorithmen nicht diskriminieren und faire Chancen für alle Bewerber bieten, wie es bei der Implementierung solcher Systeme in großen Technologieunternehmen der Fall ist.

Ideen zur Lernstandserhebung

Diskussionsfrage

Stellen Sie den Schülern folgendes Szenario vor: Ein autonomes Fahrzeug muss entscheiden, ob es ausweicht und einen Fußgänger verletzt oder auf der Straße bleibt und die Insassen gefährdet. Bitten Sie die Schüler, in Kleingruppen zu diskutieren, welche ethische Theorie (z.B. Utilitarismus, Deontologie) hier angewendet werden sollte und warum. Fordern Sie sie auf, ihre Entscheidung zu begründen und mögliche Konsequenzen zu bedenken.

Lernstandskontrolle

Geben Sie jedem Schüler eine Karte mit einem Schlagwort zum Thema KI-Ethik (z.B. Bias, Verantwortung, Privatsphäre). Bitten Sie die Schüler, eine kurze Definition des Begriffs in eigenen Worten zu schreiben und ein konkretes Beispiel zu nennen, wie dieser Begriff im Zusammenhang mit KI relevant ist.

Kurze Überprüfung

Erstellen Sie eine Liste von kurzen Aussagen über KI-Ethik (z.B. 'KI kann niemals menschliche Moral ersetzen.' oder 'Algorithmen sind immer objektiv.'). Bitten Sie die Schüler, jede Aussage mit 'stimme zu', 'stimme nicht zu' oder 'unsicher' zu bewerten und eine kurze Begründung für ihre Wahl zu geben.

Häufig gestellte Fragen

Was sind die Hauptethikprobleme bei KI?
Wichtige Probleme umfassen Verantwortungszuschreibung bei autonomen Entscheidungen, Bias in Algorithmen, der Privatsphäreverlust durch Datenverarbeitung und soziale Ungleichheiten durch Jobverdrängung. Schüler lernen, diese an philosophischen Kriterien wie Utilitarismus zu prüfen und Lösungen wie transparente Algorithmen zu fordern. Dies stärkt ethisch-praktische Kompetenzen.
Wie wirkt sich KI auf den Arbeitsmarkt aus?
KI automatisiert Routineaufgaben, was Jobs in Produktion und Service bedroht, aber neue Qualifikationen schafft. Moralisch relevant sind Ungleichheiten: Geringqualifizierte leiden stärker. Diskussionen helfen Schülern, Übergangsgerechtigkeit zu bewerten und Politikempfehlungen zu erarbeiten.
Wer ist verantwortlich für KI-Fehler?
Verantwortung zählt zu Entwicklern, Betreibern und Nutzern, nicht der KI selbst. Philosophisch knüpft dies an Handlungs- und Vorhersehbarkeitstheorien an. Analysen realer Fälle klären, wie Regulierungen Haftung definieren können.
Wie hilft Active Learning beim Verständnis von KI-Ethik?
Active Ansätze wie Debatten und Rollenspiele machen abstrakte Dilemmata konkret: Schüler argumentieren aktiv, nehmen Perspektiven ein und lösen Konflikte. Das fördert tiefes Verständnis, Empathie und Urteilsbildung. Im Vergleich zu Frontalunterricht bleibt Wissen besser haften, da Schüler selbst ethische Modelle konstruieren.