Zum Inhalt springen
Informatik · Klasse 8 · Künstliche Intelligenz und Gesellschaft · 2. Halbjahr

Ethische Dilemmata der KI

Die Schülerinnen und Schüler diskutieren ethische Fragen im Zusammenhang mit autonomen Systemen und der Entscheidungsfindung von KI.

KMK BildungsstandardsKMK: Sekundarstufe I - Wirkungen von InformatiksystemenKMK: Sekundarstufe I - Evaluieren und Reflektieren

Über dieses Thema

Ethische Dilemmata der KI beleuchten die moralischen Herausforderungen autonomer Systeme. Schülerinnen und Schüler der Klasse 8 diskutieren Szenarien wie Fehlentscheidungen einer KI im autonomen Fahren oder in der Medizin. Sie beurteilen die Verantwortung von Entwicklern, Betreibern und Gesellschaft, wenn KI lebenswichtige Entscheidungen trifft. Zentrale Fragen drehen sich um Grenzen der KI-Autonomie in kritischen Bereichen und Auswirkungen auf menschliche Entscheidungsfreiheit.

Dieses Thema verknüpft sich eng mit den KMK-Standards für die Sekundarstufe I zu Wirkungen von Informatiksystemen sowie Evaluieren und Reflektieren. Schüler lernen, ethische Implikationen zu analysieren, Vor- und Nachteile abzuwägen und gesellschaftliche Konsequenzen zu bedenken. Solche Reflexionen stärken kritisches Denken und fördern Verantwortungsbewusstsein in der digitalen Welt.

Aktives Lernen ist hier ideal, weil abstrakte ethische Konflikte durch Rollenspiele und Debatten greifbar werden. Schüler üben Argumentation, hören Perspektiven anderer und entwickeln eigene Positionen. Dadurch entsteht tiefes Verständnis und langfristige Transferfähigkeit auf reale Anwendungen.

Leitfragen

  1. Beurteilen Sie die ethische Verantwortung, wenn eine KI eine Fehlentscheidung trifft.
  2. Diskutieren Sie die Grenzen der Autonomie von KI-Systemen in kritischen Bereichen.
  3. Analysieren Sie die Auswirkungen von KI auf die menschliche Entscheidungsfindung und Autonomie.

Lernziele

  • Analysieren Sie die ethischen Implikationen von Entscheidungsfehlern autonomer KI-Systeme in kritischen Anwendungsbereichen wie dem autonomen Fahren oder der medizinischen Diagnostik.
  • Bewerten Sie die Verteilung von Verantwortung zwischen Entwicklern, Betreibern und Nutzern einer KI, wenn diese eine Fehlentscheidung trifft.
  • Vergleichen Sie verschiedene Ansichten über die zulässigen Grenzen der Autonomie von KI-Systemen in Bereichen, die menschliches Leben oder Wohlbefinden betreffen.
  • Synthetisieren Sie Argumente, um eine eigene begründete Position zur Rolle menschlicher Aufsicht bei autonomen KI-Entscheidungen zu formulieren.

Bevor es losgeht

Grundlagen der Programmierung und Algorithmen

Warum: Schüler müssen verstehen, wie Programme und Algorithmen funktionieren, um nachvollziehen zu können, wie KI-Systeme Entscheidungen treffen.

Einführung in Künstliche Intelligenz

Warum: Ein grundlegendes Verständnis davon, was KI ist und wie sie lernt, ist notwendig, um die spezifischen ethischen Dilemmata zu diskutieren.

Schlüsselvokabular

Autonomes SystemEin System, das in der Lage ist, seine Umgebung wahrzunehmen und unabhängig von menschlicher Steuerung Entscheidungen zu treffen und Aktionen auszuführen.
KI-FehlentscheidungEin Ergebnis oder eine Aktion einer künstlichen Intelligenz, die nicht den Erwartungen entspricht, fehlerhaft ist oder zu negativen Konsequenzen führt.
Ethische VerantwortungDie moralische Verpflichtung von Einzelpersonen oder Gruppen für die Folgen ihrer Handlungen oder der von ihnen entwickelten Systeme, insbesondere wenn diese Schaden verursachen können.
AlgorithmusEine schrittweise Anleitung oder Regelwerk, das ein Computer befolgt, um eine bestimmte Aufgabe zu lösen oder eine Entscheidung zu treffen.
Bias (Verzerrung)Eine systematische Tendenz in den Daten oder im Design eines KI-Systems, die zu unfairen oder diskriminierenden Ergebnissen führen kann.

Vorsicht vor diesen Fehlvorstellungen

Häufige FehlvorstellungKI trifft immer faire und neutrale Entscheidungen.

Was Sie stattdessen lehren sollten

KI spiegelt Trainingsdaten wider, die Vorurteile enthalten können. Rollenspiele helfen, indem Schüler Bias-Szenarien nachstellen und Bias-Quellen identifizieren. Diskussionen klären, dass Neutralität aktiv gestaltet werden muss.

Häufige FehlvorstellungBei KI-Fehlern liegt die volle Verantwortung beim Programmierer.

Was Sie stattdessen lehren sollten

Verantwortung teilt sich zwischen Entwicklern, Nutzern und Regulierern. Gruppenanalysen von Fällen zeigen Verteilungsmodelle. Aktive Debatten fördern Nuancen und verhindern Vereinfachungen.

Häufige FehlvorstellungAutonome KI braucht keine menschliche Kontrolle.

Was Sie stattdessen lehren sollten

Grenzen der Autonomie erfordern Oversight in sensiblen Bereichen. Simulationen demonstrieren Risiken. Paardiskussionen stärken Verständnis für hybride Systeme.

Ideen für aktives Lernen

Alle Aktivitäten ansehen

Bezüge zur Lebenswelt

  • Bei der Entwicklung von selbstfahrenden Autos müssen Ingenieure bei Waymo und Tesla komplexe ethische Entscheidungen treffen, wie das System in Unfallsituationen reagieren soll, z.B. ob es sich selbst oder andere Verkehrsteilnehmer priorisiert.
  • Medizinische KI-Systeme, die zur Krebsfrüherkennung eingesetzt werden, wie sie beispielsweise von Google Health entwickelt werden, müssen sorgfältig kalibriert werden, um Fehlalarme oder übersehene Diagnosen zu minimieren, was direkte Auswirkungen auf Patienten hat.
  • Gerichte weltweit diskutieren den Einsatz von KI bei der Vorhersage von Rückfallquoten von Straftätern, um Entscheidungen über Bewährung oder Strafmaß zu unterstützen, was Fragen der Fairness und des Bias aufwirft.

Ideen zur Lernstandserhebung

Diskussionsfrage

Stellen Sie den Schülern folgendes Szenario vor: Ein autonomes Fahrzeug muss entscheiden, ob es einem plötzlichen Hindernis ausweicht und dabei möglicherweise einen Fußgänger gefährdet, oder ob es frontal auf das Hindernis fährt und die Insassen des Fahrzeugs riskiert. Lassen Sie die Schüler in Kleingruppen diskutieren, wie die KI programmiert werden sollte und wer die Verantwortung trägt, wenn eine Entscheidung zu einem Unfall führt. Fragen Sie: 'Welche Kriterien sollte die KI für ihre Entscheidung nutzen? Wer ist verantwortlich: der Programmierer, der Fahrzeughalter oder die KI selbst?'

Lernstandskontrolle

Geben Sie jedem Schüler eine Karte mit der Frage: 'Nennen Sie einen Bereich, in dem KI-Autonomie problematisch sein könnte, und erklären Sie kurz, warum.' Bitten Sie die Schüler, ihre Antwort auf die Karte zu schreiben und abzugeben. Sammeln Sie die Karten, um das Verständnis der Schüler für die Grenzen und ethischen Herausforderungen der KI zu überprüfen.

Kurze Überprüfung

Zeigen Sie ein Bild oder eine kurze Beschreibung einer KI-Anwendung (z.B. ein Chatbot im Kundenservice, eine KI zur Bilderkennung). Fragen Sie die Schüler: 'Welche ethische Frage könnte bei der Nutzung dieser KI auftreten?' Lassen Sie die Schüler ihre Antworten auf kleinen Whiteboards oder Zetteln aufschreiben und hochhalten.

Häufig gestellte Fragen

Wie erkläre ich ethische Dilemmata der KI in Klasse 8?
Beginnen Sie mit anschaulichen Alltagsbeispielen wie autonomen Autos oder Sprachmodellen. Stellen Sie klare Leitfragen: Wer ist verantwortlich bei Fehlern? Nutzen Sie Grafiken zu Entscheidungsbäumen. Fördern Sie offene Diskussionen, damit Schüler eigene Szenarien erfinden. So wird Abstraktes konkret und bleibt hängen. (62 Wörter)
Welche realen Beispiele für KI-Fehlentscheidungen eignen sich?
Gute Fälle sind das Trolley-Problem für selbstfahrende Autos, Bias in Rekrutierungs-KI oder Fehldiagnosen durch medizinische Algorithmen. Beschreiben Sie Kontexte kurz, lassen Sie Schüler urteilen. Ergänzen Sie mit Videos von Tesla-Unfällen oder COMPAS-Software. Das verbindet Theorie mit Praxis und regt Reflexion an. (68 Wörter)
Wie fördere ich aktives Lernen bei ethischen KI-Diskussionen?
Setzen Sie Rollenspiele, Debatten und Fallstudien ein, um Schüler aktiv einzubinden. In Gruppen rotieren sie durch Stationen oder debattieren Positionen. Das schult Argumentation, Empathie und kritisches Denken. Plenumrunden sammeln Erkenntnisse, fördern Transfer. Solche Methoden machen Ethik lebendig und nachhaltig. (64 Wörter)
Wie verknüpfe ich das Thema mit KMK-Standards?
Das passt zu Wirkungen von Informatiksystemen und Evaluieren/Reflektieren. Schüler bewerten Auswirkungen auf Gesellschaft und Autonomie, wie in den Key Questions gefordert. Integrieren Sie Reflexionsblätter für Beurteilung. Das stärkt Kompetenzen in Ethik und Systemdenken nach KMK Sekundarstufe I. (59 Wörter)

Planungsvorlagen für Informatik