Skip to content
Informatik, Mensch und Gesellschaft · 2. Halbjahr

Künstliche Intelligenz und Ethik

Funktionsweise von Machine Learning und die Problematik von Bias in Algorithmen.

Brauchen Sie einen Unterrichtsplan für Informatik in der Oberstufe: Algorithmen, Daten und Gesellschaft?

Mission erstellen

Leitfragen

  1. Kann ein Algorithmus moralische Entscheidungen treffen?
  2. Wie entstehen Vorurteile in KI-Systemen und wie können wir sie verhindern?
  3. Wer trägt die Verantwortung, wenn eine KI einen Fehler macht?

KMK Bildungsstandards

KMK: Sekundarstufe II - Informatik, Mensch und GesellschaftKMK: Sekundarstufe II - Bewerten
Klasse: Klasse 11
Fach: Informatik in der Oberstufe: Algorithmen, Daten und Gesellschaft
Einheit: Informatik, Mensch und Gesellschaft
Zeitraum: 2. Halbjahr

Über dieses Thema

Das Thema „Künstliche Intelligenz und Ethik“ führt Schüler der Klasse 11 in die Funktionsweise des Machine Learning ein. Algorithmen lernen aus Trainingsdaten Muster zu erkennen, um Vorhersagen zu treffen, wie bei Bilderkennung oder Empfehlungssystemen. Gleichzeitig wird die Problematik von Bias hervorgehoben: Trainingsdaten spiegeln oft gesellschaftliche Vorurteile wider, was zu unfairen Ergebnissen führt, etwa bei der Kreditvergabe oder polizeilicher Risikobewertung. Dies verbindet Informatik mit gesellschaftlichen Auswirkungen.

Die KMK-Standards für Sekundarstufe II betonen das Bewerten von Technologie. Schüler diskutieren Schlüssel-Fragen: Kann ein Algorithmus moralische Entscheidungen treffen? Wie entstehen Vorurteile in KI-Systemen, und wie lassen sie sich verhindern? Wer trägt Verantwortung bei Fehlern? Solche Debatten schärfen das kritische Denken und fördern Verantwortungsbewusstsein.

Aktives Lernen ist hier ideal, weil abstrakte Konzepte durch Simulationen und Rollenspiele konkret werden. Wenn Schüler biased Datensätze selbst erstellen und testen, verstehen sie Bias intuitiv. Gruppenarbeiten zu realen Fällen stärken Argumentation und Lösungsfindung, was langfristig zuverlässigeres Wissen schafft.

Lernziele

  • Erklären Sie die grundlegenden Funktionsweisen von Machine-Learning-Algorithmen, insbesondere das Prinzip des überwachten Lernens anhand von Beispieldatensätzen.
  • Analysieren Sie gegebene Datensätze auf potenzielle Verzerrungen (Bias) und identifizieren Sie die Quellen dieser Verzerrungen im Kontext gesellschaftlicher Vorurteile.
  • Bewerten Sie die ethischen Implikationen von KI-gestützten Entscheidungen in konkreten Anwendungsfällen wie Kreditvergabe oder Gesichtserkennung.
  • Entwickeln Sie Vorschläge zur Minimierung von Bias in KI-Systemen, indem Sie alternative Datenaufbereitungs- oder Algorithmusdesign-Strategien diskutieren.
  • Kritisieren Sie die Zuweisung von Verantwortung bei Fehlern von KI-Systemen und schlagen Sie Lösungsansätze für Haftungsfragen vor.

Bevor es losgeht

Grundlagen der Datenverarbeitung und Algorithmen

Warum: Schüler müssen verstehen, was Daten sind und wie Algorithmen als Schritt-für-Schritt-Anleitungen funktionieren, um die Funktionsweise von Machine Learning nachvollziehen zu können.

Einführung in die Programmierung

Warum: Grundlegende Kenntnisse im Umgang mit einer Programmiersprache helfen den Schülern, die Implementierung von Algorithmen und die Verarbeitung von Daten besser zu verstehen.

Schlüsselvokabular

Machine LearningEin Teilbereich der künstlichen Intelligenz, bei dem Algorithmen aus Daten lernen, Muster zu erkennen und Vorhersagen zu treffen, ohne explizit programmiert zu werden.
Bias (Verzerrung)Systematische Abweichungen in Trainingsdaten oder Algorithmen, die zu unfairen oder diskriminierenden Ergebnissen führen können.
TrainingsdatenDie Datensätze, die einem Machine-Learning-Modell präsentiert werden, damit es lernen kann, Muster und Zusammenhänge zu erkennen.
Überwachtes LernenEine Methode des maschinellen Lernens, bei der der Algorithmus mit gelabelten Daten trainiert wird, um eine Funktion von Eingaben zu Ausgaben zu lernen.
AlgorithmusEine schrittweise Anleitung oder ein Regelwerk zur Lösung eines Problems oder zur Durchführung einer Berechnung.

Ideen für aktives Lernen

Alle Aktivitäten ansehen

Bezüge zur Lebenswelt

Entwickler bei Tech-Unternehmen wie Google oder Microsoft arbeiten an KI-gestützten Empfehlungssystemen für Streaming-Dienste wie Netflix. Sie müssen sicherstellen, dass die Algorithmen keine bestimmten Nutzergruppen benachteiligen, was durch die Analyse von Nutzerdaten und deren potenziellen Verzerrungen geschieht.

Kreditinstitute nutzen KI-Algorithmen zur Risikobewertung von Kreditanträgen. Hier ist es entscheidend, dass die Algorithmen keine diskriminierenden Muster erkennen, die auf ethnischer Zugehörigkeit oder Geschlecht basieren, um faire Kreditentscheidungen zu treffen.

Polizeibehörden experimentieren mit KI-gestützten Vorhersagesystemen zur Kriminalitätsanalyse. Die ethische Debatte dreht sich darum, ob solche Systeme bestehende gesellschaftliche Vorurteile verstärken und zu ungerechter Überwachung bestimmter Stadtteile führen könnten.

Vorsicht vor diesen Fehlvorstellungen

Häufige FehlvorstellungKI-Algorithmen sind immer objektiv und neutral.

Was Sie stattdessen lehren sollten

Algorithmen übernehmen Vorurteile aus Trainingsdaten. Aktive Simulationen, bei denen Schüler eigene Datensätze biasen, zeigen dies direkt. Gruppenvergleiche helfen, Mythen zu entkräften und faire Datenstrategien zu entwickeln.

Häufige FehlvorstellungBias in KI lässt sich vollständig eliminieren.

Was Sie stattdessen lehren sollten

Bias kann minimiert, aber selten ganz beseitigt werden, da Datenkontexte variieren. Diskussionen realer Fälle in Gruppen fördern nuanciertes Verständnis. Schüler lernen iterative Tests als Lösung.

Häufige FehlvorstellungKI trifft moralische Entscheidungen wie Menschen.

Was Sie stattdessen lehren sollten

KI folgt nur Datenmustern, ohne echtes Verständnis. Rollenspiele verdeutlichen Grenzen und machen klar, warum menschliche Aufsicht nötig ist. Reflexion stärkt ethisches Bewusstsein.

Ideen zur Lernstandserhebung

Lernstandskontrolle

Die Schüler erhalten eine kurze Beschreibung eines KI-Anwendungsfalls (z.B. Gesichtserkennung für Zugangskontrollen). Sie sollen auf einem Zettel notieren: 1. Welche Art von Bias könnte hier auftreten? 2. Nennen Sie eine mögliche Konsequenz dieses Bias.

Diskussionsfrage

Stellen Sie die Frage: 'Wer trägt die Verantwortung, wenn ein autonomes Fahrzeug einen Unfall verursacht?' Die Schüler sollen in Kleingruppen diskutieren und die verschiedenen Akteure (Hersteller, Programmierer, Halter, KI selbst) und ihre jeweilige Verantwortung benennen und begründen.

Kurze Überprüfung

Präsentieren Sie zwei kurze, vereinfachte Datensätze für ein KI-Modell (z.B. zur Vorhersage von Prüfungserfolg). Ein Datensatz ist bewusst verzerrt (z.B. nur Daten von Schülern einer bestimmten Schule). Die Schüler sollen kurz erklären, welcher Datensatz wahrscheinlich zu einem verzerrten Modell führt und warum.

Bereit, dieses Thema zu unterrichten?

Erstellen Sie in Sekundenschnelle eine vollständige, unterrichtsfertige Mission für aktives Lernen.

Eigene Mission generieren

Häufig gestellte Fragen

Wie entsteht Bias in KI-Systemen?
Bias entsteht, wenn Trainingsdaten unvollständig oder vorurteilsbeladen sind, z. B. durch unterrepräsentierte Gruppen. Algorithmen generalisieren diese Muster und produzieren diskriminierende Ergebnisse. Prävention gelingt durch diverse Daten, Fairness-Checks und transparente Modelle. Schüler können dies mit Tools wie Google What-If simulieren, um Ursachen zu verstehen.
Kann eine KI moralische Entscheidungen treffen?
KI kann keine moralischen Entscheidungen treffen, da sie keine Werte oder Empathie hat, sondern nur statistische Muster verarbeitet. Moral erfordert Kontextverständnis und Ethik, die Algorithmen fehlen. Verantwortung liegt bei Entwicklern und Nutzern. Debatten helfen Schülern, diese Grenzen zu erkennen und Regulierungen zu fordern.
Wie hilft aktives Lernen beim Verständnis von KI-Ethik?
Aktives Lernen macht abstrakte Bias-Konzepte greifbar, z. B. durch Simulationen biased Modelle. Schüler bauen selbst Datensätze, testen und diskutieren Ergebnisse in Gruppen, was Intuition schafft. Rollenspiele zu Verantwortung fördern Empathie und Argumentation. Solche Methoden verbessern Retention und kritisches Denken nachhaltig.
Wer trägt Verantwortung bei Fehlern einer KI?
Verantwortung teilen Entwickler (für Daten und Design), Betreiber (für Einsatz) und Regulierer (für Standards). Nutzer müssen Limits kennen. Gesetze wie EU-KI-Verordnung klären Haftung. Fallstudien in der Klasse zeigen, wie klare Rollenverteilung Schäden minimiert und Vertrauen aufbaut.