Skip to content

Künstliche Intelligenz und Algorithmen-EthikAktivitäten & Unterrichtsstrategien

Aktive Methoden sind hier besonders wirksam, weil Schüler:innen bei diesem abstrakten Thema durch konkrete Beispiele und Rollenübernahmen Vorurteile und Verantwortung greifbar begreifen. Die Kombination aus Debatte, Analyse und praktischem Tracking hilft, die oft unsichtbaren Mechanismen von KI-Systemen sichtbar zu machen.

Klasse 7Digitale Welten verstehen und gestalten4 Aktivitäten30 Min.45 Min.

Lernziele

  1. 1Analysiere, wie Trainingsdaten Vorurteile in KI-Systemen erzeugen können, und nenne konkrete Beispiele für ungerechte Ergebnisse.
  2. 2Bewerte die ethische Verantwortung verschiedener Akteure (Entwickler, Betreiber, Nutzer) bei Fehlentscheidungen von KI-Systemen.
  3. 3Erkläre, wie Empfehlungsalgorithmen auf Social-Media-Plattformen die Meinungsbildung beeinflussen und zur Bildung von Echokammern beitragen.
  4. 4Vergleiche die Funktionsweise von einfachen Algorithmen (z.B. Sortieralgorithmen) mit komplexen KI-Systemen im Hinblick auf Datennutzung und Entscheidungsfindung.

Möchten Sie einen vollständigen Unterrichtsentwurf mit diesen Lernzielen? Mission erstellen

Fertige Unterrichtsaktivitäten

45 Min.·Kleingruppen

Debatte: Faire Algorithmen?

Teilen Sie die Klasse in Pro- und Contra-Gruppen. Jede Gruppe bereitet Argumente zu einem KI-Fall vor, wie diskriminierende Kreditzuweisung. Nach 10 Minuten Präsentation folgt eine offene Abstimmung und Reflexion.

Vorbereitung & Details

Beurteile, ob ein Algorithmus ungerecht oder voreingenommen sein kann.

Moderationstipp: Bei der Debatte 'Faire Algorithmen?' achten Sie darauf, dass jede:r Schüler:in mindestens einmal sprechen kann, um alle Perspektiven zu hören.

Setup: Zwei sich gegenüberstehende Teams, Sitzplätze für das Publikum

Materials: Thesenkarte für die Debatte, Recherche-Dossier für jede Seite, Bewertungsbogen für das Publikum, Stoppuhr

AnalysierenBewertenErschaffenSelbststeuerungEntscheidungsfähigkeit
30 Min.·Partnerarbeit

Fallstudie-Analyse: Vorurteile aufspüren

Verteilen Sie Beispiele wie biased Gesichtserkennung. In Paaren identifizieren Schüler Ursachen der Vorurteile, notieren Lösungsvorschläge und präsentieren diese der Klasse.

Vorbereitung & Details

Analysiere, wer die Verantwortung trägt, wenn eine KI eine Fehlentscheidung trifft.

Moderationstipp: Bei der Fallstudie-Analyse 'Vorurteile aufspüren' geben Sie den Gruppen klare Zeitvorgaben für die Auswertung, damit die Diskussion fokussiert bleibt.

Setup: Zwei sich gegenüberstehende Teams, Sitzplätze für das Publikum

Materials: Thesenkarte für die Debatte, Recherche-Dossier für jede Seite, Bewertungsbogen für das Publikum, Stoppuhr

AnalysierenBewertenErschaffenSelbststeuerungEntscheidungsfähigkeit
40 Min.·Kleingruppen

Rollenspiel: Verantwortung klären

Schüler übernehmen Rollen wie KI-Entwickler, Nutzer und Geschädigter bei einer Fehlentscheidung. Sie simulieren eine Anhörung, argumentieren und erarbeiten Regeln für ethische KI.

Vorbereitung & Details

Erkläre, wie Empfehlungsalgorithmen unsere eigene Meinung beeinflussen können.

Moderationstipp: Beim Rollenspiel 'Verantwortung klären' legen Sie Rollenkarten mit konkreten Handlungsanweisungen aus, um die Schüler:innen in ihre Rollen zu führen.

Setup: Spielfläche oder entsprechend angeordnete Tische für das Szenario

Materials: Rollenkarten mit Hintergrundinfos und Zielen, Szenario-Briefing

AnwendenAnalysierenBewertenSozialbewusstseinSelbstwahrnehmung
35 Min.·Ganze Klasse

Filterblase-Tracking

Jeder Schüler notiert eine Woche lang Empfehlungen auf einer Plattform. Gemeinsam kategorisieren und diskutieren sie, wie diese die eigene Meinung formen.

Vorbereitung & Details

Beurteile, ob ein Algorithmus ungerecht oder voreingenommen sein kann.

Moderationstipp: Beim Filterblase-Tracking weisen Sie die Schüler:innen an, ihre Beobachtungen direkt auf einem Arbeitsblatt zu notieren, um sie später zu vergleichen.

Setup: Zwei sich gegenüberstehende Teams, Sitzplätze für das Publikum

Materials: Thesenkarte für die Debatte, Recherche-Dossier für jede Seite, Bewertungsbogen für das Publikum, Stoppuhr

AnalysierenBewertenErschaffenSelbststeuerungEntscheidungsfähigkeit

Dieses Thema unterrichten

Unterrichten Sie dieses Thema am besten durch eine Mischung aus Struktur und Offenheit: Geben Sie klare Beispiele vor, aber lassen Sie Raum für eigene Entdeckungen. Vermeiden Sie technisches Detailwissen und konzentrieren Sie sich auf die ethischen Fragestellungen. Forschung zeigt, dass Schüler:innen Vorurteile in Algorithmen besser verstehen, wenn sie selbst Beispiele analysieren und nicht nur darüber hören.

Was Sie erwartet

Erfolgreich ist die Einheit, wenn Schüler:innen Vorurteile in Algorithmen erkennen, Verantwortlichkeiten benennen und eigene Filterblasen reflektieren können. Sie sollen erklären, warum Algorithmen nicht neutral sind und welche Maßnahmen dagegen helfen.

Diese Aktivitäten sind ein Ausgangspunkt. Die vollständige Mission ist das Erlebnis.

  • Vollständiges Moderationsskript mit Lehrkraft-Dialogen
  • Druckfertige Schülermaterialien, bereit für den Unterricht
  • Differenzierungsstrategien für jeden Lerntyp
Mission erstellen

Vorsicht vor diesen Fehlvorstellungen

Häufige FehlvorstellungWährend der Debatte 'Faire Algorithmen?' hören Sie Aussagen wie 'Algorithmen sind immer neutral und fair'.

Was Sie stattdessen lehren sollten

Lenken Sie in dieser Phase ein, indem Sie die Schüler:innen auffordern, Beispiele aus der Fallstudie-Analyse zu nennen, die zeigen, dass Trainingsdaten Vorurteile enthalten können.

Häufige FehlvorstellungWährend des Rollenspiels 'Verantwortung klären' nehmen einige Schüler:innen an, KI treffe moralische Entscheidungen wie ein Mensch.

Was Sie stattdessen lehren sollten

Nutzen Sie diese Situation, um im Plenum zu fragen, welche Regeln die KI in den Rollenkarten befolgt und wer diese Regeln programmiert hat.

Häufige FehlvorstellungWährend des Filterblase-Trackings äußern Schüler:innen die Annahme, Empfehlungsalgorithmen zeigten objektive Inhalte.

Was Sie stattdessen lehren sollten

Fordern Sie die Schüler:innen auf, ihre eigenen Feeds mit denen ihrer Mitschüler:innen zu vergleichen und zu beschreiben, welche Unterschiede sie feststellen.

Ideen zur Lernstandserhebung

Diskussionsfrage

Nach der Debatte 'Faire Algorithmen?' stellen Sie die Frage: 'Wer trägt die Verantwortung, wenn eine KI einen Kreditantrag ungerechtfertigt ablehnt: der Programmierer, die Bank oder die Person, die die Daten eingegeben hat? Begründen Sie Ihre Meinung.' Lassen Sie die Schüler:innen in Kleingruppen diskutieren und anschließend die wichtigsten Argumente im Plenum vorstellen.

Lernstandskontrolle

Nach der Fallstudie-Analyse 'Vorurteile aufspüren' geben Sie jeder Schülerin und jedem Schüler eine Karte mit einer der folgenden Fragen: 'Nenne ein Beispiel für eine KI, die Vorurteile enthalten könnte, und erkläre, warum.' oder 'Wie kann ein Empfehlungsalgorithmus deine eigene Meinung beeinflussen?' Die Schüler:innen schreiben ihre Antwort auf die Karte und geben sie ab.

Kurze Überprüfung

Während der Fallstudie-Analyse 'Vorurteile aufspüren' zeigen Sie ein anonymisiertes Beispiel für eine Stellenanzeige mit stereotypischen Formulierungen. Fragen Sie die Schüler:innen: 'Welche Art von Vorurteil könnte hier in einem KI-System, das diese Anzeige verarbeitet, verstärkt werden? Nennt ein mögliches ungerechtes Ergebnis für Bewerber:innen.' Sammeln Sie die Antworten an der Tafel.

Erweiterungen & Unterstützung

  • Fordern Sie schnelle Schüler:innen auf, im Filterblase-Tracking auch die Algorithmen hinter sozialen Medien oder Suchmaschinen zu recherchieren und deren Mechanismen zu vergleichen.
  • Unterstützen Sie Schüler:innen mit Schwierigkeiten, indem Sie ihnen bei der Fallstudie-Analyse eine Liste möglicher Vorurteile vorgeben, die sie in den Texten finden können.
  • Vertiefen Sie das Thema in einer zusätzlichen Stunde, indem Sie mit den Schüler:innen diskutieren, wie sie selbst faire Algorithmen gestalten würden und welche Daten sie dafür benötigen würden.

Schlüsselvokabular

AlgorithmusEine Schritt-für-Schritt-Anleitung oder ein Regelwerk, das ein Computer befolgt, um eine Aufgabe zu lösen oder eine Entscheidung zu treffen.
Künstliche Intelligenz (KI)Die Fähigkeit eines Computersystems, Aufgaben auszuführen, die normalerweise menschliche Intelligenz erfordern, wie Lernen, Problemlösen und Entscheidungsfindung.
TrainingsdatenDie Datensätze, die einer KI zur Verfügung gestellt werden, damit sie Muster erkennen und lernen kann, wie sie Aufgaben ausführt oder Entscheidungen trifft.
Vorurteil (Bias)Eine systematische Verzerrung in den Trainingsdaten oder im Algorithmus selbst, die zu ungerechten oder diskriminierenden Ergebnissen führen kann.
EmpfehlungsalgorithmusEin Algorithmus, der basierend auf früheren Interaktionen und Vorlieben eines Nutzers personalisierte Vorschläge für Inhalte, Produkte oder Dienstleistungen macht.

Bereit, Künstliche Intelligenz und Algorithmen-Ethik zu unterrichten?

Erstellen Sie eine vollständige Mission mit allem, was Sie brauchen

Mission erstellen