Skip to content
Informatik · Klasse 13

Ideen für aktives Lernen

Training und Evaluierung von ML-Modellen

Aktives Lernen funktioniert hier besonders gut, weil Schülerinnen und Schüler durch praktische Experimente mit echten Datensätzen verstehen, warum die Aufteilung in Trainings-, Validierungs- und Testdaten entscheidend ist. Sie erleben selbst, wie Modelle sich verhalten, wenn sie zu stark an Trainingsdaten angepasst werden oder zu wenig Informationen haben, um gute Vorhersagen zu treffen.

KMK BildungsstandardsKMK: Sekundarstufe II - AlgorithmenKMK: Sekundarstufe II - Daten und ihre Strukturierung
30–50 Min.Partnerarbeit → Ganze Klasse4 Aktivitäten

Aktivität 01

Problemorientiertes Lernen35 Min. · Partnerarbeit

Pair Programming: Dataset-Aufteilung

Paare laden ein Dataset, teilen es in Train/Validierung/Test auf und trainieren ein einfaches Modell mit Scikit-learn. Sie vergleichen Vorhersagen und notieren erste Metriken. Abschließend diskutieren sie Auswirkungen falscher Aufteilungen.

Erklären Sie die Bedeutung von Trainings-, Validierungs- und Testdatensätzen.

ModerationstippStellen Sie sicher, dass die Paare während der Pair Programming unterschiedliche Datensätze verwenden, damit die Klasse später vielfältige Beispiele diskutieren kann.

Worauf zu achten istGeben Sie den Schülerinnen und Schülern ein Szenario (z.B. Spam-Filter, medizinische Diagnose) und bitten Sie sie, zu entscheiden, welche Metrik (Genauigkeit, Präzision, Recall, F1-Score) für dieses Szenario am wichtigsten ist. Sie sollen ihre Wahl in 2-3 Sätzen begründen.

AnalysierenBewertenErschaffenEntscheidungsfähigkeitSelbststeuerungBeziehungsfähigkeit
Komplette Unterrichtsstunde erstellen

Aktivität 02

Problemorientiertes Lernen45 Min. · Kleingruppen

Small Groups: Metriken-Analyse

Gruppen wählen ein Klassifikationsproblem, berechnen Genauigkeit, Präzision und Recall für verschiedene Modelle. Sie erstellen eine Tabelle und visualisieren Ergebnisse mit Matplotlib. Gemeinsam identifizieren sie das beste Modell.

Analysieren Sie verschiedene Metriken zur Bewertung der Modellperformance (z.B. Genauigkeit, Präzision, Recall).

ModerationstippFordern Sie die Kleingruppen in der Metriken-Analyse auf, ihre Ergebnisse auf Flipcharts festzuhalten, um sie später im Plenum zu vergleichen.

Worauf zu achten istStellen Sie eine Grafik mit Trainings- und Validierungsverlustkurven bereit, die Overfitting oder Underfitting zeigen. Fragen Sie die Schüler: 'Welches Problem liegt hier vor und welche zwei Strategien könnten Sie anwenden, um es zu beheben?'

AnalysierenBewertenErschaffenEntscheidungsfähigkeitSelbststeuerungBeziehungsfähigkeit
Komplette Unterrichtsstunde erstellen

Aktivität 03

Problemorientiertes Lernen30 Min. · Ganze Klasse

Whole Class: Overfitting-Demonstration

Die Klasse beobachtet eine Live-Demo: Ein Modell wird auf wachsenden Trainingsdaten trainiert, Metriken auf Testdaten geplottet. Alle notieren Beobachtungen und schlagen Verbesserungen vor. Diskussion schließt ab.

Bewerten Sie Strategien zur Vermeidung von Overfitting und Underfitting.

ModerationstippZeigen Sie die Overfitting-Demonstration mit einer interaktiven Whiteboard-Grafik, die Schüler direkt beschriften und annotieren können.

Worauf zu achten istTeilen Sie die Klasse in Kleingruppen auf. Geben Sie jeder Gruppe einen Datensatz (simuliert oder real) und die Aufgabe, diesen in Trainings-, Validierungs- und Testsets aufzuteilen. Lassen Sie sie ihre Aufteilung begründen und mögliche Fallstricke (z.B. Datenlecks) diskutieren.

AnalysierenBewertenErschaffenEntscheidungsfähigkeitSelbststeuerungBeziehungsfähigkeit
Komplette Unterrichtsstunde erstellen

Aktivität 04

Problemorientiertes Lernen50 Min. · Einzelarbeit

Individual: Optimierungs-Challenge

Jeder Schüler optimiert ein vorgegebenes Modell gegen Overfitting, testet Regularisierungstechniken und dokumentiert Metriken. Ergebnisse werden in einer Klassentabelle gesammelt und verglichen.

Erklären Sie die Bedeutung von Trainings-, Validierungs- und Testdatensätzen.

ModerationstippGeben Sie der Optimierungs-Challenge klare Zeitvorgaben, damit die Schüler gezielt eine Hyperparameter-Kombination testen und dokumentieren können.

Worauf zu achten istGeben Sie den Schülerinnen und Schülern ein Szenario (z.B. Spam-Filter, medizinische Diagnose) und bitten Sie sie, zu entscheiden, welche Metrik (Genauigkeit, Präzision, Recall, F1-Score) für dieses Szenario am wichtigsten ist. Sie sollen ihre Wahl in 2-3 Sätzen begründen.

AnalysierenBewertenErschaffenEntscheidungsfähigkeitSelbststeuerungBeziehungsfähigkeit
Komplette Unterrichtsstunde erstellen

Vorlagen

Vorlagen, die zu diesen Informatik-Aktivitäten passen

Nutzen, bearbeiten, drucken oder teilen.

Einige Hinweise zum Unterrichten dieser Einheit

Erfahrene Lehrkräfte wissen, dass der Unterschied zwischen Theorie und Praxis hier besonders groß ist. Sie vermeiden es, nur die Formeln der Metriken zu erklären, sondern lassen die Schüler diese selbst berechnen und interpretieren. Ein weiterer Schlüssel ist, immer wieder auf die Konsequenzen im echten Leben hinzuweisen, z.B. warum ein medizinischer Test hohe Recall-Werte braucht, auch wenn das die Genauigkeit senkt.

Erfolgreiches Lernen zeigt sich darin, dass Schülerinnen und Schüler die drei Datensätze sinnvoll aufteilen und ihre Entscheidungen mit konkreten Metriken begründen können. Sie erkennen Overfitting und Underfitting in Grafiken und wählen für gegebene Szenarien die passenden Bewertungsmetriken aus.


Vorsicht vor diesen Fehlvorstellungen

  • Während der Pair Programming mit Dataset-Aufteilung könnte ein Team denken: 'Hohe Genauigkeit auf den Trainingsdaten bedeutet, dass das Modell gut ist.'

    Fordern Sie das Team auf, die Metriken auf dem Validierungs- und Testdatensatz zu berechnen und die Unterschiede in einer kurzen Reflexion festzuhalten. Nutzen Sie die Gelegenheit, um gemeinsam die Begriffe Overfitting und Generalisierung zu klären.

  • Während der Small Groups Metriken-Analyse könnte eine Gruppe argumentieren: 'Accuracy ist immer die beste Metrik.'

    Bitten Sie die Gruppe, eine Confusion Matrix für einen unausbalancierten Datensatz zu erstellen und die Werte für Präzision und Recall zu berechnen. Zeigen Sie auf, wie Accuracy hier irreführend sein kann.

  • Während der Individual Optimierungs-Challenge könnte ein Schüler annehmen: 'Mehr Trainingsdaten lösen jedes Underfitting-Problem.'

    Fordern Sie den Schüler auf, die Verlustkurven seines Modells zu betrachten und zu prüfen, ob das Problem wirklich mit mehr Daten oder mit einer Anpassung der Modellkomplexität gelöst werden muss.


In dieser Übersicht verwendete Methoden