Skip to content
Künstliche Intelligenz und Machine Learning · 2. Halbjahr

Grundlagen neuronaler Netze

Modellierung biologischer Lernprozesse durch Perzeptrone und Backpropagation.

Brauchen Sie einen Unterrichtsplan für Informatik Oberstufe: Komplexe Systeme und Theoretische Grundlagen?

Mission erstellen

Leitfragen

  1. Wie lernt eine Maschine aus Daten, ohne explizit programmiert zu werden?
  2. Was unterscheidet klassische Algorithmen von probabilistischen KI-Modellen?
  3. Wie beeinflusst die Qualität der Trainingsdaten das Ergebnis einer KI?

KMK Bildungsstandards

KMK: Sekundarstufe II - AlgorithmenKMK: Sekundarstufe II - Modellieren und Implementieren
Klasse: Klasse 13
Fach: Informatik Oberstufe: Komplexe Systeme und Theoretische Grundlagen
Einheit: Künstliche Intelligenz und Machine Learning
Zeitraum: 2. Halbjahr

Über dieses Thema

Grundlagen neuronaler Netze modellieren biologische Lernprozesse durch Perzeptrone und Backpropagation. In der Oberstufe Klasse 13 verstehen Schüler, wie ein Perzeptron als einfachstes neuronales Netz binäre Klassifikationsaufgaben löst. Es verwendet Eingabewerte, Gewichte, eine Aktivierungsfunktion und einen Schwellenwert, um Ausgaben zu erzeugen. Dies zeigt, wie Maschinen aus Daten lernen, ohne explizit programmiert zu werden, und unterscheidet klassische deterministische Algorithmen von probabilistischen KI-Modellen.

Backpropagation ermöglicht das Training mehrschichtiger Netze: Fehler werden rückwärts propagiert, um Gewichte iterativ anzupassen. Schüler analysieren, wie die Qualität der Trainingsdaten das Modellergebnis prägt, z. B. durch Bias oder unvollständige Datensätze. Themen wie Overfitting und Generalisierung fördern kritisches Denken zu KI-Ethik und Robustheit. Diese Inhalte erfüllen KMK-Standards zu Algorithmen, Modellieren und Implementieren in der Sekundarstufe II.

Aktives Lernen eignet sich hervorragend, da abstrakte Optimierungsprozesse durch Simulationen und Programmieraufgaben konkret werden. Schüler implementieren Netze selbst, beobachten Lernkurven und testen Variationen, was Motivation steigert und Fehlkonzepte früh aufdeckt.

Lernziele

  • Erklären Sie die Funktionsweise eines Perzeptrons, einschließlich Eingaben, Gewichte, Aktivierungsfunktion und Schwellenwert.
  • Analysieren Sie, wie Backpropagation die Gewichte in einem mehrschichtigen neuronalen Netz iterativ anpasst, um Fehler zu minimieren.
  • Vergleichen Sie die Leistung eines einfachen Perzeptrons mit der eines mehrschichtigen Netzes bei Klassifikationsaufgaben.
  • Bewerten Sie den Einfluss von Bias und Datenqualität auf die Ergebnisse eines trainierten neuronalen Netzes.
  • Entwerfen Sie ein einfaches neuronales Netz zur Lösung einer binären Klassifikationsaufgabe mit gegebenen Daten.

Bevor es losgeht

Grundlagen der Programmierung (Python)

Warum: Schüler müssen grundlegende Programmierkonzepte wie Variablen, Funktionen und Schleifen beherrschen, um die Implementierung und Simulation von neuronalen Netzen nachvollziehen zu können.

Lineare Algebra: Vektoren und Matrizen

Warum: Das Verständnis von Vektoren und Matrizen ist essenziell, da sie zur Darstellung von Eingaben, Gewichten und Berechnungen in neuronalen Netzen verwendet werden.

Grundlagen der Wahrscheinlichkeitsrechnung

Warum: Ein grundlegendes Verständnis von Wahrscheinlichkeiten hilft beim Verständnis von probabilistischen KI-Modellen und der Interpretation von Modellunsicherheiten.

Schlüsselvokabular

PerzeptronEin einfaches künstliches neuronales Netz, das als binärer Klassifikator fungiert. Es verarbeitet Eingaben, wendet Gewichte an und nutzt eine Aktivierungsfunktion, um eine Ausgabe zu erzeugen.
BackpropagationEin Algorithmus zum Trainieren von neuronalen Netzen, bei dem der Fehler von der Ausgabe zur Eingabe zurückpropagiert wird, um die Gewichte anzupassen.
AktivierungsfunktionEine Funktion, die bestimmt, ob ein Neuron aktiviert werden soll, basierend auf der gewichteten Summe seiner Eingaben. Beispiele sind die Sigmoid- oder ReLU-Funktion.
GewichteParameter in einem neuronalen Netz, die die Stärke der Verbindung zwischen Neuronen bestimmen. Sie werden während des Trainings angepasst.
SchwellenwertEin Wert, der in Verbindung mit der gewichteten Summe der Eingaben verwendet wird, um zu entscheiden, ob ein Neuron feuert oder nicht.

Ideen für aktives Lernen

Alle Aktivitäten ansehen

Bezüge zur Lebenswelt

Bilderkennungssysteme in autonomen Fahrzeugen nutzen komplexe neuronale Netze, um Objekte wie Fußgänger und Verkehrszeichen zu identifizieren. Die Trainingsdaten müssen vielfältig sein, um eine zuverlässige Erkennung in verschiedenen Umgebungen zu gewährleisten.

Sprachassistenten wie Alexa oder Google Assistant verwenden neuronale Netze, um gesprochene Sprache zu verstehen und zu verarbeiten. Die Genauigkeit hängt stark von der Qualität und Menge der Trainingsdaten ab, die verschiedene Dialekte und Sprechweisen abdecken.

Vorsicht vor diesen Fehlvorstellungen

Häufige FehlvorstellungNeuronale Netze verstehen Daten wie Menschen.

Was Sie stattdessen lehren sollten

Netze verarbeiten Muster statistisch, ohne semantisches Verständnis. Aktive Simulationen lassen Schüler Gewichte manuell anpassen und Fehler beobachten, was die mechanische Natur verdeutlicht und anthropomorphe Vorstellungen abbaut.

Häufige FehlvorstellungBackpropagation ist ein magischer Lernalgorithmus.

Was Sie stattdessen lehren sollten

Es ist gradientenbasierte Optimierung durch Kettenregel. Programmierübungen zeigen schrittweise Fehlerpropagation, Peer-Reviews klären mathematische Schritte und festigen Verständnis.

Häufige FehlvorstellungMehr Trainingsdaten führen immer zu besseren Modellen.

Was Sie stattdessen lehren sollten

Zu viel Daten kann Overfitting verursachen, ohne Generalisierung. Experimente mit variierenden Datensätzen demonstrieren dies visuell, Gruppendiskussionen fördern Strategien wie Validierungssets.

Ideen zur Lernstandserhebung

Kurze Überprüfung

Stellen Sie den Schülern eine einfache binäre Klassifikationsaufgabe (z.B. Spam-Erkennung anhand von Stichwörtern). Bitten Sie sie, die Eingaben, Gewichte und den Schwellenwert für ein einzelnes Perzeptron zu definieren, das diese Aufgabe lösen könnte.

Diskussionsfrage

Diskutieren Sie mit den Schülern: 'Stellen Sie sich vor, Sie trainieren ein neuronales Netz zur Erkennung von Katzenbildern, aber Ihr Trainingsdatensatz enthält nur Bilder von Hauskatzen. Welche Probleme könnten beim Testen mit Bildern von Großkatzen (Löwen, Tiger) auftreten und wie beeinflusst dies die 'Generalisierungsfähigkeit' des Netzes?'

Lernstandskontrolle

Bitten Sie die Schüler, auf einer Karte zwei Sätze zu schreiben: 1. Beschreiben Sie in einem Satz, was Backpropagation tut. 2. Nennen Sie eine Situation, in der die Qualität der Trainingsdaten entscheidend für den Erfolg eines neuronalen Netzes ist.

Bereit, dieses Thema zu unterrichten?

Erstellen Sie in Sekundenschnelle eine vollständige, unterrichtsfertige Mission für aktives Lernen.

Eigene Mission generieren

Häufig gestellte Fragen

Wie funktioniert ein Perzeptron?
Ein Perzeptron berechnet eine gewichtete Summe der Eingaben, addiert einen Bias und wendet eine Schrittfunktion an, um binäre Ausgaben zu erzeugen. Gewichte werden durch Training angepasst, um eine lineare Trennlinie zu finden. In der Praxis eignet es sich für linear separierbare Daten wie Spam-Erkennung und bildet die Basis für komplexere Netze. Schüler modellieren es einfach mit Vektoren und Skalarprodukten.
Was ist Backpropagation?
Backpropagation ist ein Algorithmus zum effizienten Training neuronaler Netze. Er berechnet den Gradienten des Fehlers bezüglich aller Gewichte durch rückwärtsgerichtete Propagation und aktualisiert sie via Gradientenabstieg. Dies ermöglicht Lernen in tiefen Netzen. Praktische Implementierungen in Python verdeutlichen die Kettenregel und beschleunigen das Verständnis von Optimierung.
Wie beeinflusst die Qualität der Trainingsdaten das KI-Ergebnis?
Hohe Qualität minimiert Bias und Overfitting, fördert Generalisierung. Schlechte Daten führen zu verzerrten Modellen, z. B. bei unbalancierten Klassen. Schüler testen dies durch Vergleich von Datasets, lernen Regularisierungstechniken und diskutieren ethische Aspekte wie Fairness in KI-Anwendungen.
Wie kann aktives Lernen neuronale Netze verständlich machen?
Aktives Lernen aktiviert Schüler durch hands-on Programmierung und Simulationen, z. B. manuelles Anpassen von Gewichten oder Codieren von Backpropagation. Paar- oder Gruppenarbeit fördert Diskussionen zu Lernkurven und Fehlern. Solche Ansätze machen abstrakte Mathematik greifbar, steigern Retention und verbinden Theorie mit Praxis, wie KMK-Standards fordern.