Skip to content
Künstliche Intelligenz und Machine Learning · 2. Halbjahr

Anwendungsfelder und Grenzen von KI

Untersuchung von Large Language Models (LLM) und Computer Vision.

Brauchen Sie einen Unterrichtsplan für Informatik Oberstufe: Komplexe Systeme und Theoretische Grundlagen?

Mission erstellen

Leitfragen

  1. Können Maschinen jemals echtes Verständnis oder Bewusstsein entwickeln?
  2. Wie verändern generative KIs den kreativen Prozess und das Urheberrecht?
  3. Wo liegen die physikalischen und energetischen Grenzen moderner KI-Systeme?

KMK Bildungsstandards

KMK: Sekundarstufe II - InformatiksystemeKMK: Sekundarstufe II - Informatik, Mensch und Gesellschaft
Klasse: Klasse 13
Fach: Informatik Oberstufe: Komplexe Systeme und Theoretische Grundlagen
Einheit: Künstliche Intelligenz und Machine Learning
Zeitraum: 2. Halbjahr

Über dieses Thema

Das Thema Anwendungsfelder und Grenzen von KI untersucht Large Language Models (LLM) wie GPT-Modelle und Computer-Vision-Systeme wie Bilderkennungsalgorithmen. Schüler analysieren, wie LLM menschenähnliche Texte erzeugen und Computer Vision Objekte in Bildern identifiziert. Sie betrachten reale Anwendungen in Medizin, autonomen Fahrzeugen und Chatbots, stoßen aber auf Grenzen wie fehlendes echtes Verständnis, Halluzinationen oder Bias in Trainingsdaten.

Im KMK-Lehrplan Sekundarstufe II verknüpft es Informatiksysteme mit gesellschaftlichen Aspekten. Schüler diskutieren Schlüsselfragen: Können Maschinen Bewusstsein entwickeln? Wie verändern generative KIs Kreativität und Urheberrecht? Welche physikalischen und energetischen Limits existieren, etwa durch hohen Stromverbrauch von Rechenzentren? Dies fördert kritisches Denken über Technik und Ethik.

Aktives Lernen eignet sich besonders, weil abstrakte KI-Grenzen durch Experimente mit Tools wie Hugging Face, Gruppendiskussionen zu Fallstudien und Simulationen von Energieverbrauch konkret werden. Schüler testen LLM-Prompts selbst, erkennen Muster in Fehlern und debattieren Lösungen, was Verständnis vertieft und Motivation steigert.

Lernziele

  • Analysieren Sie die Funktionsweise von Large Language Models (LLMs) anhand von Beispielen wie Textgenerierung und Übersetzung.
  • Bewerten Sie die Stärken und Schwächen von Computer-Vision-Systemen bei der Bilderkennung und Objekterkennung.
  • Vergleichen Sie die ethischen Implikationen von KI-Anwendungen in Bereichen wie Medizin und autonomem Fahren.
  • Kritisieren Sie die potenziellen Risiken von KI-Systemen, einschließlich Bias in Trainingsdaten und der Problematik von 'Halluzinationen'.
  • Synthetisieren Sie Argumente zur Frage, ob Maschinen jemals echtes Bewusstsein entwickeln können, basierend auf aktuellen Forschungsergebnissen.

Bevor es losgeht

Grundlagen des Maschinellen Lernens

Warum: Ein grundlegendes Verständnis von Trainingsdaten, Algorithmen und Modellbewertung ist notwendig, um die Funktionsweise und Grenzen von LLMs und Computer Vision zu verstehen.

Datenstrukturen und Algorithmen

Warum: Kenntnisse über die Effizienz von Algorithmen und die Verarbeitung großer Datenmengen sind hilfreich, um die energetischen und physikalischen Grenzen von KI-Systemen zu begreifen.

Schlüsselvokabular

Large Language Model (LLM)Ein KI-Modell, das darauf trainiert ist, menschliche Sprache zu verstehen und zu generieren, oft basierend auf riesigen Textdatensätzen.
Computer VisionEin Bereich der KI, der es Computern ermöglicht, visuelle Informationen aus Bildern oder Videos zu 'sehen' und zu interpretieren.
Generative KIKI-Systeme, die in der Lage sind, neue Inhalte wie Texte, Bilder oder Musik zu erstellen, anstatt nur vorhandene Daten zu analysieren.
Bias (in KI)Systematische Verzerrungen in den Ergebnissen eines KI-Systems, die oft aus unausgewogenen oder vorurteilsbehafteten Trainingsdaten resultieren.
Halluzination (KI)Wenn ein KI-Modell, insbesondere ein LLM, falsche oder unsinnige Informationen als Fakten präsentiert.

Ideen für aktives Lernen

Alle Aktivitäten ansehen

Bezüge zur Lebenswelt

Softwareentwickler bei Google nutzen Computer Vision, um die Bildersuche zu verbessern und Funktionen wie Google Lens zu entwickeln, die Objekte in Echtzeit erkennen.

Klinische Forscher in der Radiologie setzen KI-gestützte Systeme zur Analyse von MRT- und CT-Scans ein, um Anomalien wie Tumore frühzeitig zu identifizieren und die Diagnosegenauigkeit zu erhöhen.

Künstler und Designer experimentieren mit generativen KIs wie Midjourney oder DALL-E, um neue visuelle Konzepte zu entwickeln und den kreativen Prozess zu beschleunigen, was Fragen des Urheberrechts aufwirft.

Vorsicht vor diesen Fehlvorstellungen

Häufige FehlvorstellungKI-Modelle wie LLM verstehen Inhalte wirklich.

Was Sie stattdessen lehren sollten

LLM simulieren Verständnis durch Mustererkennung in Trainingsdaten, ohne semantisches Bewusstsein. Aktive Prompt-Tests zeigen Halluzinationen, Gruppendiskussionen klären, dass Korrelation kein Kausalverstehen ist.

Häufige FehlvorstellungComputer Vision ist fehlerfrei bei Bildern.

Was Sie stattdessen lehren sollten

Modelle scheitern bei ungewöhnlichen Winkeln oder Bias. Hands-on-Training mit variierten Datensätzen offenbart Limits, Peer-Reviews helfen, systematische Fehler zu erkennen.

Häufige FehlvorstellungKI hat keine physikalischen Grenzen.

Was Sie stattdessen lehren sollten

Energiebedarf und Quantenlimits bremsen Skalierung. Simulationen von Rechenkosten machen abstrakte Barrieren greifbar, Debatten fördern nuanciertes Denken.

Ideen zur Lernstandserhebung

Diskussionsfrage

Teilen Sie die Klasse in Kleingruppen auf und geben Sie jeder Gruppe eine kurze Fallstudie (z.B. KI in der Strafverfolgung, KI-gestützte Nachrichtenredaktion). Fordern Sie die Gruppen auf, drei potenzielle Vorteile und drei potenzielle Risiken der beschriebenen KI-Anwendung zu identifizieren und zu diskutieren.

Lernstandskontrolle

Bitten Sie die Schüler, auf einer Karteikarte zwei Sätze zu schreiben, die erklären, was eine 'Halluzination' bei einem LLM ist, und einen Satz, der eine mögliche Strategie zur Vermeidung oder Erkennung solcher Halluzinationen beschreibt.

Kurze Überprüfung

Stellen Sie eine Reihe von kurzen Multiple-Choice- oder Richtig/Falsch-Fragen, um das Verständnis grundlegender Konzepte wie Bias oder die Funktionsweise von Computer Vision zu überprüfen. Beispiel: 'Ist es richtig, dass KI-Systeme immer objektiv sind, wenn sie mit Daten trainiert werden?'

Bereit, dieses Thema zu unterrichten?

Erstellen Sie in Sekundenschnelle eine vollständige, unterrichtsfertige Mission für aktives Lernen.

Eigene Mission generieren

Häufig gestellte Fragen

Was sind die Grenzen von Large Language Models?
LLM erzeugen kohärente Texte, halluzinieren aber Fakten und fehlt echtes Verständnis. Sie basieren auf statistischen Mustern, nicht auf Logik. Bias aus Trainingsdaten führt zu unfairen Outputs. Schüler testen dies durch gezielte Prompts und lernen, Ausgaben kritisch zu prüfen.
Wie wirkt sich generative KI auf Urheberrecht aus?
Generative KIs trainieren auf urheberrechtlich geschützten Werken, erzeugen ähnliche Inhalte ohne Attribution. Gerichte prüfen Fair-Use, doch Modelle speichern keine Kopien wörtlich. Diskussionen zu Fällen wie Getty vs. Stability AI sensibilisieren für ethische Nutzung und Regulierungsbedarf.
Wie kann aktives Lernen Grenzen von KI vermitteln?
Aktives Lernen macht abstrakte Konzepte erfahrbar: Schüler experimentieren mit LLM-Prompts, trainieren Vision-Modelle und simulieren Energieverbrauch. Gruppendiskussionen und Debatten vertiefen Verständnis, da sie eigene Fehler entdecken und Lösungen erarbeiten. Dies steigert kritisches Denken und Engagement nachhaltig.
Welche physikalischen Grenzen hat moderne KI?
KI-Skalierung stößt an Energie- und Hardwarelimits: Training großer Modelle verbraucht Strom wie Kleinstädte. Quantencomputing könnte helfen, doch aktuelle GPUs erreichen thermodynamische Grenzen. Schüler berechnen Fußabdrücke, um Nachhaltigkeitsfragen zu greifen.