Large Language Model (LLM)

Ein Large Language Model ist ein künstliches neuronales Netzwerk, das auf riesigen Textmengen trainiert wurde. Es kann menschliche Sprache verstehen und eigenständig generieren. Die Basis bildet die Transformer-Architektur, vorgestellt 2017 im Forschungspapier “Attention Is All You Need”.

Wie funktioniert ein Large Language Model?

Statistisches Vorhersagesystem

LLMs arbeiten als statistische Vorhersagemaschinen, die wiederholt das nächste Wort in einer Sequenz prognostizieren. Sie lernen aus Milliarden von Textbeispielen, welches Wort in einem Kontext am wahrscheinlichsten folgt. Ähnlich wie die Autocomplete-Funktion im Smartphone, nur auf massiv höherem Niveau.

Das Training läuft in mehreren Schritten:

Tokenisierung zuerst: Text wird in kleinere Einheiten zerlegt: Wortteile, Wörter oder einzelne Zeichen. Jedes Token erhält eine ID und wird in einen Zahlenvektor umgewandelt. Erst dann kann das neuronale Netzwerk damit rechnen.

Dann das Lernen: Das Modell wird auf riesigen Textmengen trainiert: Bücher, Websites, Code, wissenschaftliche Publikationen. Dabei lernt es Sprachmuster, Grammatik, Zusammenhänge und sogar implizites Weltwissen, das in den Texten kodiert ist.

Der Attention-Mechanismus

Der Attention-Mechanismus, vorgestellt 2017 im Paper “Attention Is All You Need”, ist das Kernstück der Transformer-Architektur. Das Modell berechnet, welche Teile eines Textes für die aktuelle Vorhersage relevant sind. Es “achtet” auf wichtige Wörter und Zusammenhänge, statt jeden Text sequenziell zu verarbeiten.

Wenn Sie einen Prompt eingeben, wird dieser tokenisiert, durch das neuronale Netzwerk gejagt und das Modell generiert Token für Token eine Antwort. Immer basierend auf den gelernten statistischen Mustern. Nie auf echtem Verstehen.

Welche LLMs gibt es?

Die Landschaft hat sich seit 2022 explosionsartig entwickelt. Hier die wichtigsten Vertreter:

Kommerzielle Closed-Source-Modelle:

  • GPT (OpenAI): GPT-3.5, GPT-4, GPT-4o. Die Basis für ChatGPT. Verfügbar via API und integriert in Microsoft-Produkte.
  • Claude (Anthropic): Claude 3, Claude 3.5 Sonnet. Fokussiert auf Sicherheit und Interpretierbarkeit, nutzbar via API und Web-Interface.
  • Gemini (Google DeepMind): Gemini 2.0, Gemini 2.5. Multimodal (Text, Bild, Video), integriert in Google-Dienste.

Open-Source-Alternativen:

  • Llama (Meta): Llama 2, Llama 3. Frei verfügbar für Forschung und kommerzielle Nutzung, kann selbst gehostet werden.
  • Mistral AI: Mistral 7B, Mixtral. Europäisches Open-Source-Modell mit kompetitiver Performance.

Closed vs. Open Source

Closed-Source-Modelle sind proprietär. Sie nutzen sie via API, aber Training und Gewichte bleiben geheim. Open-Source-Modelle können Sie selbst hosten, anpassen und kontrollieren. Dafür brauchen Sie aber die Infrastruktur.

Wofür werden Large Language Models eingesetzt?

Textgenerierung & Content:

  • Artikel, Blogposts, Marketing-Texte schreiben
  • E-Mails, Briefe, Berichte formulieren
  • Kreatives Schreiben (Geschichten, Gedichte)

Analyse & Zusammenfassung:

  • Lange Dokumente komprimieren
  • Relevante Informationen extrahieren
  • Sentiment-Analyse (Stimmung in Texten erkennen)

Übersetzung & Code:

  • Mehrsprachige Übersetzungen
  • Code schreiben, debuggen, erklären
  • Dokumentation generieren

Chatbots & Assistenten:

LLMs sind die ersten KI-Systeme, die unstrukturierte menschliche Sprache in großem Maßstab verarbeiten können. Das macht sie zur Basis für intelligente Assistenten wie ChatGPT, Copilot oder Claude. Im Kundenservice automatisieren sie FAQ-Beantwortung und Support.

Aber: Nicht jede Aufgabe ist geeignet. Wo Faktentreue kritisch ist, brauchen Sie zusätzliche Mechanismen: Retrieval Augmented Generation (RAG), strukturierte Workflows oder menschliche Validierung.

Was sind die Grenzen von Large Language Models?

Halluzinationen sind unvermeidbar.

LLMs neigen dazu, Fakten zu erfinden, die plausibel klingen, aber falsch sind. Der Grund: Sie sind trainiert, die statistisch wahrscheinlichste Antwort zu geben, nicht die korrekte. Forschung zeigt, dass Halluzinationen nicht vollständig eliminierbar sind. LLMs können nicht alle Funktionen berechnen und neigen daher inhärent zu Fehlern.

Das System ist nicht darauf trainiert, seine eigene Unsicherheit einzuschätzen. Ohne einen Mechanismus, der “Ich weiß es nicht” belohnt, rät das Modell lieber, als zu schweigen. Das ist kein Bug. Das ist das Design.

Kein echtes Verstehen.

LLMs “verstehen” nicht wirklich, was sie schreiben. Sie erkennen statistische Muster, aber haben kein Weltwissen, kein logisches Denken und keinen gesunden Menschenverstand im menschlichen Sinne. Sie sind Black Boxes – eine Eingabe führt zu einer Ausgabe, aber warum genau diese Antwort kommt, ist oft unklar.

Deshalb scheitern selbst fortgeschrittene Modelle an Aufgaben, die für Menschen trivial sind. Alltagslogik und gesunder Menschenverstand bleiben eine Schwachstelle.

Bias und Diskriminierung.

LLMs lernen aus Internetdaten und übernehmen dabei Vorurteile. Sie können diskriminierende, rassistische oder sexistische Inhalte generieren, weil sie die Muster ihrer Trainingsdaten reproduzieren, einschließlich gesellschaftlicher Ungleichheiten.

Die Trainingsdaten spiegeln die Welt wider. Und die ist nicht neutral.

Urheberrecht und Trainingsdaten.

LLMs werden auf Milliarden von Texten trainiert: Bücher, Nachrichtenartikel, wissenschaftliche Papers, Blogposts. Ob das legal ist, ist ungeklärt. So gab es bereits Klagen gegen die Betreiber von LLMs. Die Kläger argumentieren: Ihre Werke wurden ohne Einwilligung und ohne Vergütung für das Training verwendet. Die KI-Unternehmen halten dagegen mit Fair Use und der europäischen Text-and-Data-Mining-Ausnahme.

Ein finales Urteil steht aus. Der EU AI Act (seit August 2025) verlangt von KI-Anbietern Transparenz über ihre Trainingsdaten und gibt Rechteinhabern ein Opt-out-Recht. Die Praxis hinkt der Regulierung hinterher.

Veraltetes Wissen.

Jedes LLM hat einen festen Trainingszeitpunkt (Cutoff-Datum). Was danach passiert, bleibt dem Modell verborgen. Nur durch Nachtraining oder Zugriff auf externe Tools wie Websuche lässt sich das Wissen aktualisieren.

Hohe Kosten & Energieverbrauch.

Das Training von LLMs kostet Millionen Dollar und verbraucht enorme Mengen Energie. Auch die Nutzung (Inference) pro Anfrage hat erhebliche Ressourcenkosten. Größere Modelle sind besser, aber deutlich teurer im Betrieb.

Sicherheitsrisiken.

LLMs können missbraucht werden für Phishing, Desinformation, automatisierte Fake-News oder Manipulation. Sicherheitsmechanismen können durch geschickte Prompts umgangen werden (Jailbreaking).

Wie unterscheidet sich ein LLM von KI und Machine Learning?

Die Hierarchie:

  • KI (Künstliche Intelligenz): Übergeordneter Begriff für Systeme, die menschenähnliche Intelligenz nachbilden
    • Machine Learning (ML): Teilbereich der KI, bei dem Systeme aus Daten lernen
      • Deep Learning: Spezialform von ML mit mehrschichtigen neuronalen Netzen
        • Natural Language Processing (NLP): Teilbereich von Deep Learning für Sprachverarbeitung
          • Large Language Model (LLM): Spezielle NLP-Modelle mit Milliarden/Billionen Parametern

Was macht ein LLM “Large”?

Der Begriff bezieht sich auf die Anzahl der Parameter, also die Stellschrauben, an denen das Modell während des Trainings justiert wird. Moderne LLMs haben Milliarden bis Billionen Parameter. Je mehr Parameter, desto komplexere Sprachmuster kann das Modell erfassen.

Unterschied zu kleineren Sprachmodellen:

Kleinere Modelle wie BERT oder RoBERTa sind oft auf spezifische Aufgaben trainiert: Textklassifikation, Named Entity Recognition. LLMs hingegen sind “General-Purpose”-Modelle. Sie bewältigen viele Aufgaben ohne spezifisches Training (Few-Shot Learning, Zero-Shot Learning).

Historischer Kontext:

  • 2017: “Attention Is All You Need” → Transformer-Architektur
  • 2018-2020: BERT, GPT-2, GPT-3 → Erste große Sprachmodelle
  • 2022: ChatGPT → Durchbruch in der Öffentlichkeit
  • 2023-2026: Explosion von LLMs (GPT-4, Claude, Gemini, Llama, Mistral)

Der Transformer war der Durchbruch. Alles danach ist Skalierung und Optimierung.

Weiterführende Artikel


Quellen