Was ist ChatGPT?

Im November 2022 hat OpenAI einen Chatbot veröffentlicht. Zwei Monate später: 100 Millionen Nutzer. Schneller als jede andere Software zuvor. Die Pressemitteilung hat von “beispielloser Fähigkeit zur Konversation” gesprochen. Was sie nicht erwähnt hat: Das System erfindet Fakten mit derselben Überzeugung, mit der es korrekte Informationen liefert.

ChatGPT ist ein KI-Chatbot von OpenAI, der auf Large Language Models (LLMs) basiert. Das System erzeugt Texte in Dialogform, indem es Wahrscheinlichkeitsverteilungen über mögliche Wortfolgen berechnet und das statistisch plausibelste nächste Token (Textbaustein – je nach Sprache ein Wort, eine Silbe oder einzelne Zeichen) auswählt. Das Besondere: OpenAI hat ChatGPT nicht nur mit Textdaten trainiert, sondern auch mit menschlichem Feedback verfeinert. Diese Kombination macht den Unterschied zu früheren Sprachmodellen.

Wie ChatGPT funktioniert

ChatGPT beruht auf der Transformer-Architektur (eine Modell-Struktur, die Google-Forscher 2017 entwickelt haben). Das System zerlegt Texte in Tokens (Wortfragmente) und analysiert deren Beziehungen mittels Attention-Mechanismen (Gewichtungsverfahren, die relevante Textteile hervorheben). Trainiert mit Milliarden von Parametern und riesigen Textmengen aus dem Web, funktioniert es ähnlich wie eine hochkomplexe Autokorrektur.

Das Training in drei Schritten

  1. Vortraining: Das Modell lernt aus Milliarden von Texten, welche Wortsequenzen statistisch wahrscheinlich sind. Es liest quasi das halbe Web und merkt sich Muster.

  2. Supervised Fine-Tuning: Menschen schreiben Beispiel-Antworten auf verschiedene Fragen. Das Modell lernt, ähnliche Antworten zu generieren. Qualität statt Quantität.

  3. RLHF-Training (Reinforcement Learning from Human Feedback): Menschen bewerten verschiedene Antworten des Modells, das System lernt daraus, welche Antworten bevorzugt werden. Dieser zweistufige Prozess nach dem Vortraining verbessert Qualität, Faktentreue und Nützlichkeit.

Next Token Prediction

Was nach außen wie Verständnis wirkt, ist Mustererkennung. ChatGPT sagt das jeweils nächste Token (Wortfragment) vorher, das statistisch am wahrscheinlichsten in den Kontext passt. Das System unterscheidet nicht zwischen “wahr” und “falsch”. Nur zwischen “wahrscheinlich” und “unwahrscheinlich”.

Ein Vergleich aus der InstructGPT-Studie verdeutlicht das: Ein 1,3-Milliarden-Parameter-Modell mit menschlichem Feedback ist von Nutzern gegenüber dem 100-mal größeren GPT-3 bevorzugt worden. Nicht weil es mehr weiß, sondern weil es auf Anweisungen reagiert, wie erwartet. Größe ist nicht alles. ChatGPT baut auf dieser Erkenntnis auf: Nicht das größte Modell gewinnt, sondern das am besten auf menschliche Erwartungen abgestimmte.

Wofür ChatGPT eingesetzt wird

Texterstellung und Kommunikation

  • Artikel, Blog-Posts, Social-Media-Beiträge schreiben
  • E-Mails und Geschäftskommunikation formulieren
  • Texte umschreiben, kürzen oder erweitern
  • Übersetzungen zwischen Sprachen

Analyse und Recherche

  • Zusammenfassungen längerer Dokumente erstellen
  • Daten strukturieren und auswerten
  • Konzepte erklären
  • Recherche-Fragen beantworten (Vorsicht: Das System erfindet plausibel klingende Fakten, wenn es die Antwort nicht kennt)

Programmierung und Technik

  • Code generieren und debuggen
  • Technische Dokumentation schreiben
  • Reguläre Ausdrücke und Skripte erstellen
  • APIs und Frameworks erklären

Kreativität und Brainstorming

  • Ideen für Kampagnen entwickeln
  • Headlines und Slogans generieren
  • Storylines für Content entwerfen
  • Verschiedene Perspektiven auf ein Thema erarbeiten

Die verschiedenen Versionen (Stand: Februar 2026)

ChatGPT gibt es in mehreren Varianten: ChatGPT Free nutzt ein Basismodell mit Einschränkungen bei Geschwindigkeit und Funktionsumfang. ChatGPT Plus und Pro bieten Zugang zu GPT-4 mit erweiterten Fähigkeiten wie Bildanalyse, längeren Kontextfenstern und priorisiertem Zugang bei hoher Auslastung. Für Unternehmen existieren Business- und Enterprise-Versionen mit Admin-Kontrollen, Datenschutz-Garantien und der Zusicherung, dass Eingaben nicht zum Training verwendet werden. Die Preismodelle reichen von kostenlos bis zu mehreren hundert Euro pro Monat.

Was ChatGPT nicht kann

Das Halluzinations-Problem

ChatGPT erfindet Fakten – das ist keine Fehlfunktion, sondern Funktionsweise. Das System berechnet Wahrscheinlichkeiten, prüft aber nicht, ob Aussagen stimmen. Was linguistisch plausibel klingt, muss nicht wahr sein.

Wie Kritiker betonen: Der Begriff “Halluzination” verschleiert das Problem. Das System erfindet nicht versehentlich Aussagen. Es gibt keine interne Wahrheitsprüfung. Punkt. Das System ist indifferent gegenüber der Wahrheit seiner Aussagen – es produziert Inhalte, die sprachlich plausibel klingen, ohne zwischen Fakten und Fiktion zu unterscheiden.

Bias und Stereotype

ChatGPT übernimmt Vorurteile aus seinen Trainingsdaten. Das Modell reproduziert Stereotype und zeigt systematische Verzerrungen. Kritiker sprechen von einem kulturellen Bias, der bestimmte Perspektiven überrepräsentiert und andere marginalisiert.

Die Stereotype betreffen Geschlecht, Herkunft, Beruf und soziale Schicht. Das System reproduziert, was in seinen Trainingsdaten überrepräsentiert ist. Ein Modell, das überwiegend mit englischsprachigen, westlichen Texten trainiert worden ist, spiegelt diese Perspektive wider.

Fehlende Aktualität

Das Wissen von ChatGPT endet zu einem bestimmten Datum. Neuere Entwicklungen, aktuelle Ereignisse oder neue Forschungsergebnisse: unbekannt. Das Modell erfindet trotzdem Antworten, die plausibel klingen. Besonders gefährlich bei schnelllebigen Themen wie Recht, Medizin oder Technologie.

Überschätzte Fähigkeiten

ChatGPT wird oft als “allwissend” dargestellt. Die Realität: Es versteht keine Konzepte, kann nicht logisch schlussfolgern und hat kein Weltwissen jenseits statistischer Muster. Verlässt man sich blind auf seine Antworten, drohen Fehler in sensitiven Bereichen wie Medizin oder Recht. Das System weiß nicht, was es nicht weiß.

Warum ChatGPT relevant ist (und warum nicht)

Die Performance-Illusion

GPT-4 hat in Benchmarks menschliches Niveau erreicht und ein simuliertes US-Anwaltsexamen im obersten Zehntel bestanden. Klingt beeindruckend. In vielen realen Szenarien bleibt das System jedoch hinter menschlicher Leistung zurück.

Benchmarks messen, wie gut ein Modell bestimmte Aufgaben löst. Sie messen nicht, ob es versteht, was es tut. Ein Modell kann ein Jura-Examen bestehen, ohne zu wissen, was Recht ist. ChatGPT ist eine statistisch optimierte Autocomplete-Funktion. Die beeindruckendste der Welt. Aber: Autocomplete. Wer das vergisst, überschätzt die Technologie.

Urheberrecht und Training

Verlage und Autoren werfen OpenAI vor, ChatGPT mit urheberrechtlich geschützten Werken trainiert zu haben – ohne zu fragen oder zu vergüten. OpenAI argumentiert mit Fair Use (Nutzung für Forschung und Bildung). Mehrere Klagen laufen, eine rechtliche Klärung steht aus.

Ein weiteres Problem: Trainiert man KI-Modelle mit KI-generierten Texten, sinkt die Qualität. Kritiker warnen vor einem “inzestuösen” Kreislauf, in dem Modelle ihre eigenen Fehler multiplizieren und authentische menschliche Perspektiven verschwinden.

Datenschutz und Eingaben

Eingaben werden zum Training verwendet. Was Sie ChatGPT schicken, taucht möglicherweise in zukünftigen Modellen auf. OpenAI bietet Opt-out-Optionen. Der Standardfall: Ihre Daten fließen ins Training. Bei Enterprise-Versionen gelten andere Regeln, aber die Details bleiben oft unklar.

Ökologische Kosten

Das Training und der Betrieb großer Sprachmodelle verbrauchen enorme Mengen Energie und Wasser für die Kühlung der Rechenzentren. Offizielle Zahlen? Veröffentlicht OpenAI nicht. Die ökologischen Kosten der KI-Revolution bleiben eine Blackbox.

Einordnung

ChatGPT ist ein Werkzeug. Kein Orakel. Die Technologie funktioniert für bestimmte Aufgaben: Texte umformulieren, Ideen generieren, Code schreiben. Sie versagt bei Aufgaben, die Faktentreue, Aktualität oder echtes Verständnis erfordern.

Das Marketing spricht von “Künstlicher Intelligenz” und suggeriert Verständnis, Kreativität, vielleicht sogar Bewusstsein. Die Realität: statistisches Pattern Matching. Was nach außen wie Intelligenz wirkt, ist statistische Mustererkennung – beeindruckend skaliert, aber ohne jedes Verständnis für das, was die Muster bedeuten. Das System hat keine Meinungen, keine Überzeugungen, keine Absichten. Es hat Gewichtungen.

Die eigentliche Frage ist nicht, was ChatGPT alles beherrscht. Die Frage ist, ob Sie bereit sind, die Ausgaben zu prüfen, Fakten zu verifizieren und das System als das zu nutzen, was es ist: Ein leistungsfähiger Textgenerator ohne Wahrheitsanspruch. Wer diese Einschränkung akzeptiert, bekommt ein nützliches Werkzeug. Wer sie ignoriert, bekommt Probleme.

Weiterführende Artikel


Quellen