Was ist Claude?
Claude ist eine Familie von KI-Sprachmodellen (Large Language Models) des US-amerikanischen Unternehmens Anthropic. Die Modelle erzeugen Texte, analysieren Dokumente und schreiben Code. Direkter Konkurrent: ChatGPT von OpenAI und Gemini von Google. Anthropic verkauft Claude als “sicheres” KI-Modell, was das in der Praxis bedeutet, verdient genauere Betrachtung.
Wer steckt hinter Anthropic?
Anthropic wurde 2021 von Dario und Daniela Amodei gegründet. Beide hatten zuvor bei OpenAI gearbeitet und verließen das Unternehmen über Meinungsverschiedenheiten zur Finanzierung und zum Veröffentlichungstempo neuer Modelle. Seitdem hat Anthropic über mehrere Runden Milliarden an Investorengeldern eingesammelt, darunter von Amazon und Google. Das wirft eine Frage auf, die für die Einordnung relevant ist: Wie unabhängig operiert eine Firma, deren Hauptinvestoren gleichzeitig die größten Cloud-Anbieter sind?
Wie Claude funktioniert
Claude basiert wie praktisch alle modernen Sprachmodelle auf der Transformer-Architektur (einer Modell-Struktur, die Texteingaben parallel verarbeitet und Wahrscheinlichkeiten für das nächste Wort berechnet). Die technische Besonderheit liegt im Trainingsverfahren: Laut Anthropic Research hat das Unternehmen Constitutional AI (CAI) entwickelt, eine Methode, bei der das Modell eigene Antworten gegen ein festgelegtes Regelwerk bewertet und überarbeitet. Dieses Regelwerk nennt Anthropic die “Constitution” (wörtlich: Verfassung des Modells).
Der zweite Trainingsschritt heißt RLAIF (Reinforcement Learning from AI Feedback, also Lernen durch KI-generiertes Feedback statt durch menschliche Kennzeichnung). Klingt effizienter als klassisches RLHF (menschliches Feedback). Ist aber auch anfälliger für zirkuläre Fehler: Eine KI, die sich selbst bewertet, bleibt an die Qualität ihrer eigenen Verfassung gebunden.
Diese Constitution definiert eine klare Prioritätenreihenfolge für Claudes Verhalten (Stand: Januar 2026):
- Sicherheit — menschliche Kontrolle über das Modell erhalten
- Ethik — Ehrlichkeit und Schadenvermeidung
- Regelkonformität — Anthropics eigene Richtlinien
- Hilfsbereitschaft — erst an vierter Stelle
Hilfsbereitschaft steht ganz unten. Wenn eine Antwort gegen die oberen Prioritäten verstößt, verweigert Claude die Ausführung und liefert stattdessen eine Begründung. In der Praxis führt das gelegentlich zu übervorsichtigen Ablehnungen bei eigentlich harmlosen Anfragen.
Welche Claude-Modelle gibt es?
Anthropic bietet drei Modell-Linien an. Laut offizieller Anthropic-Dokumentation (Stand: März 2026) unterscheiden sie sich in Leistung und Geschwindigkeit:
| Modell | Kontext-Fenster | Einsatz |
|---|---|---|
| Claude Opus 4.6 | 1 Mio. Token | Anspruchsvolle Analyse- und Reasoning-Aufgaben |
| Claude Sonnet 4.6 | 1 Mio. Token | Alltagseinsatz, meistgenutzte Variante |
| Claude Haiku 4.5 | 200.000 Token | Schnelle, wiederkehrende Aufgaben |
Ein Token (die kleinste Verarbeitungseinheit, grob ein halbes Wort) entspricht ungefähr 0,75 Wörtern. Das Kontext-Fenster (die maximale Textmenge, die das Modell auf einmal verarbeitet) von einer Million Token bei Opus und Sonnet fasst etwa 750.000 Wörter. Stand März 2026 bieten auch OpenAIs GPT-5.4 und Googles Gemini 3.1 vergleichbare Kontext-Fenster — noch vor einem Jahr war das ein klarer Wettbewerbsvorteil für Claude.
Wie und wo nutzt man Claude?
Claude ist über mehrere Wege zugänglich:
claude.ai (Weboberfläche, vergleichbar mit ChatGPT):
- Kostenloser Plan mit begrenzter Nutzung
- Mehrere kostenpflichtige Stufen mit steigendem Nutzungsvolumen (Pro, Max, Team, Enterprise)
- Aktuelle Preise und Pläne auf claude.ai
API (für Entwickler und Unternehmensintegrationen): Abrechnung nach Token-Verbrauch. Auch verfügbar über AWS Bedrock und Google Cloud Vertex AI, was die Einbindung in bestehende Cloud-Infrastruktur erleichtert.
Wozu wird Claude eingesetzt?
Was Claude in der Praxis von anderen Modellen abhebt, ist die Kombination aus großem Kontext-Fenster und Instruktionstreue: Das Modell folgt auch mehrstufigen, verschachtelten Anweisungen verlässlicher als viele Konkurrenten. Für professionelle Workflows und [Prompt]-Engineering ein relevanter Vorteil.
Typische Einsatzfelder:
- Textgenerierung — Artikel, Zusammenfassungen, E-Mails, Berichte
- Reasoning — mehrstufige Analyse- und Schlussfolgerungsaufgaben
- Agent-Workflows — Claude als ausführendes Modell in automatisierten Prozessen (kombiniert mit RAG oder anderen Systemen)
- Coding — Schreiben, Erklären und Debuggen von Code
Was Claude nicht kann
Anthropics Kommunikation dreht sich stark um “Sicherheit” und “Constitutional AI”. Die sachliche Einordnung fällt differenzierter aus.
Technische Grenzen
- Keine Bildgenerierung — Claude erzeugt keine Bilder wie DALL-E oder Midjourney. Es generiert SVG-Code und interaktive Komponenten, aber keine Fotos oder Grafiken im klassischen Sinn
- Keine native Video-Verarbeitung — Videos lassen sich nicht direkt hochladen, nur als extrahierte Einzelbilder analysieren
- KI-Halluzinationen — Constitutional AI löst das Grundproblem aller Sprachmodelle nicht: Claude erfindet Fakten, wenn es keine sicheren Informationen hat
Das Safety-Versprechen unter Druck
Anthropics Sicherheitspositionierung hat im Februar 2026 einen öffentlichen Riss bekommen. Wie The Conversation dokumentiert, forderte das US-Verteidigungsministerium, Claude ohne die Einschränkungen der Acceptable Use Policy nutzen zu dürfen, und drohte anderenfalls mit der Einstufung als “Supply Chain Risk”. Anthropic lehnte ab. Parallel strich das Unternehmen allerdings ein Versprechen aus seiner Responsible Scaling Policy, keine neuen Modelle ohne garantierte Risikominimierung zu veröffentlichen. Militärischer Druck und Safety-Versprechen vertragen sich offenbar schlechter als Anthropics Marketing nahelegt.
Strukturelle Abhängigkeiten
- Proprietär — Claude ist kein Open-Source-Modell, der Code bleibt nicht einsehbar und nicht anpassbar
- Vendor Lock-in — wer Claude-Workflows aufbaut, bindet sich an Anthropics Preise und Verfügbarkeit
- Investor-Einfluss — Amazon und Google gehören zu den Hauptinvestoren, was langfristige Neutralitätsfragen aufwirft
Constitutional AI ist ein methodisch interessanter Ansatz. Als Garantie für ein “sicheres” Modell taugt er nicht, solange externe Druckfaktoren die zugrundeliegenden Regeln verändern können. Für Unternehmen bedeutet das: Die Entscheidung für Claude sollte auf konkreten Fähigkeiten basieren, nicht auf dem Sicherheits-Marketing. Instruktionstreue, langer Kontext und Reasoning-Qualität sind messbare Eigenschaften. “Safety-first” ist ein Markenversprechen.
Quellen
- Anthropic Research: Constitutional AI: https://www.anthropic.com/research/constitutional-ai-harmlessness-from-ai-feedback
- Anthropic Docs: Models Overview: https://platform.claude.com/docs/en/about-claude/models/overview
- The Conversation: Anthropic v. the US Military: https://theconversation.com/anthropic-v-the-us-military-what-this-public-feud-says-about-the-use-of-ai-in-warfare-276999