Wichtigste Erkenntnisse
- GPT-5.4 ist der neue Standard: Am March 5, 2026 veröffentlicht, vereint es die Coding-Fähigkeiten von GPT-5.3 Codex mit umfassenderem Reasoning, einem 1M-token Kontext und nativer Computernutzung.
- Sechs Modelle für unterschiedliche Bedürfnisse: Flaggschiff (5.4), ausgewogen (5.4 Mini), schnell (5.4 Nano), Coding-Spezialist (5.3 Codex), Alltag (5.3 Instant) und Legacy (5.2 Thinking).
- Preise variieren um den Faktor 10: Von $0.30/MTok (GPT-5.3 Instant) bis $2.50/MTok (GPT-5.4) beim Input — die Wahl des richtigen Modells wirkt sich direkt auf Ihre Rechnung aus.
- GPT-5.2 geht am June 5 in den Ruhestand: Migrieren Sie jetzt, um Unterbrechungen zu vermeiden.
Der vollständige Leitfaden zur GPT-5 Modellfamilie von OpenAI
Die GPT-5 Familie von OpenAI ist auf sechs verschiedene Modelle angewachsen, die jeweils für ein anderes Gleichgewicht zwischen Leistungsfähigkeit, Geschwindigkeit und Kosten optimiert sind. Die Wahl des falschen Modells bedeutet entweder, zu viel für einfache Aufgaben zu bezahlen oder komplexe Aufgaben mit zu wenig Leistung zu bearbeiten.
Dieser Leitfaden deckt jedes Modell ab, inklusive Preisgestaltung, Benchmarks und einem klaren Entscheidungsrahmen.
Das komplette Lineup (March 2026)
| Modell | Rolle | Input-Kosten | Output-Kosten | Kontext | Veröffentlicht |
|---|---|---|---|---|---|
| GPT-5.4 | Flaggschiff Reasoning + Coding | $2.50/MTok | $10.00/MTok | 1.05M | Mar 5, 2026 |
| GPT-5.4 Mini | Schnell & ausgewogen | Niedriger | Niedriger | Kleiner | Mar 2026 |
| GPT-5.4 Nano | Niedrigste Latenz | Am niedrigsten | Am niedrigsten | Am kleinsten | Mar 2026 |
| GPT-5.3 Codex | Coding-Spezialist | $1.75/MTok | $7.00/MTok | 400K | Mar 3, 2026 |
| GPT-5.3 Instant | Alltagsaufgaben | ~$0.30/MTok | ~$1.20/MTok | Standard | Mar 3, 2026 |
| GPT-5.2 Thinking | Legacy-Flaggschiff | Höher | Höher | Kleiner | Früher |
Quellen: OpenAI API Models, FelloAI Comparison
GPT-5.4: Das neue Flaggschiff
GPT-5.4 ist das leistungsfähigste Modell von OpenAI — das erste, das Frontier-Reasoning mit Frontier-Coding in einer einzigen Architektur vereint.
Was es besonders macht
- 1,050,000-token Kontextfenster — Verarbeiten Sie gesamte große Codebases, vollständige Dokumentationssätze und lange Konversationsverläufe ohne Chunking.
- Native Computernutzung — Interagieren Sie programmatisch mit Desktop-Anwendungen, Browsern und System-Tools.
- 57.7% bei SWE-Bench Pro — State-of-the-Art Performance bei Coding-Benchmarks.
- 83% bei GDPval Wissensaufgaben — Entspricht oder übertrifft Branchenexperten.
- Token-effizient — Weniger Output-tokens pro Aufgabe trotz höherer nomineller Preise.
Wann man GPT-5.4 verwenden sollte
- Komplexe Coding-Aufgaben, die tiefes Reasoning erfordern.
- Mehrstufige autonome Workflows (via Codex CLI).
- Analysen mit langem Kontext (>400K tokens).
- Aufgaben, die Fähigkeiten zur Computernutzung erfordern.
- Jedes neue Projekt, bei dem Sie das beste verfügbare Modell benötigen.
Preisgestaltung
| Stufe | Input | Output | Cached Input |
|---|---|---|---|
| Standard | $2.50/MTok | $10.00/MTok | $0.63/MTok |
GPT-5.4 Mini: Die ausgewogene Wahl
GPT-5.4 Mini erbt die Architektur von GPT-5.4 zu einem niedrigeren Preis und mit geringerer Latenz. Es ist für Anwendungen konzipiert, die gutes Reasoning benötigen, ohne Flaggschiff-Preise zu zahlen.
Wann man GPT-5.4 Mini verwenden sollte
- Produktions-APIs, bei denen die Kosten pro Request wichtig sind.
- Anwendungen, die eine Balance aus Geschwindigkeit und Qualität benötigen.
- Chatbot-Backends mit moderater Komplexität.
- Workflows, bei denen GPT-5.4 überdimensioniert ist, GPT-5.3 Instant aber nicht ausreicht.
GPT-5.4 Nano: Der Geschwindigkeits-Champion
GPT-5.4 Nano ist für die niedrigstmögliche Latenz optimiert. Es tauscht Reasoning-Tiefe gegen reine Geschwindigkeit ein.
Wann man GPT-5.4 Nano verwenden sollte
- Echtzeit-Autovervollständigung und Vorschläge.
- Latenzkritische Produktions-Endpoints.
- Klassifizierungsaufgaben mit hohem Volumen und geringer Komplexität.
- Mobile Anwendungen, bei denen die Antwortzeit entscheidend ist.
GPT-5.3 Codex: Der Coding-Spezialist
GPT-5.3 Codex bleibt das beste Modell für kostensensible, Input-intensive Coding-Workflows. Es läuft 25% schneller als GPT-5.2 Codex und kostet pro Input-token weniger als GPT-5.4.
Wann man GPT-5.3 Codex verwenden sollte
- Terminal-lastige Batch-Coding-Operationen.
- Workflows, die wiederholt großen Repository-Kontext senden.
- Kostenoptimierte agentische Coding-Pipelines.
- Aufgaben, bei denen das 400K Kontextfenster ausreicht.
Wann man auf GPT-5.4 upgraden sollte
- Sie benötigen >400K tokens Kontext.
- Sie benötigen Fähigkeiten zur Computernutzung.
- Sie benötigen Wissensarbeit über das Coding hinaus.
- Der Aufpreis von 43% bei den Input-Kosten ist die breiteren Fähigkeiten wert.
Preisgestaltung
| Stufe | Input | Output | Cached Input |
|---|---|---|---|
| Standard | $1.75/MTok | $7.00/MTok | $0.44/MTok |
GPT-5.3 Instant: Das Arbeitstier für jeden Tag
GPT-5.3 Instant ist das günstigste GPT-5 Modell und die beste Wahl für alltägliche Aufgaben mit hohem Volumen.
Wichtigste Stärken
- 26.8% weniger Halluzinationen als Vorgängermodelle.
- Exzellent bei: Q&A, Anleitungen, technischem Schreiben, Übersetzung.
- Niedrigste Kosten: ~$0.30/$1.20 pro Million tokens.
- Hoher Durchsatz: Auf Geschwindigkeit optimiert.
Wann man GPT-5.3 Instant verwenden sollte
- Kundensupport-Chatbots.
- Content-Generierung in großem Maßstab.
- Übersetzung und Lokalisierung.
- Einfache Q&A-Systeme.
- Jede Anwendung mit hohem Volumen, bei der die Kosten pro Request am wichtigsten sind.
Preisgestaltung
| Stufe | Input | Output |
|---|---|---|
| Standard | ~$0.30/MTok | ~$1.20/MTok |
GPT-5.2 Thinking: Legacy (Ruhestand im June 2026)
GPT-5.2 war das vorherige Flaggschiff-Modell. Es führte eine dreistufige Architektur ein (Instant, Thinking und Pro), wurde aber in allen Benchmarks von GPT-5.4 abgelöst.
Zeitplan für die Migration
- Jetzt → June 5, 2026: GPT-5.2 Thinking verfügbar unter Legacy Models.
- June 5, 2026: GPT-5.2 Thinking wird eingestellt. API-Aufrufe werden fehlschlagen.
- Erforderliche Maßnahme: Aktualisieren Sie den Parameter
modelvongpt-5.2-thinkingaufgpt-5.4.
# Vorher (funktioniert ab June 5, 2026 nicht mehr)
model="gpt-5.2-thinking"
# Nachher
model="gpt-5.4"
Entscheidungsrahmen: Welches Modell man verwenden sollte
Nach Anwendungsfall
| Anwendungsfall | Empfohlenes Modell | Warum |
|---|---|---|
| Komplexes Coding + Reasoning | GPT-5.4 | Beste Fähigkeit, 1M Kontext |
| Tägliches Coding (kostensensibel) | GPT-5.3 Codex | Niedrigere Input-Kosten, starkes Coding |
| Allgemeiner Chatbot/Q&A | GPT-5.3 Instant | Günstigste Option, schnell, wenig Halluzinationen |
| Produktions-API (ausgewogen) | GPT-5.4 Mini | Gute Qualität, angemessene Kosten |
| Echtzeit-Autovervollständigung | GPT-5.4 Nano | Niedrigste Latenz |
| Wissenschaft/Forschung | GPT-5.4 | Tiefstes Reasoning |
Nach Budget
| Monatliches Budget | Strategie |
|---|---|
| <$50 | GPT-5.3 Instant für alles |
| $50-200 | GPT-5.3 Instant + GPT-5.3 Codex für Coding |
| $200-1,000 | GPT-5.4 als Standard, GPT-5.3 Instant für einfache Aufgaben |
| $1,000+ | GPT-5.4 für alles oder hybrides Routing |
Das Router-Pattern
Der kosteneffizienteste Ansatz für Produktionsanwendungen:
Request → Komplexität klassifizieren
├── Einfach (60%) → GPT-5.3 Instant ($0.30/MTok)
├── Mittel (25%) → GPT-5.4 Mini
├── Komplex (10%) → GPT-5.4 ($2.50/MTok)
└── Coding (5%) → GPT-5.3 Codex ($1.75/MTok)
Dieses Pattern kann die Kosten im Vergleich zur Nutzung von GPT-5.4 für alle Anfragen um 70-80% senken, bei minimalen Auswirkungen auf die Qualität.
GPT-5 im Vergleich zum Wettbewerb
Wie schneidet die GPT-5 Familie im Vergleich zu Claude und Gemini ab?
| Modell | Input-Kosten | SWE-Bench | Kontext | Stärke |
|---|---|---|---|---|
| GPT-5.4 | $2.50/MTok | 57.7% (Pro) | 1.05M | Breiteste Fähigkeiten |
| Claude Opus 4.6 | $15/MTok | 80.8% (Verified) | 1M | Tiefstes Reasoning |
| Claude Sonnet 4.6 | $3/MTok | 79.6% (Verified) | 1M | Bestes Preis-Leistungs-Verhältnis beim Reasoning |
| Gemini 3.1 Pro | Variiert | Kompetitiv | 2M | Größtes Kontextfenster |
Jede Modellfamilie hat ihre Stärken. GPT-5.4 bietet das ausgewogenste Set an Fähigkeiten; Claude führt bei Coding-Benchmarks; Gemini führt bei der Größe des Kontextfensters.
Jenseits der API: Bauen ohne Code
Alle GPT-5 Modelle sind Werkzeuge für Entwickler. Egal, ob Sie GPT-5.4 direkt oder über die Codex CLI nutzen, Sie benötigen weiterhin Programmierkenntnisse, um Anwendungen zu bauen.
Wenn Sie eine App bauen möchten, ohne Code zu schreiben, erlauben Ihnen Plattformen wie ZBuild, Ihre Anwendung in natürlicher Sprache zu beschreiben und ein vollständiges, funktionierendes Produkt zu erhalten — das im Hintergrund von AI-Modellen wie diesen angetrieben wird.
Zusammenfassung
Die GPT-5 Familie von OpenAI bietet ein Modell für jeden Anwendungsfall und jedes Budget:
| Modell | Kurzbeschreibung |
|---|---|
| GPT-5.4 | Insgesamt das Beste, nutzen Sie dies im Zweifelsfall |
| GPT-5.4 Mini | Gute Balance zwischen Geschwindigkeit und Kosten |
| GPT-5.4 Nano | Schnellstes Modell für latenzkritische Apps |
| GPT-5.3 Codex | Günstigste Option pro Token für intensives Coding |
| GPT-5.3 Instant | Günstigste Option insgesamt für Alltagsaufgaben |
| GPT-5.2 | Ruhestand am June 5 — jetzt migrieren |
Die richtige Wahl hängt von Ihrer Arbeitslast, Ihrem Budget und Ihren Latenzanforderungen ab. Im Zweifelsfall beginnen Sie mit GPT-5.4 und optimieren Sie auf günstigere Modelle herunter, sobald Sie Ihre Traffic-Muster verstehen.
Veröffentlicht vom ZBuild Team. Bauen Sie Apps ohne Coding unter zbuild.io.
Quellen
- OpenAI: Introducing GPT-5.4
- OpenAI: Introducing GPT-5.2
- OpenAI API Models
- OpenAI: Using GPT-5.4
- OpenAI Help Center: GPT-5.3 and GPT-5.4
- OpenAI Codex Models
- FelloAI: Ultimate ChatGPT Model Comparison
- Zapier: OpenAI Models Guide
- Nathan Lambert: GPT-5.4 Analysis