OpenAI verdoppelt mit GPT-5.5 den Output-Preis. DeepSeek liefert mit V4 Pro ein Open-Source-Modell, das nur noch 0,2 Punkte hinter Claude Opus 4.6 liegt.
Und in Las Vegas bestätigt Google: Apples nächste Siri läuft auf Gemini.
Drei Signale, ein Bild — die Frontier wird zum kostbaren Gut, der Selbstbau-Anspruch fällt selbst bei Apple.
2×
GPT-5.5 Output-Preis vs. GPT-5.4 (30 Dollar / Mio Tokens)
80,6%
DeepSeek V4 Pro auf SWE-bench Verified — 0,2 Punkte hinter Claude Opus 4.6
1,6 Bio
Parameter in DeepSeek V4 Pro (49 Mrd. aktiviert, MIT-Lizenz)
Release GPT-5.5 — vier Wochen nach 5.4
Am 23. April für Plus, Pro, Business, Enterprise live, API ab 24. April. Preise verdoppelt im Output: 5 Dollar Input / 30 Dollar Output pro Million Tokens. Pro-Variante: 30 / 180 Dollar. OpenAI rechnet vor, dass effektive Kosten "nur" 20% höher liegen als bei 5.4 — durch geringere Token-Nutzung pro Task.
Benchmarks Top auf Terminal-Bench, hinten beim Coding
State of the Art: 82,7% Terminal-Bench 2.0 (Claude Opus 4.7: 69,4%) und 78,7% OSWorld-Verified. Aber bei SWE-bench Pro nur 58,6% — gegen Opus 4.7 mit 64,3%. The Decoder hält fest: GPT-5.5 halluziniert weiterhin häufig. Stärkster Gewinn: Agentic Computer Use, schwächster: Multi-File-Coding.
Release V4 Pro + V4 Flash — MIT-Lizenz
Nach drei Verzögerungen und fast vier Monaten Wartezeit liefert DeepSeek am 24. April das V4-Paar. V4 Pro: 1,6 Billionen Parameter (49 Mrd. aktiviert). V4 Flash: 284 Mrd. Parameter (13 Mrd. aktiviert). Beide mit 1 Mio Tokens Kontext und unter MIT-Lizenz. Preise: Flash 0,14 / 0,28 Dollar pro Million Tokens, Pro 1,74 / 3,48 Dollar. Faktor ~50 günstiger als GPT-5.5 Pro.
Wettbewerbslage 0,2 Punkte hinter Claude Opus 4.6
V4 Pro erreicht 80,6% auf SWE-bench Verified — innerhalb von 0,2 Punkten an Claude Opus 4.6. Insgesamt liegt der Abstand zu GPT-5.4 / Gemini 3.1 Pro bei drei bis sechs Monaten. Open Source ist nicht mehr der ärmere Bruder — es ist nur noch ein Tick langsamer im Tempo.
Release Deep Research + Deep Research Max — 21. April
Größtes Update für Googles autonome Research-Agenten seit Produkt-Debüt. Beide laufen auf Gemini 3.1 Pro. Deep Research ist auf Latenz und Kosten optimiert, Deep Research Max auf maximale Synthese-Qualität via extended test-time compute. Neu: MCP-Support, native Visualisierungen, iteratives Reasoning. Public Preview über bezahlte Tiers der Gemini API.
Pricing-Theater Claude Code raus aus Pro — und in 24h zurück
Am 22. April verschwand auf claude.com/pricing der Hinweis "Pro includes Claude Code" — durch ein "X" ersetzt. Anthropics Head of Growth Amol Avasare relativierte: Test bei 2% neuer Prosumer-Signups, bestehende Abos nie betroffen. Innerhalb von 24 Stunden zurückgenommen, Pricing-Seite und Doku wiederhergestellt. Signal: Margin-Druck wird sichtbar.
Quality-Issues Claude Code dumber gemacht — und zugegeben
Drei Änderungen im März und April haben laut Anthropics eigenem Post-Mortem die Qualität von Claude Code, Agent SDK und Cowork verschlechtert. Maßnahmen: Reset der Usage-Limits, höherer Default-Reasoning-Effort, Caching-Bug behoben, Verbosity-Prompt-Änderung zurückgenommen.
Deals 5 GW Compute · Japan-Workforce · Managed Agents
Drei strategische Schritte parallel: Anthropic + Amazon erweitern Compute-Partnerschaft auf bis zu 5 Gigawatt (20.04.). Anthropic + NEC bauen Japans größte AI-Engineering-Workforce auf (24.04.). Managed Agents launcht auf der Claude Platform — fully-managed Agent-Harness mit secure Sandboxing.
Bestätigung Apples Siri läuft künftig auf Gemini
Auf der Google Cloud Next 2026 in Las Vegas bestätigt CEO Thomas Kurian: Apples nächste Siri-Generation läuft auf Gemini. Beide Konzerne entwickeln gemeinsam ein neues Apple Foundation Model auf Gemini-Basis. Zwei-Phasen-Rollout: iOS 26.4 nutzt Gemini bereits für Kontext-Awareness und On-Screen-Recognition. iOS 27 im September bringt vollständig konversationelle Siri mit 20+ Dialogschritten. Apple gibt damit als erster großer Tech-Konzern die eigenständige Foundation-Model-Strategie auf.
Die KI-Branche hat in dieser Woche eine ihrer ehrlichsten Wahrheiten ausgesprochen: Frontier-AI ist teuer geworden, Open Source ist gut genug, und der Selbstbau-Anspruch fällt sogar bei Apple.
OpenAI signalisiert mit verdoppelten API-Preisen, dass die Margin-Phase begonnen hat. DeepSeek beweist, dass die Open-Source-Lücke schrumpft. Apple zeigt, dass selbst tiefe Taschen kein Frontier-Modell garantieren. Die einzige offene Frage: Wer wird der nächste Konzern, der seine eigene Foundation-Model-Roadmap kassiert?