DeepSeek V4 veröffentlicht: 1,6 Billionen Parameter, 1M Kontext, Open-Source

DeepSeek hat V4 veröffentlicht — ein vollständig quelloffenes Sprachmodell mit 1,6 Billionen Parametern und nativem 1-Millionen-Token-Kontext. Die Architektur vereint dreiwegeige hybride Attention (Compressed Sparse Attention, Heavily Compressed Attention und Sliding Window), Manifold-Constrained Hyperconnections zur Vermeidung von Signalexplosion auf Billionen-Parameter-Ebene sowie den zweiphasigen Muon-Optimizer. Das Ergebnis: 3,7× weniger FLOPs und ein 10× kleinerer KV-Cache gegenüber V3.2. V4 erzielte eine perfekte Wertung von 120/120 im Putnam 2025 und belegt aktuell Platz zwei auf dem Open-Source-Leaderboard von Artificial Analysis — vergleichbar mit oder besser als Opus 4.6 Max.

Einordnung

Ein rechenkostenbeschränktes Team, das ein Frontier-Modell als vollständige Open-Source-Infrastruktur veröffentlicht — einschließlich Kernel-Code — beschleunigt die Lücke zwischen offenem und geschlossenem Ökosystem in Bezug auf Leistungszugang weiter.