DeepSeek-V4 und Kimi-K2.6 verschieben die Open-Weights-Baseline für Agentic AI
Zwei am 26. April angekündigte Open-Weights-Modelle schließen gemeinsam eine Lücke, die bislang Kompromisse mit geschlossenen APIs erzwang: Long-Context-Reasoning zu Open-Source-Kosten (DeepSeek-V4), erstklassige multimodale Swarm-Orchestrierung (Kimi-K2.6) und mit Qwen3.6-27B eine leise, lokal deployfähige Brückenlösung. Für Teams, die produktionsreife Agentic-Pipelines entwickeln, markiert diese Woche die wirtschaftliche Trendwende.
Was die Quellen tatsächlich sagen
Ben Dicksons Analyse bei AlphaSignal liest sich als Praktiker-Vergleich, nicht als Benchmark-Zusammenfassung. DeepSeek-V4 erscheint in zwei Varianten — Pro (1,6 Billionen Parameter gesamt, 49 Mrd. aktiv) und Flash (284 Mrd. gesamt, 13 Mrd. aktiv) —, die beide nativ einen 1-Million-Token-Kontext über einen gestaffelten Kompressionsmechanismus unterstützen: Compressed Sparse Attention (CSA) und Heavily Compressed Attention (HCA), aufgesetzt auf DeepSeeks bestehender Sparse Attention. Ohne diesen Kompressionsstapel würde der KV-Cache-Speicherdruck bei Million-Token-Skala RAM-Auslagerungen erzwingen und den Durchsatz erheblich beeinträchtigen — die Architektur, nicht die Parameterzahl, ist der eigentliche Hebel. Pro soll GPT-5.2 und Gemini 3.0-Pro auf Standard-Reasoning-Benchmarks übertreffen und bleibt dem geschlossenen Frontier um rund drei bis sechs Monate hinterher. MIT-Lizenz, keine kommerziellen Einschränkungen. Derzeit nur Text; Vision befindet sich auf der Roadmap.
Kimi-K2.6 von Moonshot AI belegt den ersten Platz im Artificial Analysis Intelligence Index unter den Open-Source-Modellen. Es handelt sich um ein MoE-Modell mit 1 Billion Parametern gesamt und 32 Milliarden aktiven Parametern pro Token über 384 Experten, das nativ multimodal (Text/Bild/Video → Text) ist und über ein 256K-Token-Kontextfenster verfügt. Der entscheidende Deployment-Nachweis im AlphaSignal-Bericht ist kein Benchmark-Wert, sondern ein operativer: K2.6 absolvierte eine 13-stündige, 1.000 Tool-Calls umfassende Session an einem Open-Source-Projekt, ohne seinen System Prompt zu verlassen. Diese Stufe an Orchestrator-Zuverlässigkeit ist Voraussetzung für produktionstaugliche Agent-Swarm-Deployments. Lizenzvorbehalt: modifiziertes MIT mit MAU- und Umsatzschwellenwerten — Cursor hat die Attribution-Klausel kürzlich ausgelöst.
Das GitHub-Trending-Signal bestätigt die rasche Ökosystem-Adoption: ds2api, eine in Go geschriebene Bridge, die claude-sonnet-4-6 auf deepseek-v4-flash und claude-opus-4-6 auf deepseek-v4-pro umleitet, ist heute im Trending — und Kimi K2.5 erscheint bereits als empfohlene Fast/Cheap-Sub-Agent-Ebene im Modellmenü von oh-my-opencode-slim.
Strategische Einschätzung
Dicksons abschließende These trifft den Kern von agenticonsults Themenfeld: Das Scaffolding ist der eigentliche Burggraben — und den kann man nur dann vollständig gestalten, wenn man die Ausführungsumgebung kontrolliert. Open Weights ermöglichen diese Kontrolle erstmals im industriellen Maßstab. Der Drei-Modell-Stack (V4-Pro für Long-Context-Reasoning, K2.6 für multimodale Orchestrierung, Qwen3.6-27B für lokale Entwicklung) gibt Entwicklungsteams eine vollständige Abdeckungslandkarte — die Lizenzbedingungen (MIT vs. modifiziertes MIT vs. Apache 2.0) sind dabei nun eine erstklassige Produktentscheidung, kein nachträglicher Gedanke.