DS2API macht DeepSeek Web als OpenAI/Claude/Gemini-kompatible APIs zugänglich
DS2API macht DeepSeek Web als OpenAI/Claude/Gemini-kompatible APIs zugänglich – reverse-engineered, mit Haftungsausschluss, aber ein klares Signal der Nachfrage.
DS2API macht DeepSeek Web als OpenAI/Claude/Gemini-kompatible APIs zugänglich – reverse-engineered, mit Haftungsausschluss, aber ein klares Signal der Nachfrage.
Qwen3.6-27B erscheint leise unter Apache 2.0: AAII-Score 46, für M-Series-Lokalausführung optimiert – das stärkste verfügbare kompakte lokale Modell.
DeepSeek-V4 (MIT, 1M-Kontext) und Kimi-K2.6 (multimodal, 256K-Kontext) bilden den ersten vollständigen Open-Weights-Stack für KI-Agenten.
Decepticon ist ein Open-Source autonomer KI-Red-Team-Agent, der Angriffspfade durchdenkt und Geschäftslogik testet – mit strengen Scope-, Isolations- und Logging-Anforderungen.
NVIDIA Ising nutzt KI, um Quantencomputer-Kalibrierung von Tagen auf Stunden zu verkürzen und bietet 3D-neuronale Netzwerk-Fehlerkorrektur schneller als bisherige Methoden.
Qwen3.6-35B-A3B, aus Claude Opus 4.6 Reasoning-Traces destilliert, läuft lokal in 13 GB im 2-Bit-Modus und wirft erhebliche Anbieter-ToS-Fragen auf.
RF-DETR (ICLR 2026) setzt neuen COCO-SOTA; das Apache-2.0-lizenzierte RF-DETR-L übertrifft YOLO26-X bei Genauigkeit ohne AGPL-Lizenzpflicht.
Xiaomis MiMo 2.5 Pro belegt gemeinsam Platz 1 auf Artificial Analysis und baute autonom einen Desktop-Video-Editor in 11,5 Stunden.
lakehq/sail: Rust-nativer Spark-Ersatz auf DataFusion/Arrow-Basis erzielt 4× schnelleres TPC-H, 94% Kostensenkung, kein Shuffle Spill – PySpark-Code läuft unverändert.
llama.cpp erreicht 100.000 GitHub-Stars; Entwickler @ggerganov prognostiziert, dass 90% der KI-Agenten in 3–6 Monaten lokal laufen werden.
DeepSeek V4-Pro als Open-Source: 1,6T Parameter, 1M Kontext, 10x KV-Cache-Reduktion gegenüber V3.2 – in 43 Minuten auf Platz 1 bei HuggingFace.
Moonshoots Kimi K2.6 betreibt 300 parallele Sub-Agenten für 12+ Stunden autonom zu 0,60 USD/M Eingabe-Tokens – Open-Weight, auf HuggingFace verfügbar.
Meta veröffentlicht Sapiens2 – hochauflösende Vision Transformer auf 1 Mrd. Menschenbildern für Pose, Segmentierung, Tiefe und Punktkarten.
LlamaIndex veröffentlicht LiteParse – einen VLM-freien, ML-freien PDF-Parser per Rasterprojektions-Algorithmus für komplexe Layouts und Tabellen.
TrackioApp bietet kostenloses, local-first Trace-Logging für KI-Agenten – leichtgewichtige Observability ohne Cloud-Abhängigkeit.
HuggingFaces ml-intern führt autonom den gesamten ML-Forschungs- und Trainingskreislauf durch: GPQA von 10% auf 32% in <10 Stunden, HealthBench 60% besser als Codex.
OpenAIs Privacy Filter — ein 1,5B MoE-Modell zur PII-Erkennung unter Apache 2.0 — ist das erste Open-Weight-Release des Unternehmens im Jahr 2026.
Qwen3.6-27B (Apache 2.0) soll das 397B große Qwen3.5 MoE und Claude Opus 4.5 in Coding-Benchmarks übertreffen — lokal auf 18 GB RAM ausführbar.
ml-intern liest arXiv, bereinigt Datensätze, führt SFT/GRPO durch und iteriert — GPQA stieg in unter 10 Stunden von 10% auf 32% für etwa 1 Dollar Rechenkosten.
Alibabas Apache-2.0-27B-Modell übertrifft Qwen3.5-397B-A17B bei allen wichtigen Coding-Benchmarks und läuft lokal mit 18 GB RAM.
Meta veröffentlicht Llama 4 unter einer aktualisierten Open-Source-Lizenz mit einem Kontextfenster von 2 Millionen Token.
Meta hat Llama 4 unter einer aktualisierten Open-Source-Lizenz veröffentlicht — mit integrierten Context-Engineering-Primitiven und einem 2M-Token-Kontextfenster, ein bedeutender Meilenstein für das Open-Source-LLM-Ökosystem.
Eine vergleichende Analyse des Open-Source-LLM-Oekosystems zu Beginn von Q2 2026 — Performance-Benchmarking gegen proprietaere Alternativen, Lizenzlandschaft und Gesamtbetriebskosten fuer Self-Hosted-Deployments.
Kuratierte AI-Einblicke — wir senden, wenn es sich lohnt.