GGUF-Ökosystem überschreitet 176.000 Modelle; monatliches Wachstum seit März fast verdoppelt

Hugging-Face-CEO Clément Delangue berichtet, dass die Plattform inzwischen 176.000 öffentliche GGUF-Modelle hostet — das quantisierte Lokalinferenz-Format, das vorwiegend mit llama.cpp eingesetzt wird. Die monatliche Erstellung neuer Modelle lag zwischen Oktober 2025 und Februar 2026 im Durchschnitt bei 5.100, stieg dann im März auf 9.200 (+55 % gegenüber dem Vormonat) und hielt sich im April bei 9.700 — was eine neue Basislinie statt eines einmaligen Spitzenwertes bestätigt. Treiber sind eine Welle neuer Open-Weight-Modellveröffentlichungen, die sofort quantisiert werden, Verbesserungen an der llama.cpp-Infrastruktur sowie automatisierte Quantisierungspipelines. Unabhängig davon berichtete Ethan Mollick, dass 10 % der Teilnehmer in einer Gruppe leitender Buchhalter — Nicht-Tech-Fachleute in einem Nicht-Tech-Unternehmen — bereits lokale KI-Installationen betreiben.

Einordnung

Unabhängige Signale von der Angebotsseite (GGUF-Modellzahlen verdoppelt) und der Nachfrageseite (10 % Durchdringung bei Berufstätigen außerhalb der Tech-Branche), die gleichzeitig eintreffen, bestätigen: Lokale KI-Bereitstellung ist kein Entwicklerphänomen mehr — sie ist ein etabliertes Unternehmens­muster.