OpenAI Codex erreicht 3 Mio. Nutzer mit Agent-OS-Architektur
OpenAIs Codex überschritt an dem Tag, an dem das Unternehmen auf der AI Engineer 2026 seine vollständige Agent-OS-Architektur präsentierte, die Marke von drei Millionen wöchentlich aktiven Nutzern – eine Verdreifachung seit Januar. Sam Altman bezeichnete es als den „ChatGPT-Moment" für Coding-Agenten; Greg Brockman erklärte, Codex habe nach zwei Jahrzehnten das Terminal als seine primäre Schnittstelle abgelöst. Zahlen und Architektur zusammen machen deutlich: Codex hat sich von einem Coding-Assistenten zu einer konfigurierbaren Software-Engineering-Infrastruktur entwickelt.
Was die Quelle tatsächlich aussagt
Der AI-Engineer-Vortrag – ein rund 10.000 Wörter umfassender Workshop von Vaibhav Srivastav und Katia Gil Guzman aus dem OpenAI-DX-Team – dokumentiert einen vollständigen Agent-OS-Stack, der nun live in der Codex-App verfügbar ist. Plugins bündeln Skills, Apps und MCP-Server in einzelne Installationseinheiten und beseitigen damit das Problem, fünf Konfigurationsschritte für eine einzige Funktion vornehmen zu müssen; zu den vorgestellten Beispielen zählen Google-Drive-Integration und ein Game-Studio-Plugin mit gebündeltem Playwright Interactive und Bildgenerierung. Sub-Agents sind parallel laufende Persona-Agenten, die in TOML-Dateien definiert werden, jeweils mit eigenem Modell (die Referenten empfehlen GPT-5.4-mini oder 5.4-nano aus ökonomischen Gründen für Parallelläufe), Sandbox-Modus und MCP-Verkabelung. Drei Sub-Agents sind standardmäßig enthalten; ein codex-agents-Repository mit 40–50 kuratierten Personas – darunter Accessibility-Reviewer, Architekt und Sicherheitsanalyst – steht vor der Veröffentlichung. Die Demo stieß an eine Parallelitätsgrenze von sechs gleichzeitigen Threads, die als kontobezogen bestätigt wurde und derzeit nicht nach Tarifstufe dokumentiert ist.
Automationen planen Codex-Läufe gegen verbundene Apps nach natürlichsprachlichen Anweisungen ("Fasse täglich um 9 Uhr ungelesene Slack-Nachrichten nach Themen gebündelt zusammen") – der Referent berichtet, täglich Stunden bei Slack- und Gmail-Triage einzusparen. Hooks bieten drei Lifecycle-Ereignisse (session-start, post-tool-use, session-stop) über eine hooks.json-Datei an und ermöglichen so selbststeuernde Langzeit-Agenten. Guardian Approvals ersetzen den „Yolo-Mode"-Standard: Ein Sub-Agent bewertet jede privilegierte Operation dahingehend, ob menschliche Freigabe tatsächlich erforderlich ist – und reduziert Ermüdungserscheinungen, ohne den Sicherheitsboden zu entfernen. Ergänzend dazu durchlaufen 100 % aller OpenAI-Pull-Requests – einschließlich Greg Brockmans eigener – standardmäßig das Codex-Code-Review, das Diffs im Kontext des gesamten Repositories analysiert und Sekundäreffekte in nicht direkt berührten Modulen aufzeigt.
Die X-Accounts-Gruppe liefert unabhängige Bestätigung aus demselben 24-Stunden-Fenster: Altman, Brockman und ein dritter Nutzer, der Codex' Persistenz über ablaufende Kontextgrenzen hinweg dokumentierte, behandelten den Adoptionsinflektionspunkt allesamt als selbstverständlich.
Strategische Einschätzung
Der Plugin-Sub-Agent-Automation-Hook-Stack macht Codex' Orchestrierungsschicht explizit und konfigurierbar – diese Architektur sollten Teams evaluieren, nicht nur das Modell. Die kontobezogene Parallelitätsgrenze ist eine reale Planungsrestriktion für Swarm-artige Workflows; Teams, die agentische Pipelines auf Codex aufbauen, sollten Rate-Limits von Beginn an in ihre Architekturentscheidungen einbeziehen.



