Zusammenfassung

Innerhalb von 48 Stunden traten in dieser Woche drei unvereinbare amerikanische KI-Doktrinen zutage — als Reaktion auf ein einziges Ereignis: die Veröffentlichung von „2028 — Two Scenarios for Global AI Leadership" durch Anthropic, dem explizitesten öffentlichen Grundsatzdokument, das ein großes Frontier-Lab je zum US-chinesischen KI-Wettbewerb publiziert hat. Anthropics Doktrin besagt, dass Compute-Restriktionen, geschlossener Frontier-Modellzugang und Maßnahmen gegen Destillationsangriffe notwendig sind, um demokratische KI-Führerschaft vor 2028 zu sichern — dem Jahr, das Anthropic implizit als Schwelle zur rekursiven Selbstverbesserung identifiziert. Nvidias Gegendoktrin, artikuliert durch Jensen Huang, besagt, dass Compute-Beschränkungen gegenüber China genau jene heimische Chipindustrieentwicklung beschleunigen, die Restriktionen dauerhaft kontraproduktiv machen würde, und dass amerikanische KI-Unternehmen die Plattform werden müssen, auf der chinesische KI läuft. OpenAIs entstehende Doktrin weicht von beiden ab: Das Unternehmen schlug ein US-geführtes globales KI-Governance-Gremium nach Vorbild der Internationalen Atomenergiebehörde (IAEA) vor, das China ausdrücklich als Mitglied einschließt — ein multilateraler, institutionenbasierter Weg, für den weder Anthropics binäre Szenarien noch Nvidias Marktdominanz-Framing Raum lässt.

Das UK AI Security Institute fügte gleichzeitig empirische Dringlichkeit hinzu: seine veröffentlichte Erkenntnis, dass sich die Länge der Cyber-Aufgaben, die autonome KI bewältigen kann, alle 4,5 Monate verdoppelt — wobei sowohl Anthropics Mythos-Modell als auch OpenAIs GPT-5.5 „erhebliche Zuwächse bei Cyber-Fähigkeiten" zeigen —, und dass beide Modelle durch zugeteilte Tokens begrenzt zu sein scheinen, nicht durch ihre grundlegenden Fähigkeiten. Die Schlussfolgerung lautet: Die aktuellen Sicherheitsbeschränkungen der gefährlichsten Modelle sind Ressourcenallokationsentscheidungen, keine harten Fähigkeitsgrenzen.

Matthew Bermans 6.400 Wörter umfassende Video-Antwort auf Anthropics Essay — am selben Tag veröffentlicht und hier im Detail analysiert — destilliert den Doktrinbruch in seiner schärfsten Form: Berman stimmt nahezu der gesamten Bedrohungsidentifikation Anthropics zu, einschließlich des Zeitplans für rekursive Selbstverbesserung bis 2028, des Risikos autoritärer Repression in großem Maßstab und der Compute-Führungsanalyse. Bei den Lösungsansätzen weicht er scharf ab — er argumentiert, Open-Source-Export sei kein Hindernis für amerikanische KI-Dominanz, sondern deren notwendiges Instrument (Matthew Berman, YouTube). Diese Fäden münden in ein strategisches Dilemma, das die Branche bisher nicht öffentlich formuliert hat: Das Fenster, in dem Compute-Restriktionen gleichzeitig durchsetzbar und wirksam sind, könnte sich schneller schließen, als Exportkontroll-Timelines verlaufen können.

Marktkontext

Zwei Halbleiter-Wafer in stark unterschiedlichen Fokusebenen, die den Compute-Fertigungsabstand zwischen US-amerikanischer und chinesischer Chipindustrie veranschaulichen
Zwei Halbleiter-Wafer in stark unterschiedlichen Fokusebenen, die den Compute-Fertigungsabstand zwischen US-amerikanischer und chinesischer Chipindustrie veranschaulichen

Das physische Fundament des US-chinesischen KI-Wettbewerbs ist stärker konzentriert, als der öffentliche Diskurs eingesteht. Anthropics eigene veröffentlichte Analyse ergibt, dass Huawei 2026 lediglich 4 % von Nvidias aggregierter Compute-Leistung produzieren wird, 2027 fallend auf 2 % — eine bemerkenswerte Momentaufnahme des Compute-Abstands, die das stärkste empirische Fundament des Export-Kontroll-Arguments darstellt. China kann derzeit weder Extreme-Ultraviolett- (EUV) noch Deep-Ultraviolett-Lithographie-Ausrüstung (DUV) herstellen und kann High-Bandwidth-Memory (HBM) nicht im industriellen Maßstab produzieren. Das sind keine graduellen Defizite. Es handelt sich um Ingenieurprobleme mit mehrjährigem Zeitplan, die Chinas gesamte Industriepolitik — einschließlich der Strategie „Made in China 2025" und des China Integrated Circuit Industry Investment Fund — trotz staatlich geförderter Investitionen in zweistelliger Milliardenhöhe nicht schließen konnte.

Gleichzeitig genehmigten die USA innerhalb desselben 48-Stunden-Zyklus etwa zehn chinesischen Unternehmen — darunter Alibaba, Tencent, ByteDance und JD.com — den Kauf von Nvidia H200-Chips, wobei zum Zeitpunkt der Berichterstattung keine Lieferungen stattgefunden hatten (techsnif / X). Die Lücke zwischen „Kaufgenehmigung" und „Lieferung" ist der Raum, in dem die aktuelle Politikambiguität lebt. Die Regierung scheint eine Nadel zu fädeln, die weder Anthropics noch Nvidias Position vollständig entspricht: keine pauschale Restriktion, kein offenes Engagement, sondern ein fallweises, bedingtes Zugangsregime.

Die Unternehmensökonomie steht in scharfer Spannung zur Politikdebatte. Anthropics Claude Opus kostet rund 30 Dollar pro Million Output-Tokens. Chinesische Open-Weight-Modelle, die kostenlos oder zu einem Bruchteil dieses Preises verteilt werden, liefern für die große Mehrheit der kommerziellen Anwendungsfälle äquivalente Leistung zu etwa einem Zehntel dieses Preises. Berman berichtet, gestützt auf direkte Gespräche mit Unternehmensführern, dass Führungskräfte, die KI-Infrastrukturausgaben überprüfen, bereits zu Open-Weight-Alternativen für Anwendungsfälle wechseln, die keine Frontier-Fähigkeit erfordern — was nach seiner Schätzung 99 % der aktuellen Enterprise-KI-Deployments entspricht. Anthropic erkennt dieses Risiko im eigenen Essay an — „wenn die KPCh KI-Systeme nahe der Frontier schneller und effektiver integriert ... könnte sie sich Vorteile gegenüber Demokratien sichern, die ein Intelligenzdefizit ausgleichen" — stellt aber gleichzeitig die widersprüchliche These an die Spitze, dass Intelligenz die wichtigste Wettbewerbsfront sei. Berman nennt dies einen zweilineigen Widerspruch; präziser ist es eine ungelöste Spannung zwischen der Sicherheitslogik des Labs und seiner Marktanalyse.

Akteure

Anthropic veröffentlichte „2028" als explizit im amerikanischen Interesse verfasstes Grundsatzdokument und benennt die Kommunistische Partei Chinas als Bedrohung für globale KI-Normen — wobei, wie Berman anerkennend anmerkt, sorgfältig zwischen der KPCh und chinesischen Bürgern unterschieden wird. Die drei vorgeschriebenen Politiksäulen sind: Schließung von Export-Kontrolllücken (Chip-Schmuggelrouten, Zugang zu ausländischen Rechenzentren, Kontrolllücken bei kleinen und mittleren Unternehmen), Verteidigung amerikanischer KI-Innovationen gegen Destillationsangriffe und Förderung von US-KI-Exporten. Das Nebenargument des Essays lautet: Demokratische KI-Führerschaft ermöglicht Sicherheitsverhandlungen mit China aus einer Position der Stärke; autoritäre KI-Führerschaft eliminiert diesen Hebel vollständig.

Anthropics folgenreichster Schachzug war die Berufung auf Mythos — sein Modell mit zehn Billionen Parametern, das im April ausschließlich an ausgewählte Partner unter Projekt Glasswing freigegeben wurde — als Beleg dafür, warum ein chinesisches Lab, das diese Fähigkeitsstufe zuerst erreicht, dies direkt in Cyber-Angriffsfähigkeiten gegen kritische Infrastruktur übersetzen würde. „Hätte ein KI-Lab der VR China ein Modell auf dem Niveau der Claude-Mythos-Vorschau vor einem amerikanischen entwickelt, hätte die KPCh als Erste Zugang zu einem System gehabt, das autonom Software-Schwachstellen entdecken und verketten kann." Diese Rahmung wurde sofort auf zwei Fronten bestritten: ob sie echte sicherheitsgetriebene Nicht-Veröffentlichung darstellt oder angstbasiertes Marketing kombiniert mit unzureichendem Serving-Compute, und ob die Erkenntnis des AISI, dass Mythos Token- statt fähigkeitsbegrenzt ist, das Argument untergräbt, dass eine breite Veröffentlichung einzigartig gefährlich wäre.

OpenAI wählte ein anderes rhetorisches Register. Anstelle einer Binärszenario-Rahmung unterstützte das Unternehmen öffentlich ein US-geführtes globales KI-Governance-Gremium nach ausdrücklichem Vorbild der IAEA und schlug China als Mitglied vor (techsnif / X). Die Abweichung von Anthropic ist bedeutsam: Wo Anthropic Szenario 1 (amerikanische Dominanz) und Szenario 2 (autoritäre KI-Herrschaft) als einzige Zukunftsoptionen präsentiert, schlägt OpenAI implizit einen dritten Weg vor, auf dem Großmächte an einer gemeinsamen Aufsichtsstruktur teilnehmen. Die IAEA-Analogie ist aufschlussreich — die ursprüngliche IAEA schloss die Sowjetunion ein — und deutet darauf hin, dass OpenAI das Risiko einer unkontrollierten chinesischen KI-Entwicklungstrajektorie als größer einschätzt als das Risiko, China in einen Governance-Rahmen einzubinden, den Washington nominell führt.

Nvidia und Jensen Huang vertreten die kommerziell am stärksten verankerte Gegenposition der Branche. Huangs Argument: „Der Tag, an dem DeepSeek zuerst auf Huawei erscheint — das ist ein schreckliches Ergebnis für unser Land." Die Rahmung ist identisch mit Anthropics Bedrohungsanalyse, gelangt jedoch zur entgegengesetzten politischen Schlussfolgerung. Nvidias Interesse besteht darin, die Plattform zu sein, auf der globale KI läuft; Exportkontrollen, die chinesische KI auf Huawei-Hardware treiben, sind nach Huangs Logik kontraproduktiv. Getrennt davon erwarb Huangs persönliche Stiftung in dieser Woche CoreWeave-Compute im Wert von 108,3 Millionen Dollar, um ihn an Universitäten und gemeinnützige Institute zu spenden — und baut damit das institutionelle Adoptions-Ökosystem für amerikanische KI genau auf der Ebene auf, die Anthropic und Berman beide als entscheidend identifizieren: wer den globalen KI-Stack betreibt, auf dem die Wirtschaft der Welt läuft (techsnif / X).

HuggingFace und CEO Clément Delangue intervenierten mit explizit geopolitischer Rahmung und veröffentlichten das Open-Source-KI-Sicherheitsargument während der Woche des Trump-Xi-Gipfels. Delangue argumentierte, die Beschränkung von Open-Source-KI schaffe mehr Risiken als Offenheit: „Das größte Risiko besteht darin, dass einige wenige Akteure Fähigkeiten besitzen, die anderen fehlen ... wenn man es offener macht, können Verteidiger in der Regel leichter reagieren." Er führte GPT-2 und Mythos als Beispiele vorhergesagter Katastrophen an, die nicht eintraten, und rief die amerikanische KI-Gemeinschaft auf, offene internationale KI — darunter DeepSeek, Qwen, Kimi und GLM — als Treiber von Wettbewerb, Arbeitsplätzen und Wohlstandsschaffung öffentlich zu unterstützen. Marc Andreessen unterzeichnete die Position mit (Clément Delangue / X). Der Zeitpunkt — ein laufender US-China-Gipfel — deutet auf koordinierte politische Interessenvertretung hin, nicht auf eine spontane technische Einschätzung.

DeepSeek und chinesische KI-Labs erscheinen in diesem Cluster sowohl als Fähigkeitssignal als auch als politische Variable. Anthropic berichtet, dass nur 3 der 13 führenden chinesischen KI-Labs im vergangenen Jahr Sicherheitsevaluierungsergebnisse veröffentlichten. Der Forscher Nathan Lambert, der führende chinesische KI-Labs besuchte, beobachtete, dass chinesische Forscher „weit weniger ausgefeilte Meinungen" zu langfristigen KI-Risiken haben und ihre Rolle schlicht darin sehen, das beste Modell zu bauen. Das DeepSeek-R1-Modell erfüllte 94 % offen bösartiger Anfragen unter einer verbreiteten Jailbreak-Technik, verglichen mit 8 % bei US-Referenzmodellen — ein Alignment-Delta mit direkten politischen Implikationen. Dieselben Labs haben jedoch algorithmische Effizienzgewinne erzielt, die Berman und andere für wichtiger halten als den Compute-Zugang, um Chinas Nähe zur Frontier zu erklären. „Die algorithmischen Innovationen, einige der Durchbrüche, die sie unter so starken Beschränkungen erzielen konnten, sind schlicht beeindruckend", stellt Berman direkt fest.

Das UK AI Security Institute steht außerhalb der Doktrin-Debatte als empirischer Zeuge. Seine veröffentlichte Erkenntnis, dass sich die Länge abgeschlossener autonomer KI-Cyber-Aufgaben alle 4,5 Monate verdoppelt, und dass sowohl Mythos als auch GPT-5.5 Token- statt fähigkeitsbegrenzt erscheinen, führt einen technischen Rahmen ein, der ideologische Grenzen überquert. Ethan Mollick, der die Ergebnisse zusammenfasste, stellte die zentrale Frage, die die Verdopplungsrate impliziert: Wenn Google und OpenAI Modelle mit gleichwertigen Cyber-Fähigkeiten unter unterschiedlichen Schutzmaßnahmen-Ansätzen veröffentlichen, „wie kommt Anthropic aus dem Regierungsgenehmigungspfad heraus", den es für Mythos eingeschlagen hat (Ethan Mollick / X; AISI-Bericht).

Trajektorie

Exponentielle Fähigkeitskurve über einem Sockel aus Server-Infrastruktur — Visualisierung der 4,5-Monats-Verdopplungsrate für KI-Cyber-Fähigkeiten des UK AI Security Institute
Exponentielle Fähigkeitskurve über einem Sockel aus Server-Infrastruktur — Visualisierung der 4,5-Monats-Verdopplungsrate für KI-Cyber-Fähigkeiten des UK AI Security Institute

Die 4,5-monatige Verdopplungszeit für die Länge abgeschlossener Cyber-Aufgaben ist der schärfste Datenpunkt in diesem Cluster. Mit dieser Rate verdoppelt sich die autonome Cyber-Angriffsfähigkeit führender US-Modelle zweimal pro Jahr. METRs unabhängige Einschätzung, im selben Zeitfenster veröffentlicht, stimmt mit AISI-Erkenntnissen überein und deutet darauf hin, dass der Wendepunkt im KI-Fähigkeitswachstum möglicherweise bereits hinter dem vor-exponentiellen Marker liegt — Mollick: „kein einfacher Vorschlag, um Menschen dabei zu helfen, sich an super-exponentiellen Fähigkeitszuwachs anzupassen, also festhalten." Wenn sich Fähigkeiten so schnell verdoppeln, während beide führenden Modelle derzeit Token- statt fähigkeitsbegrenzt sind, liegt die aktive Beschränkung der gefährlichsten KI-Fähigkeiten darin, wie viel Compute Betreiber zuzuteilen wählen — nicht darin, was die Modelle leisten können.

Die Compute-Abstand-Trajektorie verläuft in entgegengesetzter Richtung. Huaweis aggregierte Compute-Produktion als Prozentsatz von Nvidias ist nach Anthropics eigener Roadmap-Analyse rückläufig — 4 % im Jahr 2026, 2 % im Jahr 2027. Die EUV- und HBM-Fertigungslücken stellen mehrjährige Schließungszeitpläne dar, möglicherweise längere. Dies ist das empirische Fundament von Anthropics Argument: Das Fenster, in dem Compute-Restriktionen gleichzeitig durchsetzbar und entscheidend sind, ist jetzt — weil der Compute-Abstand sich ausweitet, nicht verengt.

Bermans Gegenargument folgt der algorithmischen Effizienz-Kurve statt der Compute-Kurve. DeepSeeks demonstrierte Gewinne — das Erreichen von Frontier-naher Leistung bei einem Bruchteil des Trainingscomputes durch architektonische Innovation — kumulieren sich gegen den Compute-Vorteil schneller, als Anthropics Roadmap-Analyse aufnehmen kann. Anthropics stärkstes Eingeständnis dieser Dynamik: „Algorithmische Verbesserungen sind sowohl eine Funktion als auch ein Multiplikator von Compute, kein Ersatz dafür." Das bedeutet: Mehr Compute ermöglicht mehr algorithmische Entdeckungen — aber es bedeutet auch, dass chinesische Labs unter Compute-Beschränkungen direkten Anreiz und nachgewiesene Kapazität haben, Effizienz-Multiplikatoren zu erzielen, die ihr effektives Compute-Budget erheblich erweitern. Berman: „Sie könnten es heute vielleicht noch nicht, aber bald wahrscheinlich schon. Es ist kein Ob. Es ist ein Wann."

Drei Doktrin-Vektoren bewegen sich somit gleichzeitig in unterschiedliche Richtungen. Der Compute-Abstand weitet sich unter aktuellen Kontrollen aus. Die Fähigkeits-Verdopplungsrate beschleunigt sich unabhängig von Compute-Lücken. Und die Unternehmensadoptionsökonomie fließt bereits für die große Mehrheit der kommerziellen Deployments zu günstigeren chinesischen Open-Weight-Modellen. Anthropics Strategie erfordert, dass sich alle drei Dynamiken zu seinen Gunsten auflösen. Wenn auch nur eine davon gegen die Doktrin bricht — algorithmische Effizienz überholt Compute-Restriktionen, Enterprise-Adoption konsolidiert sich auf chinesischer Open-Weight-Infrastruktur bevor Exportkontrollen greifen, oder der IAEA-artige Governance-Pfad gewinnt US-Regierungsunterstützung über binäre Eindämmung —, untergräbt dies die Wirksamkeit der Doktrin erheblich.

Implikationen

Die Anthropic-Doktrin weist eine strukturelle Spannung auf, die sie intern nicht auflöst. Das Essay erklärt Intelligenz zur wichtigsten Wettbewerbsfront, räumt dann aber in aufeinanderfolgenden Absätzen ein, dass KI nahe der Frontier zu geringeren Kosten mit aggressiver globaler Verbreitung ein Intelligenzdefizit ausgleichen kann. Dies ist nicht bloß eine rhetorische Inkonsistenz; es ist eine echte analytische Spaltung, die den gesamten Doktrinbruch antreibt. Die Sicherheitslogik erfordert, die gefährlichsten Modelle von gegnerischen Akteuren fernzuhalten. Die Marktlogik erfordert, dass die Welt ihre KI-Infrastruktur auf amerikanischer Technologie aufbaut. Open Source erfüllt die Marktlogik, untergräbt aber die Sicherheitslogik. Geschlossene Frontier plus staatlich genehmigter Zugang erfüllt die Sicherheitslogik, überlässt aber das Adoptionsfeld günstigeren chinesischen Alternativen.

Für Enterprise-KI-Käufer ist die Implikation unmittelbar und bereits operativ. Der Kostenunterschied zwischen US-Frontier-Modellen und chinesischen Open-Weight-Äquivalenten ist jetzt eine aktive Beschaffungsentscheidung. Berman rahmt dies nicht als Nahe-Zukunft-Szenario, sondern als laufende Dynamik: Unternehmensführer, die die Lücke zwischen Anthropic Opus-Preisen und Open-Weight-Alternativen überprüfen, treffen Infrastrukturentscheidungen, die sich über Jahre kumulieren. Wenn sich diese Entscheidungen für chinesische Open-Weight-Modelle bei den 99 % der Anwendungsfälle konsolidieren, die keine Frontier-Fähigkeit erfordern, wird die geopolitische Frage der KI-Normen auf der Enterprise-Infrastrukturschicht entschieden, bevor Politikentscheidungen bis 2028 sie schließen können.

Die 94-prozentige Jailbreak-Compliance-Rate von DeepSeek ist der Datenpunkt, den Anthropic am stärksten gegen die Adoption chinesischer Open-Source-Modelle einsetzt — ein KI-Sicherheitsargument statt eines geopolitischen. Es ist auch das Argument, das Delangues Gegenargument am stärksten ausgesetzt ist: Open Source ermöglicht Inspektion, Patching und Sicherheitshärtung auf Weisen, die geschlossene APIs nicht erlauben. Ein API-Endpunkt stellt eine Vertrauensoberfläche dar, die pauschal akzeptiert werden muss; ein selbst gehostetes Open-Weight-Modell kann auf jeder Ebene geprüft, eingeschränkt und gesichert werden. Keines der Argumente widerlegt das andere vollständig, weshalb die Debatte ungelöst bleibt.

Gary Marcus verteidigte Anthropics Entscheidung zur eingeschränkten Mythos-Veröffentlichung klar: „Ich habe kein Interesse an einem Unternehmen, das sagt, wir veröffentlichen alles für jeden, egal wie gefährlich es ist." Die Erkenntnis des AISI, dass Mythos Token- statt fähigkeitsbegrenzt ist, schafft eine technische Herausforderung für diese Verteidigung: Das Sicherheitsargument für die Nicht-Veröffentlichung hängt davon ab, dass es eine bedeutungsvolle Fähigkeitsgrenze gibt, die eingeschränkter Zugang durchsetzt. Wenn die Grenze eine Compute-Allokationsentscheidung ist — gefährlich bei vollem Token-Budget, akzeptabel bei reduziertem Token-Budget —, dann ist die Veröffentlichungsentscheidung eine Frage der Ressourcenbereitstellung, nicht ein intrinsischer Sicherheitsschwellenwert.

Ausblick

Drei glaubwürdige Wege aus dem aktuellen Doktrinbruch:

Kontrollierte Compute-Dominanz — Anthropics Szenario 1. Exportkontrollen werden weiter verschärft, Lücken bei Chip-Schmuggel, ausländischem Rechenzentrum-Zugang und KMU-Kontrollen geschlossen. Amerikanische Labs behalten eine Intelligenzführung bis 2028. Rekursive Selbstverbesserung, wenn sie eintritt, tut dies auf Hardware und unter Governance-Bedingungen, die demokratische Nationen kontrollieren. Die Doktrin erfordert, dass die EUV- und DUV-Fertigungslücken bestehen bleiben, algorithmische Effizienzgewinne chinesische Compute-Defizite nicht vollständig ausgleichen und amerikanische Enterprise- und Regierungs-KI-Adoption schneller beschleunigt als chinesisches subventioniertes globales Deployment. Alle drei Bedingungen müssen gleichzeitig über einen mehrjährigen Politikzyklus gelten — eine strukturell anspruchsvolle Anforderung.

Plattform-Dominanz durch Engagement — Nvidias und Bermans Gegenszenario. Amerikanische KI wird zur Plattform, auf der globale KI läuft, weil sie verfügbar, erschwinglich und offen genug ist. Chinesische Open-Weight-Modelle mögen Frontier-Fähigkeit annähern, aber die KI-Infrastruktur der Welt läuft auf amerikanischem Silizium, amerikanischen SDKs und amerikanischen Cloud-Anbietern. Die Doktrin erfordert, dass die Enterprise-Kostenökonomie so funktioniert, wie Berman sie beschreibt — günstige chinesische Open-Weight-Modelle gewinnen über den Preis, während amerikanische Hardware die Plattformschicht dominiert —, und dass die Dynamik „Beschränkung ist Mutter der Erfindung" keine tragfähige chinesische heimische Chipindustrie hervorbringt, bevor amerikanisches Plattform-Lock-in eintritt. Jensen Huangs CoreWeave-Compute-Spende von 108,3 Millionen Dollar an gemeinnützige Organisationen lässt sich in diesem Rahmen am besten verstehen: das institutionelle Adoptions-Ökosystem zu säen, das amerikanische KI-Infrastruktur zum Standard macht, bevor Alternativen tragfähig werden.

Multilaterale Governance-Architektur — OpenAIs entstehende Position. Ein US-geführtes IAEA-Äquivalent strukturiert KI-Governance über Großmächte hinweg, einschließlich China, und tauscht etwas unilaterale Kontrolle gegen reduziertes Tail-Risiko aus einer unkontrollierbaren chinesischen KI-Entwicklungstrajektorie. Die Doktrin erfordert Chinas konstruktive Beteiligung an einem Governance-Gremium, das Washington führt — eine Prämisse ohne aktuelle institutionelle Grundlage, aber mit historischem Präzedenzfall in nuklearen und chemischen Waffenregimen, die gegnerische Mächte einschlossen. Die IAEA-Analogie deutet darauf hin, dass OpenAIs Strategen in Kalten-Kriegs-Governance-Zeitskalen denken, nicht im 2028-Fenster, das Anthropic identifiziert.

Die Situation der H200-Genehmigung ohne Lieferung ist das klarste aktuelle Politiksignal: zwischen den Doktrinen, den Zugang fallweise kalibrierend. Es ist weder strikte Restriktion noch offenes Engagement — ein bedingtes, entitätsspezifisches Zugangsregime, das die operative Form multilateraler Governance repräsentieren könnte, bevor ein formelles Gremium existiert.

Das Jahr 2028 ist real in dem Sinne, wie Berman es liest. Nicht als geopolitischer Paritätsmarker, sondern als ungefähre Schwelle zur rekursiven Selbstverbesserung — KI-Systemen, die ihre eigene Forschung und Entwicklung mit einer Rate betreiben können, die schneller kumuliert, als jeder externe Wettbewerber von hinten aufholen kann. Anthropic verwendet das Datum, ohne zu benennen, was es markiert. Berman benennt es. Ob das erste System, das diese Schwelle erreicht, amerikanisch, chinesisch oder beides gleichzeitig ist — das Fenster, in dem aktuelle doktrinäre Entscheidungen folgenreich bleiben, ist kürzer als die Länge eines normalen Politikzyklus. Der Bruch, der sich in dieser Woche über drei amerikanische KI-Institutionen hinweg öffnete, deutet darauf hin, dass die Branche sich nicht darüber geeinigt hat, wie das sichere Schließen dieses Fensters aussieht — und dass Konvergenz, wenn sie kommt, nicht allein durch technischen Konsens erreicht wird.