Google-DeepMind-Paper weist auf post-Transformer-rekurrente Architektur hin

Ein am 18. April 2026 veröffentlichtes Google-DeepMind-Paper — "The topological trouble with the transformers" — diagnostiziert formal, dass sowohl klassische Transformer als auch Mamba-artige State-Space-Modelle eine gemeinsame strukturelle Schwäche teilen: Sie bleiben schichtübergreifend in der Tiefe feedforward, was die maximale Schlussfolgerungstiefe auf die Schichtanzahl begrenzt. Analysten, die das Paper mit Carnegie Mellons Deep Equilibrium Models aus dem Jahr 2019 und den Neural-ODE-Arbeiten der University of Toronto in Verbindung setzen, lesen es als Verweis auf ein Recurrent Foundation Model (RFM): ein einzelner gewichtsgebundener rekurrenter Block, parametrisiert als kontinuierliche ODE, bei dem das Trainingsgedächtnis via Adjoint-Sensitivität auf O(1) reduziert wird — und damit die Schlussfolgerungstiefe von den VRAM-Kosten entkoppelt.

Warum das relevant ist

Wenn die Schlussfolgerungstiefe von den Speicherkosten entkoppelt werden kann, kollabieren die marginalen Kosten für „länger nachdenken" — was potenziell das Cloud-Kostenmodell untergräbt, auf dem die Frontier-AI-Ökonomie beruht. Dies ist das stärkste architektonische Forschungssignal seit Wochen und könnte einen grundlegenden Wandel in der Gestaltung von Frontier-Modellen in den Jahren 2026 oder 2027 ankündigen.