TACO Framework reduziert agentischen Token-Overhead um ~10% auf SWE-Bench

TACO ist ein sich selbst weiterentwickelndes Agenten-Framework, das redundante Observations in Terminal-Agenten komprimiert, indem es Kompressionsregeln direkt aus Agenten-Trajektorien erlernt. Das Framework pflegt einen globalen Regelpool, den Agenten anwenden, um Long-Horizon-Reasoning zu verbessern – und reduziert dabei den Token-Overhead auf SWE-Bench-Benchmarks um rund 10%. Das Paper ist auf HuggingFace Papers veröffentlicht.

Warum das relevant ist

Eine Reduzierung des Token-Overheads bei Terminal-Agenten um 10% überträgt sich direkt in Kosten- und Latenzersparnisse in jedem agentischen Coding- oder Operations-Workflow. Darüber hinaus verweist der Ansatz des sich selbst weiterentwickelnden Regelpools – der aus Produktionstrajektorien lernt, statt manuelle Optimierung zu erfordern – auf eine Klasse von Frameworks, die sich automatisch verbessern, während sie Laufzeitdaten akkumulieren, und damit Effizienzgewinne über die Zeit kumulativ steigern.