論文の概要: Towards Efficient Agents: A Co-Design of Inference Architecture and System
- arxiv url: http://arxiv.org/abs/2512.18337v1
- Date: Sat, 20 Dec 2025 12:06:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.296356
- Title: Towards Efficient Agents: A Co-Design of Inference Architecture and System
- Title(参考訳): 効率的なエージェントを目指して:推論アーキテクチャとシステムの共同設計
- Authors: Weizhe Lin, Hui-Ling Zhen, Shuai Yang, Xian Wang, Renxi Liu, Hanting Chen, Wangze Zhang, Chuansai Zhou, Yiming Li, Chen Chen, Xing Li, Zhiyuan Yang, Xiaosong Li, Xianzhi Yu, Zhenhua Dong, Mingxuan Yuan, Yunhe Wang,
- Abstract要約: 本稿では,エージェントアクセラレーションのための統合フレームワークであるAgentInferを提案する。
問題をAgentCollab、AgentSched、AgentSAM、AgentCompressの4つの相乗的コンポーネントに分解する。
BrowseComp-zhとDeepDiverベンチマークの実験では、これらの手法の相乗的コラボレーションを通じて、AgentInferは非効率なトークン消費を50%以上削減することを示した。
- 参考スコア(独自算出の注目度): 66.59916327634639
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid development of large language model (LLM)-based agents has unlocked new possibilities for autonomous multi-turn reasoning and tool-augmented decision-making. However, their real-world deployment is hindered by severe inefficiencies that arise not from isolated model inference, but from the systemic latency accumulated across reasoning loops, context growth, and heterogeneous tool interactions. This paper presents AgentInfer, a unified framework for end-to-end agent acceleration that bridges inference optimization and architectural design. We decompose the problem into four synergistic components: AgentCollab, a hierarchical dual-model reasoning framework that balances large- and small-model usage through dynamic role assignment; AgentSched, a cache-aware hybrid scheduler that minimizes latency under heterogeneous request patterns; AgentSAM, a suffix-automaton-based speculative decoding method that reuses multi-session semantic memory to achieve low-overhead inference acceleration; and AgentCompress, a semantic compression mechanism that asynchronously distills and reorganizes agent memory without disrupting ongoing reasoning. Together, these modules form a Self-Evolution Engine capable of sustaining efficiency and cognitive stability throughout long-horizon reasoning tasks. Experiments on the BrowseComp-zh and DeepDiver benchmarks demonstrate that through the synergistic collaboration of these methods, AgentInfer reduces ineffective token consumption by over 50%, achieving an overall 1.8-2.5 times speedup with preserved accuracy. These results underscore that optimizing for agentic task completion-rather than merely per-token throughput-is the key to building scalable, efficient, and self-improving intelligent systems.
- Abstract(参考訳): 大規模言語モデル(LLM)ベースのエージェントの急速な開発により、自律的多ターン推論とツール強化による意思決定の新たな可能性が解き放たれた。
しかし、それらの現実世界のデプロイメントは、独立したモデル推論からではなく、推論ループ、コンテキスト成長、異種ツールの相互作用にまたがるシステム的なレイテンシによって、深刻な非効率によって妨げられている。
本稿では,推論最適化とアーキテクチャ設計を橋渡しする,エンドツーエンドエージェントアクセラレーションのための統合フレームワークであるAgentInferを提案する。
我々は、この問題を4つの相乗的コンポーネントに分解する: AgentCollab、動的ロール代入による大小モデル利用のバランスをとる階層的デュアルモデル推論フレームワーク、AgensSched、不均一な要求パターン下で遅延を最小限にするキャッシュ対応ハイブリッドスケジューラ、AgensSAM、マルチセッションセマンティックメモリを再利用して低オーバヘッド推論高速化を実現するAgensCompress、継続的な推論を中断することなくエージェントメモリを非同期に蒸留・再編成するセマンティック圧縮メカニズム。
これらのモジュールは、長期的な推論タスクを通して効率性と認知的安定性を維持することができる自己進化エンジンを形成する。
BrowseComp-zhとDeepDiverのベンチマークの実験では、これらの手法の相乗的コラボレーションを通じて、AgentInferは非効率なトークン消費を50%以上削減し、保存された精度で1.8-2.5倍のスピードアップを達成した。
これらの結果は、単にトーケン単位のスループットではなく、エージェント的なタスク完了を最適化することが、スケーラブルで効率的で自己改善可能なインテリジェントなシステムを構築するための鍵であることを強調している。
関連論文リスト
- Efficient Mixture-of-Agents Serving via Tree-Structured Routing, Adaptive Pruning, and Dependency-Aware Prefill-Decode Overlap [15.352230356342366]
混合エージェント(MoA)推論は、密度の高いエージェント間通信と低いハードウェア利用に悩まされる。
本稿では,アルゴリズム・システムの共同設計を通じて,これらのボトルネックをターゲットとしたサービス設計を提案する。
論文 参考訳(メタデータ) (2025-12-19T23:06:58Z) - Reasoning-Aware Prompt Orchestration: A Foundation Model for Multi-Agent Language Model Coordination [0.0]
複数の特殊エージェント間の推論を強化する動的プロンプトオーケストレーションのための理論的基盤となるフレームワークを提案する。
このフレームワークは,エージェント移行時の論理的一貫性の維持,推論対応の迅速な適応,分散推論のスケーラブルな調整,という3つの課題に対処する。
1000件の合成マルチエージェント会話実験の結果,推論遅延の42%低減,ROUGE-Lスコアによる論理的整合性の23%改善,文脈損失のないタスク完了の89%の成功率が確認された。
論文 参考訳(メタデータ) (2025-09-30T22:33:01Z) - STARec: An Efficient Agent Framework for Recommender Systems via Autonomous Deliberate Reasoning [54.28691219536054]
我々は、自律的な熟考的推論機能を備えたレコメンデータシステムを支援する、ゆっくり考えられた拡張エージェントフレームワークSTARecを紹介する。
我々は,先進的推論モデルと嗜好整合型報酬形成から構造化知識の蒸留を組み合わせた2段階のパラダイムであるアンカー強化訓練を開発する。
MovieLens 1MとAmazon CDsベンチマークの実験では、STARecは最先端のベースラインと比較して、大幅なパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2025-08-26T08:47:58Z) - Profile-Aware Maneuvering: A Dynamic Multi-Agent System for Robust GAIA Problem Solving by AWorld [20.01452161733642]
我々はAWorldフレームワークで動的マルチエージェントシステム(MAS)を提案する。
実行エージェントは、オンデマンドの動的操作を提供するガードエージェントによって監督される。
本システムは,GAIAの高名なリーダボード上でのオープンソースプロジェクトの中で,第1位を達成している。
論文 参考訳(メタデータ) (2025-08-13T15:46:25Z) - RMoA: Optimizing Mixture-of-Agents through Diversity Maximization and Residual Compensation [6.364685086217188]
本稿では,Residual Mixture-of-Agents(RMoA)を提案する。
RMoAは、アライメント、数学的推論、コード生成、マルチタスク理解のベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-05-30T10:23:11Z) - Gödel Agent: A Self-Referential Agent Framework for Recursive Self-Improvement [112.04307762405669]
G"odel AgentはG"odelマシンにインスパイアされた自己進化型フレームワークである。
G"odel Agentは、パフォーマンス、効率、一般化性において手作業によるエージェントを上回る、継続的な自己改善を実現することができる。
論文 参考訳(メタデータ) (2024-10-06T10:49:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。