論文の概要: Improving the Efficiency of LLM Agent Systems through Trajectory Reduction
- arxiv url: http://arxiv.org/abs/2509.23586v1
- Date: Sun, 28 Sep 2025 02:43:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.306579
- Title: Improving the Efficiency of LLM Agent Systems through Trajectory Reduction
- Title(参考訳): 軌道低減によるLLMエージェントシステムの効率化
- Authors: Yuan-An Xiao, Pengfei Gao, Chao Peng, Yingfei Xiong,
- Abstract要約: 本稿では,エージェントのコスト削減のための推定時間トラジェクトリ削減手法を提案する。
AgentDietは入力トークンを39.9% 59.7%、最終計算コストを21.1% 35.9%削減し、同じエージェント性能を維持することができる。
- 参考スコア(独自算出の注目度): 6.087402350213508
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-turn agent systems based on Large Language Models (LLMs) have been increasingly popular for software engineering tasks. While LLM agents show decent effectiveness, the high computational cost of input tokens due to the ever-growing trajectory remains an efficiency concern for their applications. Efficiency is largely neglected in existing studies and agent products, and this paper fills the gap by introducing an inference-time trajectory reduction approach to reduce the cost of agents. Through analyzing existing agent trajectories, we demonstrate that useless, redundant, and expired information is widespread in all trajectories, which can be identified and reduced without harming the agent's performance. We then design a simple yet effective trajectory reduction approach, AgentDiet, which automatically removes such waste information. We implement AgentDiet on a top-performing coding agent, and the evaluation on two LLMs and two benchmarks shows that AgentDiet can reduce input tokens by 39.9% ~ 59.7%, or the final computational cost by 21.1% ~ 35.9%, while maintaining the same agent performance. This indicates that trajectory reduction is a promising direction for agent systems.
- Abstract(参考訳): 大規模言語モデル(LLM)に基づくマルチターンエージェントシステムは、ソフトウェア工学のタスクでますます人気が高まっている。
LLMエージェントは良好な有効性を示しているが、増大する軌道による入力トークンの計算コストが高いことは、その応用の効率上の懸念点である。
既存の研究やエージェント製品では効率性はほとんど無視されており、エージェントのコスト削減のために推論時軌道減少手法を導入することでギャップを埋める。
既存のエージェントトラジェクトリを解析することにより、エージェントのパフォーマンスを損なうことなく、識別および縮小が可能なすべてのトラジェクトリにおいて、無駄な、冗長で、期限切れな情報が広まることを示した。
次に, 廃棄物を自動的に除去するシンプルなトラジェクトリ削減手法であるAgentDietを設計する。
我々はAgentDietをトップパフォーマンスの符号化エージェントに実装し、2つのLLMと2つのベンチマークで評価したところ、AgentDietは同じエージェント性能を維持しつつ、入力トークンを39.9%から59.7%、最終的な計算コストを21.1%から35.9%削減できることがわかった。
このことは、軌道減少がエージェントシステムにとって有望な方向であることを示唆している。
関連論文リスト
- Efficient Agents: Building Effective Agents While Reducing Cost [48.65558640786415]
LLM(Large Language Model)によるエージェントは、複雑なマルチステップタスクに対処するための高度なシステムを実現する。
この研究は、現代のエージェントシステムにおける効率効率性トレードオフに関する最初の体系的研究である。
論文 参考訳(メタデータ) (2025-07-24T17:56:51Z) - The Real Barrier to LLM Agent Usability is Agentic ROI [110.31127571114635]
大規模言語モデル(LLM)エージェントは、人間とAIの相互作用において有望な変化を示す。
我々は、需要の高いマスマーケットアプリケーションにおいて、重要なユーザビリティギャップを強調します。
論文 参考訳(メタデータ) (2025-05-23T11:40:58Z) - Runaway is Ashamed, But Helpful: On the Early-Exit Behavior of Large Language Model-based Agents in Embodied Environments [54.67512489842682]
大規模言語モデル(LLM)は、複雑な実施環境において、強力な計画と意思決定能力を示す。
LLMをベースとしたエージェントの早期退避行動を探究する第一歩を踏み出す。
論文 参考訳(メタデータ) (2025-05-23T08:23:36Z) - Exploring Expert Failures Improves LLM Agent Tuning [74.0772570556016]
本稿では,失敗した専門家の軌道から有益な行動を識別する専門的失敗の探索(EEF)を提案する。
EEFは、未解決のいくつかのサブタスクをうまく解決し、エージェントチューニング性能を改善する。
論文 参考訳(メタデータ) (2025-04-17T17:53:54Z) - AgentDropout: Dynamic Agent Elimination for Token-Efficient and High-Performance LLM-Based Multi-Agent Collaboration [45.46295333090397]
本稿では,異なる通信ラウンド間の冗長なエージェントと通信を識別するエージェントDropoutを提案する。
AgentDropoutは、プロンプトトークンの消費が21.6%、完了トークンの消費が18.4%、タスクのパフォーマンス改善が1.14である。
論文 参考訳(メタデータ) (2025-03-24T17:04:55Z) - TrajDeleter: Enabling Trajectory Forgetting in Offline Reinforcement Learning Agents [10.798271657186492]
本稿では、オフラインRLエージェントのための軌道学習のための最初の実践的アプローチであるTrajdeleterを提唱する。
Trajdeleterのキーとなるアイデアは、エージェントをガイドして、未学習の軌跡に関連する状態に遭遇した際のパフォーマンス低下を示すことである。
6つのオフラインRLアルゴリズムと3つのタスクで実施された大規模な実験は、トラジデレターがスクラッチから再トレーニングするのに必要な時間の約1.5%しか必要としていないことを示した。
論文 参考訳(メタデータ) (2024-04-18T22:23:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。