論文の概要: EET: Experience-Driven Early Termination for Cost-Efficient Software Engineering Agents
- arxiv url: http://arxiv.org/abs/2601.05777v1
- Date: Fri, 09 Jan 2026 13:01:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.97238
- Title: EET: Experience-Driven Early Termination for Cost-Efficient Software Engineering Agents
- Title(参考訳): EET: コスト効率の良いソフトウェアエンジニアリングエージェントのエクスペリエンス駆動早期終了
- Authors: Yaoqi Guo, Ying Xiao, Jie M. Zhang, Mark Harman, Yiling Lou, Yang Liu, Zhenpeng Chen,
- Abstract要約: EETは、ソフトウェアエンジニアリングエージェントのエクスペリエンス駆動の早期終了アプローチである。
タスクパフォーマンスを維持しながら、SEエージェントのコストを削減する。
EETは総コストを19%-55%削減し、解決率の低下は無視できる。
- 参考スコア(独自算出の注目度): 22.98266662213199
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Software engineering (SE) agents powered by large language models are increasingly adopted in practice, yet they often incur substantial monetary cost. We introduce EET, an experience-driven early termination approach that reduces the cost of SE agents while preserving task performance. EET extracts structured experience from prior issue-resolution executions and leverages it to guide early termination during patch generation and selection, reducing unproductive iterations. We evaluate EET on the SWE-bench Verified benchmark across three representative SE agents. EET consistently reduces total cost by 19%-55% (32% on average), with negligible loss in resolution rate (at most 0.2%). These efficiency gains are achieved, on average, by identifying early-termination opportunities for 11% of issues and reducing API calls, input tokens, and output tokens by 21%, 30%, and 25%, respectively. We release the code, prompts, and data at https://github.com/EffiSEAgent/EET.
- Abstract(参考訳): 大規模言語モデルを利用したソフトウェア工学(SE)エージェントは、実際はますます採用されているが、かなりの金銭的コストがかかることが多い。
タスク性能を維持しながらSEエージェントのコストを削減する,経験駆動型早期終了アプローチであるEETを導入する。
EETは、以前のイシュー解決実行から構造化されたエクスペリエンスを抽出し、パッチ生成と選択の早期終了をガイドし、非生産的なイテレーションを減らす。
我々は3つの代表SEエージェントを対象としたSWE-bench VerifiedベンチマークでEETを評価した。
EETは一貫して総コストを19%-55%(平均32%)削減し、解決率の低下(最大0.2%)は無視できる。
これらの効率向上は、平均して、問題の11%の早期終了機会を特定し、API呼び出し、入力トークン、出力トークンをそれぞれ21%、30%、25%削減することで達成される。
コード、プロンプト、データはhttps://github.com/EffiSEAgent/EET.comで公開しています。
関連論文リスト
- DEPO: Dual-Efficiency Preference Optimization for LLM Agents [75.6723341304463]
本稿では、簡潔な応答とアクションステップの低減を両立させる二重効率優先最適化手法DEPOを提案する。
WebShopとBabyAIの実験によると、DECOはトークンの使用量を最大60.9%削減し、ステップを最大26.9%削減し、パフォーマンスは最大29.3%向上した。
論文 参考訳(メタデータ) (2025-11-19T12:38:43Z) - Seer Self-Consistency: Advance Budget Estimation for Adaptive Test-Time Scaling [55.026048429595384]
テストタイムスケーリングは、Large Language Models (LLMs) の推論性能を向上させるが、かなりの計算コストを発生させる。
トークン効率とレイテンシを同時に向上する動的自己整合性フレームワークであるSeerSCを提案する。
論文 参考訳(メタデータ) (2025-11-12T13:57:43Z) - Intra-request branch orchestration for efficient LLM reasoning [52.68946975865865]
大規模言語モデル(LLM)は、複雑なタスクの正確性を改善するために、推論時推論アルゴリズムにますます依存している。
それまでの作業は、トークンの使用を減らすことを中心に、多くの場合、正確さを犠牲にしつつ、他のレイテンシ要因を見越すことに重点を置いていた。
本稿では,LLMサービスシステムであるDUCHESSについて,予測によって導かれるリクエスト内ブランチオーケストレーションにより,精度を犠牲にすることなく,コストとレイテンシを低減できるシステムを提案する。
論文 参考訳(メタデータ) (2025-09-29T15:52:08Z) - Beyond Greedy Exits: Improved Early Exit Decisions for Risk Control and Reliability [14.00844847268286]
早期のDeep Neural Networksは、中間層での予測を可能にすることで、適応推論を可能にする。
我々のフレームワークは、フルモデルのパフォーマンスと比較して、パフォーマンス低下(2%)を最小限に抑えながら、スピードアップ(1.70-2.10x)が一貫した改善を示している。
論文 参考訳(メタデータ) (2025-09-28T06:05:24Z) - Improving the Efficiency of LLM Agent Systems through Trajectory Reduction [6.087402350213508]
本稿では,エージェントのコスト削減のための推定時間トラジェクトリ削減手法を提案する。
AgentDietは入力トークンを39.9% 59.7%、最終計算コストを21.1% 35.9%削減し、同じエージェント性能を維持することができる。
論文 参考訳(メタデータ) (2025-09-28T02:43:41Z) - Efficient Agents: Building Effective Agents While Reducing Cost [48.65558640786415]
LLM(Large Language Model)によるエージェントは、複雑なマルチステップタスクに対処するための高度なシステムを実現する。
この研究は、現代のエージェントシステムにおける効率効率性トレードオフに関する最初の体系的研究である。
論文 参考訳(メタデータ) (2025-07-24T17:56:51Z) - Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - Towards General and Efficient Online Tuning for Spark [55.30868031221838]
本稿では,3つの問題を同時に処理できる汎用的で効率的なSparkチューニングフレームワークを提案する。
我々は、このフレームワークを独立したクラウドサービスとして実装し、Tencentのデータプラットフォームに適用しました。
論文 参考訳(メタデータ) (2023-09-05T02:16:45Z) - Explicit and Implicit Semantic Ranking Framework [13.356884800150457]
自己学習型セマンティック・クロスアテンションランキング(sRank)を導入した汎用的なセマンティック・ラーニング・ツー・ランク・フレームワークを提案する。
このフレームワークは、可変トレーニングバッチサイズで線形ペアワイズロスを使用し、品質向上と高い効率を達成する。
これは、現実世界の大規模データセットよりも、Microsoftの2つの業界タスクの利益を示すために、効果的に適用されている。
論文 参考訳(メタデータ) (2023-04-11T01:10:49Z) - ANDREAS: Artificial intelligence traiNing scheDuler foR accElerAted
resource clusterS [1.798617052102518]
パフォーマンスを最大化し、データセンターの運用コストを最小限に抑える高度なスケジューリングソリューションであるANDREASを提案します。
実験の結果,第一原理法では平均で30~62%のコスト削減が可能であった。
論文 参考訳(メタデータ) (2021-05-11T14:36:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。