論文の概要: Learning Adaptive Parallel Execution for Efficient Code Localization
- arxiv url: http://arxiv.org/abs/2601.19568v1
- Date: Tue, 27 Jan 2026 12:59:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.321162
- Title: Learning Adaptive Parallel Execution for Efficient Code Localization
- Title(参考訳): 効率的なコードローカライゼーションのための適応並列実行学習
- Authors: Ke Xu, Siyang Xiao, Ming Liang, Yichen Yu, Zhixiang Wang, Jingxuan Xu, Dajun Chen, Wei Jiang, Yong Li,
- Abstract要約: 現在のコードローカライゼーションエージェントは34.9%の冗長呼び出し率を示している。
我々は、textbfjointの品質効率最適化タスクとして並列コードローカライゼーションを変更するtextbfFuseSearchを提案する。
- 参考スコア(独自算出の注目度): 18.27024381786272
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Code localization constitutes a key bottleneck in automated software development pipelines. While concurrent tool execution can enhance discovery speed, current agents demonstrate a 34.9\% redundant invocation rate, which negates parallelism benefits. We propose \textbf{FuseSearch}, reformulating parallel code localization as a \textbf{joint quality-efficiency optimization} task. Through defining \textbf{tool efficiency} -- the ratio of unique information gain to invocation count -- we utilize a two-phase SFT and RL training approach for learning adaptive parallel strategies. Different from fixed-breadth approaches, FuseSearch dynamically modulates search breadth according to task context, evolving from exploration phases to refinement stages. Evaluated on SWE-bench Verified, FuseSearch-4B achieves SOTA-level performance (84.7\% file-level and 56.4\% function-level $F_1$ scores) with 93.6\% speedup, utilizing 67.7\% fewer turns and 68.9\% fewer tokens. Results indicate that efficiency-aware training naturally improves quality through eliminating noisy redundant signals, enabling high-performance cost-effective localization agents.
- Abstract(参考訳): コードのローカライゼーションは、自動ソフトウェア開発パイプラインにおいて重要なボトルネックとなっている。
並列ツールの実行は発見速度を向上するが、現在のエージェントは34.9\%の冗長呼び出し率を示し、並列処理の利点を否定する。
本稿では, 並列コードのローカライゼーションを, \textbf{joint quality-efficiency optimization} タスクとして再構成する。
ユニークな情報ゲインと呼び出し回数の比率である‘textbf{tool efficiency} を定義することで、適応並列戦略の学習に二相SFTおよびRLトレーニングアプローチを利用する。
固定ブレッドスアプローチと異なり、FuseSearchは探索段階から改良段階へと進化し、タスクコンテキストに応じて動的に探索幅を変調する。
SWE-bench Verifiedで評価されたFuseSearch-4BはSOTAレベルのパフォーマンス(ファイルレベル84.7\%と56.4\%の関数レベル$F_1$スコア)を93.6\%のスピードアップで達成し、67.7\%のターンと68.9\%のトークンを使用する。
その結果,高効率な学習は,ノイズの多い冗長信号の除去によって自然に品質を向上し,高性能なコスト効率なローカライゼーションエージェントを実現することが示唆された。
関連論文リスト
- DEPO: Dual-Efficiency Preference Optimization for LLM Agents [75.6723341304463]
本稿では、簡潔な応答とアクションステップの低減を両立させる二重効率優先最適化手法DEPOを提案する。
WebShopとBabyAIの実験によると、DECOはトークンの使用量を最大60.9%削減し、ステップを最大26.9%削減し、パフォーマンスは最大29.3%向上した。
論文 参考訳(メタデータ) (2025-11-19T12:38:43Z) - FORTRESS: Function-composition Optimized Real-Time Resilient Structural Segmentation via Kolmogorov-Arnold Enhanced Spatial Attention Networks [1.663204995903499]
FORTRESS (Function-composition Optimized Real-Time Resilient Structure) は、特別な手法を用いて精度と速度のバランスをとる新しいアーキテクチャである。
Fortressには,系統的に分離可能な畳み込みフレームワーク,適応型TiKAN統合,マルチスケールアテンション融合という,3つの重要なイノベーションが含まれている。
このアーキテクチャは 91% のパラメータ還元 (31M から 2.9M) 、91% の計算複雑性低減 (13.7 から 1.17 GFLOPs) 、および 3倍の推論速度向上によって、顕著な効率向上を実現している。
論文 参考訳(メタデータ) (2025-07-16T23:17:58Z) - LoSiA: Efficient High-Rank Fine-Tuning via Subnet Localization and Optimization [6.641493851051085]
LoSiA(Low-Resources Subnet Integration Adaptation)は、トレーニングプロセス中に重要なパラメータを動的にローカライズし最適化する革新的な手法である。
LoSiA-ProはLoSiAのより高速な実装で、LoRAと比較してトレーニングのレイテンシを約27%削減します。
論文 参考訳(メタデータ) (2025-07-06T17:51:57Z) - Learning Adaptive Parallel Reasoning with Language Models [70.1745752819628]
本稿では,適応並列推論(Adaptive Parallel Reasoning, APR)を提案する。
APRは、spawn()とjoin()操作を使用して適応的なマルチスレッド推論を可能にすることで、既存の推論メソッドを一般化する。
鍵となる革新は、親と子の両方の推論スレッドを最適化して、事前に定義された推論構造を必要とせずにタスクの成功率を高める、エンドツーエンドの強化学習戦略である。
論文 参考訳(メタデータ) (2025-04-21T22:29:02Z) - Constrain Alignment with Sparse Autoencoders [45.131670081186]
特徴レベルの制約付き優先度最適化は、安定性を確保しつつアライメントプロセスを簡素化するために設計された新しい手法である。
提案手法は、訓練されたスパースオートエンコーダで活性化されるスパース機能と、逐次KL分散の品質を用いて効率を向上する。
論文 参考訳(メタデータ) (2024-11-12T07:54:13Z) - Federated Learning of Large Language Models with Parameter-Efficient
Prompt Tuning and Adaptive Optimization [71.87335804334616]
フェデレートラーニング(FL)は、分散データとの協調モデルトレーニングを可能にする、有望なパラダイムである。
LLM(Large Language Models)のトレーニングプロセスは一般的に重要なパラメータの更新を引き起こす。
本稿では,性能と効率を同時に向上する効率的な部分的プロンプトチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-10-23T16:37:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。