論文の概要: Lingxi: Repository-Level Issue Resolution Framework Enhanced by Procedural Knowledge Guided Scaling
- arxiv url: http://arxiv.org/abs/2510.11838v1
- Date: Mon, 13 Oct 2025 18:45:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.065841
- Title: Lingxi: Repository-Level Issue Resolution Framework Enhanced by Procedural Knowledge Guided Scaling
- Title(参考訳): Lingxi: Procedural Knowledge Guided Scalingによって強化されたリポジトリレベルの課題解決フレームワーク
- Authors: Xu Yang, Jiayuan Zhou, Michael Pacheco, Wenhan Zhu, Pengfei He, Shaowei Wang, Kui Liu, Ruiqi Pan,
- Abstract要約: Lingxiは、歴史的問題修正データから抽出された手続き的知識を活用する問題解決フレームワークである。
我々の総合的アブレーション研究は、Lingxiの成功は手続き的知識の活用から直接来ていることを裏付けている。
- 参考スコア(独自算出の注目度): 17.25732448913281
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Driven by the advancements of Large Language Models (LLMs), LLM-powered agents are making significant improvements in software engineering tasks, yet struggle with complex, repository-level issue resolution. Existing agent-based methods have two key limitations. First, they lack of procedural knowledge (i.e., how an issue is fixed step-by-step and rationales behind it) to learn and leverage for issue resolution. Second, they rely on massive computational power to blindly explore the solution space. % To address those limitations, we propose Lingxi, an issue resolution framework that leverages procedural knowledge extracted from historical issue-fixing data to guide agents in solving repository-level issues. \ourTool first constructs this knowledge offline through a hierarchical abstraction mechanism, enabling agents to learn the how and why behind a fix, not just the final solution. During online application, it employs a knowledge-driven scaling method that leverages the procedural knowledge of similar issues to intelligently analyze the target issue from multiple perspectives, in sharp contrast to undirected, brute-force exploration. % Lingxi successfully resolves 74.6\% of bugs on the SWE-bench Verified benchmark in Past@1 setting, outperforming five state-of-the-art techniques by a significant margin (5.4\% to 14.9\%). Our comprehensive ablation study confirmed that the success of Lingxi comes directly from its use of procedural knowledge. Without it, the performance gains from scaling alone is negligible. Our qualitative study further shows that the ``design patterns $\&$ coding practices'' is the most critical knowledge aspect, and that the roles of different knowledge aspects switch across different stages (i.e., analysis, planning, and fixing).
- Abstract(参考訳): LLM(Large Language Models)の進歩によって駆動されるLLMエージェントは、ソフトウェアエンジニアリングタスクにおいて大幅に改善されているが、複雑なリポジトリレベルの課題解決に苦慮している。
既存のエージェントベースのメソッドには2つの重要な制限がある。
第一に、問題解決のために学習し活用する手続き的な知識(すなわち、問題がどのようにステップバイステップで固定されているか、その背後にある合理性)の欠如である。
第二に、彼らは解空間を盲目的に探索するために巨大な計算力に頼っている。
% これらの制約に対処するため, 歴史的問題修正データから抽出した手続き的知識を活用し, リポジトリレベルの問題を解決するためのエージェントを誘導する問題解決フレームワークであるLingxiを提案する。
\ourToolはまず、階層的な抽象化メカニズムを通じて、この知識をオフラインで構築する。
オンラインアプリケーションでは、類似した問題の手続き的知識を活用して、複数の視点から対象の問題をインテリジェントに分析する。
.% Lingxiは、過去@1設定でSWE-bench Verifiedベンチマークの74.6\%のバグを解決し、5つの最先端技術(5.4\%から14.9\%)を上回った。
総括的アブレーション調査により,Lingxiの成功は手続き的知識の直接的利用によるものであることが確認された。
それなしでは、スケーリングだけでのパフォーマンス向上は無視できない。
私たちの質的研究は、‘設計パターン$\&$コーディングプラクティス’が最も重要な知識面であり、異なる知識面の役割が異なる段階(分析、計画、修正など)にまたがって変わることをさらに示しています。
関連論文リスト
- AInstein: Assessing the Feasibility of AI-Generated Approaches to Research Problems [28.38783951577184]
AInsteinは、AI研究問題に対する有効なソリューションを、大規模言語モデルが生成できるかどうかをテストするためのフレームワークである。
受け入れ層により層状化された1,214 ICLR紙上でのAInsteinの評価を行った。
論文 参考訳(メタデータ) (2025-10-06T22:50:41Z) - SWE-Exp: Experience-Driven Software Issue Resolution [19.525080502900785]
SWE-Expは, 従来のエージェント軌跡から簡潔で実用的な体験を抽出する, 改良されたアプローチである。
本手法では, 修復と修復の失敗の両方を捉えた多面的経験バンクを提案する。
実験の結果、SWE-ExpはSWE-bench-Verified上で最先端の解像度(41.6% Pass@1)を達成することがわかった。
論文 参考訳(メタデータ) (2025-07-31T09:13:42Z) - Analytic Subspace Routing: How Recursive Least Squares Works in Continual Learning of Large Language Model [6.42114585934114]
大規模言語モデル(LLM)には、多様な言語関連タスクを処理できる機能がある。
大規模言語モデル(LLM)における継続的な学習は、LLMを新しいタスクに継続的に適応させることを目的としている。
本稿では,これらの課題に対処するため,ASR(Analytic Subspace Routing)を提案する。
論文 参考訳(メタデータ) (2025-03-17T13:40:46Z) - Reasoning Paths Optimization: Learning to Reason and Explore From Diverse Paths [69.39559168050923]
本稿では,多様な経路から学習の推論と探索を可能にするReasoning Paths Optimization (RPO)を紹介する。
提案手法は,各推論ステップにおいて好意的な分岐を奨励し,好ましくない分岐を罰し,モデル全体の問題解決性能を高める。
我々は,数語問題や理科ベースの試験問題など,多段階の推論タスクに焦点をあてる。
論文 参考訳(メタデータ) (2024-10-07T06:37:25Z) - A Multi-Agent Approach to Fault Localization via Graph-Based Retrieval and Reflexion [8.22737389683156]
従来のフォールトローカライゼーション技術は、広範なトレーニングデータセットと高い計算資源を必要とする。
大規模言語モデル(LLM)の最近の進歩は、コード理解と推論を強化することで、新たな機会を提供する。
LLM4FLは3つの特殊なLLMエージェントを利用するマルチエージェントの故障局所化フレームワークである。
14のJavaプロジェクトから675の障害を含むDefects4Jベンチマークで評価され、LLM4FLはAutoFLよりも18.55%、SoapFLより4.82%、Top-1の精度が18.55%向上した。
論文 参考訳(メタデータ) (2024-09-20T16:47:34Z) - Know the Unknown: An Uncertainty-Sensitive Method for LLM Instruction Tuning [18.283963879468466]
大きな言語モデル(LLM)は目覚ましい能力を示すが、幻覚による課題に直面している。
本研究では,文脈的質問応答のための新しい2段階アプローチであるuncertainty-and-Sensitivity-Aware Tuning(US-Tuning)を紹介する。
実験の結果,US-Tuningは文脈的QAにおける誤った回答を著しく低減するだけでなく,モデルのパラメトリック知識への忠実度も向上することが示された。
論文 参考訳(メタデータ) (2024-06-14T14:56:04Z) - A Closer Look at the Limitations of Instruction Tuning [52.587607091917214]
インストラクションチューニング(IT)は,大規模言語モデル(LLM)における知識やスキルの向上に失敗することを示す。
また、一般的なIT改善手法は、シンプルなLoRA微調整モデルよりも性能改善につながるものではないことも示している。
この結果から,事前学習した知識のみから生成した応答は,オープンソースデータセット上でITから新たな知識を学習するモデルによって,一貫した応答性能が向上することが判明した。
論文 参考訳(メタデータ) (2024-02-03T04:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。