論文の概要: CoSIL: Software Issue Localization via LLM-Driven Code Repository Graph Searching
- arxiv url: http://arxiv.org/abs/2503.22424v1
- Date: Fri, 28 Mar 2025 13:36:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-31 15:33:03.579719
- Title: CoSIL: Software Issue Localization via LLM-Driven Code Repository Graph Searching
- Title(参考訳): CoSIL: LLM駆動のコードリポジトリグラフ検索によるソフトウェアのローカライゼーション
- Authors: Zhonghao Jiang, Xiaoxue Ren, Meng Yan, Wei Jiang, Yong Li, Zhongxin Liu,
- Abstract要約: CoSILは、トレーニングやインデックスなしの単純だが強力なイシューローカライズ手法である。
トップ1のローカライゼーション成功率は43%、SWEベンチLiteとSWEベンチVerifiedで44.6%に達する。
パッチ生成段階をガイドするためにCoSILを適用すると、解決率は9.3から31.5%向上する。
- 参考スコア(独自算出の注目度): 9.969478638201261
- License:
- Abstract: Large language models (LLMs) have significantly advanced autonomous software engineering, leading to a growing number of software engineering agents that assist developers in automatic program repair. Issue localization forms the basis for accurate patch generation. However, because of limitations caused by the context window length of LLMs, existing issue localization methods face challenges in balancing concise yet effective contexts and adequately comprehensive search spaces. In this paper, we introduce CoSIL, an LLM driven, simple yet powerful function level issue localization method without training or indexing. CoSIL reduces the search space through module call graphs, iteratively searches the function call graph to obtain relevant contexts, and uses context pruning to control the search direction and manage contexts effectively. Importantly, the call graph is dynamically constructed by the LLM during search, eliminating the need for pre-parsing. Experiment results demonstrate that CoSIL achieves a Top-1 localization success rate of 43 percent and 44.6 percent on SWE bench Lite and SWE bench Verified, respectively, using Qwen2.5 Coder 32B, outperforming existing methods by 8.6 to 98.2 percent. When CoSIL is applied to guide the patch generation stage, the resolved rate further improves by 9.3 to 31.5 percent.
- Abstract(参考訳): 大規模言語モデル(LLM)は、非常に高度な自律型ソフトウェアエンジニアリングを持ち、開発者のプログラムの自動修復を支援するソフトウェアエンジニアリングエージェントが増えている。
問題ローカライゼーションは、正確なパッチ生成の基礎となる。
しかし,LLMのコンテキストウィンドウ長に制約があるため,既存のイシューローカライゼーション手法では,簡潔で効果的なコンテキストと適切な包括的検索空間のバランスをとることの難しさに直面している。
本稿では,LLM駆動型,シンプルかつ強力な関数レベルのローカライズ手法であるCoSILについて,トレーニングやインデックス化を行わずに紹介する。
CoSILはモジュールコールグラフを通じて検索空間を縮小し、関数コールグラフを反復的に検索して関連するコンテキストを取得し、コンテキストプルーニングを使用して検索方向を制御し、コンテキストを効果的に管理する。
重要なことに、コールグラフは検索中にLLMによって動的に構築され、事前パーシングの必要がなくなる。
実験の結果、CoSILは、それぞれQwen2.5 Coder 32Bを用いてSWEベンチLiteとSWEベンチのTop-1ローカライゼーション成功率を43%、44.6%で達成し、既存の手法を8.6~98.2%上回った。
パッチ生成段階をガイドするためにCoSILを適用すると、解決率は9.3から31.5%向上する。
関連論文リスト
- ReasonFlux: Hierarchical LLM Reasoning via Scaling Thought Templates [51.633266497799745]
思考テンプレートのスケーリングによる階層的LLM推論は、推論検索空間を効果的に最適化することができる。
i)類似または関連する推論問題に一般化可能な500ほどの高レベルな思考テンプレートを含む構造化・汎用的な思考テンプレートライブラリ,(ii)長いCoTではなく一連の思考テンプレート上で階層的な強化学習を行う,(iii)全く新しい推論スケーリングシステム,の3つの革新を紹介した。
論文 参考訳(メタデータ) (2025-02-10T18:51:47Z) - OrcaLoca: An LLM Agent Framework for Software Issue Localization [7.608131635030634]
OrcaLocaはソフトウェアイシューのローカライゼーションの精度を向上させるエージェントフレームワークである。
LLM誘導アクションの優先度に基づくスケジューリング、関連性スコア付きアクション分解、距離対応コンテキストプルーニングを統合している。
また、パッチ生成統合を通じて、オープンソースのフレームワークの最終的な解決率を6.33ポイント改善する。
論文 参考訳(メタデータ) (2025-02-01T07:15:03Z) - LLM Program Optimization via Retrieval Augmented Search [71.40092732256252]
提案手法は,提案手法によって最適化されたビーム探索を行う検索アルゴリズムであるRetrieval Augmented Search (RAS) である。
我々は、RASが従来の最先端のブラックボックス適応戦略よりも1.8$times$パフォーマンスが高いことを示す。
また、トレーニング例を「アトミックな編集」に分解することで、解釈可能性を向上させるAEGISと呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2025-01-31T06:34:47Z) - Scattered Forest Search: Smarter Code Space Exploration with LLMs [55.71665969800222]
進化的探索において,解の多様性を向上し,フィードバックを有効活用する新しい手法であるSCATTERED FOREST SEARCH(SFS)を提案する。
本手法は,木探索,線探索,繰り返しサンプリングなど,既存の探索手法よりも効率よくスケールする。
論文 参考訳(メタデータ) (2024-10-22T01:58:29Z) - A Multi-Agent Approach to Fault Localization via Graph-Based Retrieval and Reflexion [8.22737389683156]
従来のフォールトローカライゼーション技術は、広範なトレーニングデータセットと高い計算資源を必要とする。
大規模言語モデル(LLM)の最近の進歩は、コード理解と推論を強化することで、新たな機会を提供する。
LLM4FLは3つの特殊なLLMエージェントを利用するマルチエージェントの故障局所化フレームワークである。
14のJavaプロジェクトから675の障害を含むDefects4Jベンチマークで評価され、LLM4FLはAutoFLよりも18.55%、SoapFLより4.82%、Top-1の精度が18.55%向上した。
論文 参考訳(メタデータ) (2024-09-20T16:47:34Z) - Program Slicing in the Era of Large Language Models [7.990456190723922]
プログラムスライシングはソフトウェア工学において重要なテクニックであり、開発者は関連するコードの部分を分離することができる。
本研究では,大規模言語モデル(LLM)の静的スライシングおよび動的プログラムスライシングへの応用について検討する。
論文 参考訳(メタデータ) (2024-09-19T00:07:56Z) - Navigating the Labyrinth: Evaluating and Enhancing LLMs' Ability to Reason About Search Problems [59.72548591120689]
我々は,11種類の検索問題を含む新しいベンチマークであるSearchBenchを紹介する。
もっとも先進的なLCMでさえ、これらの問題をエンドツーエンドのテキストで解決することができないことを示す。
LLMにその問題を解決するコードを生成するように指示することは助けになるが、GPT4のパフォーマンスは11.7%向上した。
論文 参考訳(メタデータ) (2024-06-18T00:44:58Z) - Hint-before-Solving Prompting: Guiding LLMs to Effectively Utilize
Encoded Knowledge [85.17343729885003]
我々は,Hint-before-Solving Prompting (HSP)を導入し,その問題を解くためのヒントを生成する。
HSPは推論タスクの精度を効果的に向上させることができる。
我々はHSPと細調整されたLlemma-7Bに基づいてHSPMATHデータセットを構築し、64.3精度を達成した。
論文 参考訳(メタデータ) (2024-02-22T05:58:03Z) - Autonomous Tree-search Ability of Large Language Models [58.68735916408101]
大規模言語モデルは、高度なプロンプト技術で顕著な推論能力に優れています。
近年の研究では、LLMがより困難な推論タスクを解くために受動的木探索を行えるように、検索ロジックを定義するために外部プログラムを活用することが提案されている。
我々は,LLMの自律木探索能力という新しい概念を提案し,正しい解を求める探索軌跡を含む応答を自動生成する。
論文 参考訳(メタデータ) (2023-10-14T14:14:38Z) - Large Language Models for Test-Free Fault Localization [11.080712737595174]
テストカバレッジ情報なしでバグの行を特定できる言語モデルに基づくフォールトローカライズ手法を提案する。
5億5000万、60億、160億のパラメータを持つ言語モデルを、手作業でキュレートされた小さなプログラムコーパスで微調整します。
実験により、LLMAOは最先端の機械学習フォールトローカライゼーション(MLFL)ベースラインを2.3%-54.4%改善し、トップ5の結果を14.4%-35.6%改善した。
論文 参考訳(メタデータ) (2023-10-03T01:26:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。