論文の概要: Extracting Conceptual Knowledge to Locate Software Issues
- arxiv url: http://arxiv.org/abs/2509.21427v2
- Date: Sat, 04 Oct 2025 15:20:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 14:28:10.781168
- Title: Extracting Conceptual Knowledge to Locate Software Issues
- Title(参考訳): ソフトウェア問題を特定するための概念知識の抽出
- Authors: Ying Wang, Wenjun Mao, Chong Wang, Zhenhao Zhou, Yicheng Zhou, Wenyun Zhao, Yiling Lou, Xin Peng,
- Abstract要約: RepoLensは、コードリポジトリの概念的知識を抽象化し、活用する新しいアプローチである。
概念知識をリポジトリ全体の知識ベースに抽出するオフラインステージと、問題固有の用語を検索するオンラインステージである。
RepoLensは3つの最先端ツールを継続的に改善し、Hit@kでは平均22%、ファイルレベルのローカライゼーションではRecall@kでは46%を達成している。
- 参考スコア(独自算出の注目度): 12.746044344302623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Issue localization, which identifies faulty code elements such as files or functions, is critical for effective bug fixing. While recent LLM-based and LLM-agent-based approaches improve accuracy, they struggle in large-scale repositories due to concern tangling, where relevant logic is buried in large functions, and concern scattering, where related logic is dispersed across files. To address these challenges, we propose RepoLens, a novel approach that abstracts and leverages conceptual knowledge from code repositories. RepoLens decomposes fine-grained functionalities and recomposes them into high-level concerns, semantically coherent clusters of functionalities that guide LLMs. It operates in two stages: an offline stage that extracts and enriches conceptual knowledge into a repository-wide knowledge base, and an online stage that retrieves issue-specific terms, clusters and ranks concerns by relevance, and integrates them into localization workflows via minimally intrusive prompt enhancements. We evaluate RepoLens on SWE-Lancer-Loc, a benchmark of 216 tasks derived from SWE-Lancer. RepoLens consistently improves three state-of-the-art tools, namely AgentLess, OpenHands, and mini-SWE-agent, achieving average gains of over 22% in Hit@k and 46% in Recall@k for file- and function-level localization. It generalizes across models (GPT-4o, GPT-4o-mini, GPT-4.1) with Hit@1 and Recall@10 gains up to 504% and 376%, respectively. Ablation studies and manual evaluation confirm the effectiveness and reliability of the constructed concerns.
- Abstract(参考訳): ファイルや関数などの欠陥のあるコード要素を識別するイシューローカライゼーションは、効果的なバグ修正に不可欠である。
近年のLLMベースおよびLLMエージェントベースのアプローチでは精度が向上しているが,関連するロジックが大きな関数に埋もれ,関連するロジックがファイルに分散している,という懸念から,大規模リポジトリでは苦労している。
これらの課題に対処するために、コードリポジトリの概念的知識を抽象化し活用する新しいアプローチであるRepoLensを提案する。
RepoLensは細かな機能を分解し、それらを高レベルの関心事に分解する。
概念知識をリポジトリ全体の知識ベースに抽出し、強化するオフラインステージと、問題固有の用語を検索するオンラインステージと、関連性による関心事のランク付けと、最小限の侵入的なプロンプト拡張を通じてローカライズワークフローに統合するオンラインステージの2段階で構成されている。
SWE-Lancer-Locの216タスクのベンチマークであるRepoLensを評価する。
RepoLensは、AgentLess、OpenHands、Mini-SWE-agentの3つの最先端ツールを継続的に改善し、ファイルレベルのローカライゼーションではHit@kで22%、Recall@kで46%の平均的なゲインを達成した。
モデル全体(GPT-4o、GPT-4o-mini、GPT-4.1)を一般化し、Hit@1、Recall@10はそれぞれ504%、376%まで上昇する。
アブレーション研究と手作業による評価により,構築された関心事の有効性と信頼性が検証された。
関連論文リスト
- Eigen-1: Adaptive Multi-Agent Refinement with Monitor-Based RAG for Scientific Reasoning [53.45095336430027]
暗黙的な検索と構造化された協調を組み合わせた統合フレームワークを開発する。
Humanity's Last Exam (HLE) Bio/Chem Goldでは,48.3%の精度を実現している。
SuperGPQAとTRQAの結果はドメイン間の堅牢性を確認した。
論文 参考訳(メタデータ) (2025-09-25T14:05:55Z) - Enhancing LLM-based Fault Localization with a Functionality-Aware Retrieval-Augmented Generation Framework [14.287359838639608]
FaR-Locは、メソッドレベルの障害ローカライゼーションを強化するフレームワークである。
FaR-Locは、LLM機能抽出、Semantic Retrieval、LLM再ランクの3つの重要なコンポーネントで構成されている。
広く使われているDefects4Jベンチマーク実験により、FaR-Locは最先端のLCMベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2025-09-24T20:37:11Z) - SweRank: Software Issue Localization with Code Ranking [109.3289316191729]
SweRankは、ソフトウェア問題ローカライゼーションのための効率的な検索と参照のためのフレームワークである。
パブリックなGitHubリポジトリからキュレートされた大規模なデータセットであるSweLocを構築します。
SweRankは最先端の性能を達成し、従来のランキングモデルとコストの高いエージェントベースシステムの両方より優れていることを示す。
論文 参考訳(メタデータ) (2025-05-07T19:44:09Z) - CoSIL: Issue Localization via LLM-Driven Code Graph Searching [10.396193740828032]
本稿では,学習や索引付けを伴わない,LLM駆動の強力な機能レベルの課題ローカライズ手法であるCoSILを紹介する。
実験の結果、CoSILはSWE-bench LiteとSWE-bench Verifiedで43.3%、44.6%のTop-1ローカライゼーション精度を達成した。
CoSILをAgentlessという問題解決手法に統合すると、問題解決率は2.98%--30.5%向上する。
論文 参考訳(メタデータ) (2025-03-28T13:36:26Z) - KGCompass: Knowledge Graph Enhanced Repository-Level Software Repair [13.747293341707563]
リポジトリレベルのソフトウェア修復は、問題記述とコードパッチの間のセマンティックギャップを埋める際の課題に直面します。
既存のアプローチは、大きな言語モデル(LLM)に依存しており、意味的曖昧さ、構造的文脈の限られた理解、推論能力の不足によって妨げられている。
本稿では,リポジトリアーティファクト(課題とプル要求)とエンティティ(ファイル,クラス,関数)を正確にリンクする新しいリポジトリ対応知識グラフ(KG)を提案する。
KGをマイニングした経路を利用する経路誘導補修機構により,説明とともに文脈情報を拡張することができる。
論文 参考訳(メタデータ) (2025-03-27T17:21:47Z) - A Multi-Agent Approach to Fault Localization via Graph-Based Retrieval and Reflexion [8.22737389683156]
従来のフォールトローカライゼーション技術は、広範なトレーニングデータセットと高い計算資源を必要とする。
大規模言語モデル(LLM)の最近の進歩は、コード理解と推論を強化することで、新たな機会を提供する。
LLM4FLは3つの特殊なLLMエージェントを利用するマルチエージェントの故障局所化フレームワークである。
14のJavaプロジェクトから675の障害を含むDefects4Jベンチマークで評価され、LLM4FLはAutoFLよりも18.55%、SoapFLより4.82%、Top-1の精度が18.55%向上した。
論文 参考訳(メタデータ) (2024-09-20T16:47:34Z) - Exploring Automatic Cryptographic API Misuse Detection in the Era of LLMs [60.32717556756674]
本稿では,暗号誤用の検出において,大規模言語モデルを評価するための体系的評価フレームワークを提案する。
11,940個のLCM生成レポートを詳細に分析したところ、LSMに固有の不安定性は、報告の半数以上が偽陽性になる可能性があることがわかった。
最適化されたアプローチは、従来の手法を超え、確立されたベンチマークでこれまで知られていなかった誤用を明らかにすることで、90%近い顕著な検出率を達成する。
論文 参考訳(メタデータ) (2024-07-23T15:31:26Z) - ML-Bench: Evaluating Large Language Models and Agents for Machine Learning Tasks on Repository-Level Code [76.84199699772903]
ML-Benchは、既存のコードリポジトリを利用してタスクを実行する現実世界のプログラミングアプリケーションに根ざしたベンチマークである。
LLM(Large Language Model)とAIエージェントの両方を評価するために、事前に定義されたデプロイメント環境でLLMのテキスト-コード変換を評価するML-LLM-Benchと、Linuxサンドボックス環境でエンドツーエンドのタスク実行で自律エージェントをテストするML-Agent-Benchの2つの設定が採用されている。
論文 参考訳(メタデータ) (2023-11-16T12:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。