論文の概要: Bug Fixing with Broader Context: Enhancing LLM-Based Program Repair via Layered Knowledge Injection
- arxiv url: http://arxiv.org/abs/2506.24015v1
- Date: Mon, 30 Jun 2025 16:19:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:54.151327
- Title: Bug Fixing with Broader Context: Enhancing LLM-Based Program Repair via Layered Knowledge Injection
- Title(参考訳): Bug Fixing with Broader Context: Enhancing LLM-based Program repair through Layered Knowledge Injection
- Authors: Ramtin Ehsani, Esteban Parra, Sonia Haiduc, Preetha Chatterjee,
- Abstract要約: 現実世界のプロジェクトでは、開発者はそのようなバグを解決するために、ローカルコード以外のより広いリポジトリとプロジェクトレベルのコンテキストに依存することが多い。
本稿では,LLMを構造化コンテキストで漸進的に拡張する階層型知識注入フレームワークを提案する。
このフレームワークをBugsInPyの314のバグのデータセットで評価し、6つのバグタイプにわたる修正率を分析した。
- 参考スコア(独自算出の注目度): 5.287304201523224
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prompting LLMs with bug-related context (e.g., error messages, stack traces) improves automated program repair, but many bugs still remain unresolved. In real-world projects, developers often rely on broader repository and project-level context beyond the local code to resolve such bugs. In this paper, we investigate how automatically extracting and providing such knowledge can improve LLM-based program repair. We propose a layered knowledge injection framework that incrementally augments LLMs with structured context. It starts with the Bug Knowledge Layer, which includes information such as the buggy function and failing tests; expands to the Repository Knowledge Layer, which adds structural dependencies, related files, and commit history; and finally injects the Project Knowledge Layer, which incorporates relevant details from documentation and previously fixed bugs. We evaluate this framework on a dataset of 314 bugs from BugsInPy using two LLMs (Llama 3.3 and GPT-4o-mini), and analyze fix rates across six bug types. By progressively injecting knowledge across layers, our approach achieves a fix rate of 79% (250/314) using Llama 3.3, a significant improvement of 23% over previous work. All bug types show improvement with the addition of repository-level context, while only a subset benefit further from project-level knowledge, highlighting that different bug types require different levels of contextual information for effective repair. We also analyze the remaining unresolved bugs and find that more complex and structurally isolated bugs, such as Program Anomaly and GUI bugs, remain difficult even after injecting all available information. Our results show that layered context injection improves program repair and suggest the need for interactive and adaptive APR systems.
- Abstract(参考訳): バグ関連のコンテキスト(エラーメッセージ、スタックトレースなど)でLLMをプロンプトすることは、自動プログラムの修正を改善するが、多くのバグは未解決のままである。
現実世界のプロジェクトでは、開発者はそのようなバグを解決するために、ローカルコード以外のより広いリポジトリとプロジェクトレベルのコンテキストに依存することが多い。
本稿では,このような知識を自動抽出して提供することにより,LCMによるプログラムの修復を向上する方法について検討する。
本稿では,LLMを構造化コンテキストで漸進的に拡張する階層型知識注入フレームワークを提案する。
バグ機能やフェールテストなどの情報を含むバグ知識層から始まり、構造的依存関係、関連するファイル、コミット履歴を追加するリポジトリ知識層に拡張し、最後に、ドキュメントや以前修正されたバグから関連する詳細をインジェクトするプロジェクト知識層を注入する。
このフレームワークを,2つのLLM(Llama 3.3とGPT-4o-mini)を用いて,BugsInPyの314のバグのデータセット上で評価し,6種類のバグの修正率を分析した。
レイヤ間の知識を段階的に注入することにより,Llama 3.3を用いた修正率は79% (250/314) となり,従来よりも23%向上した。
すべてのバグタイプはリポジトリレベルのコンテキストを追加することで改善されているが、プロジェクトのレベルの知識からさらに恩恵を受けるのはサブセットのみである。
また、未解決の残りのバグを分析し、プログラム異常やGUIバグといった、より複雑で構造的に孤立したバグが、利用可能なすべての情報を注入した後でも難しいままであることに気付きました。
その結果,階層型コンテキストインジェクションはプログラムの修復を改善し,対話型適応型APRシステムの必要性が示唆された。
関連論文リスト
- An Empirical Study on the Capability of LLMs in Decomposing Bug Reports [9.544728752295269]
本研究では,大規模言語モデル(LLM)が,複雑なバグレポートを自動的に,より小さく自己完結したユニットに分解するのに役立つかどうかを検討する。
我々はApache Jiraから収集した127件のプライバシー関連バグレポートについて実証的研究を行った。
論文 参考訳(メタデータ) (2025-04-29T16:29:12Z) - Enhancing Repository-Level Software Repair via Repository-Aware Knowledge Graphs [8.467850621024672]
リポジトリレベルのソフトウェア修復は、問題記述とコードパッチの間のセマンティックギャップを埋める際の課題に直面します。
既存のアプローチは、主に大きな言語モデル(LLM)に依存しており、意味的曖昧さ、構造的コンテキストの理解の制限、推論能力の不足に悩まされている。
本稿では,リポジトリのアーティファクト(課題とプル要求)とエンティティを正確にリンクする新しいリポジトリ対応知識グラフ(KG)を提案する。
論文 参考訳(メタデータ) (2025-03-27T17:21:47Z) - PATCH: Empowering Large Language Model with Programmer-Intent Guidance and Collaborative-Behavior Simulation for Automatic Bug Fixing [34.768989900184636]
バグ修正は、ソフトウェア開発とメンテナンスにおいて重要な意味を持つ。
最近の研究は、ソフトウェアバグを自動的に解決する大規模言語モデル(LLM)の可能性を探ることに大きく貢献している。
論文 参考訳(メタデータ) (2025-01-27T15:43:04Z) - Harnessing Large Language Models for Knowledge Graph Question Answering via Adaptive Multi-Aspect Retrieval-Augmentation [81.18701211912779]
本稿では,KG(Amar)フレームワーク上での適応型マルチアスペクト検索手法を提案する。
この方法は、エンティティ、リレーション、サブグラフを含む知識を検索し、検索した各テキストを即時埋め込みに変換する。
提案手法は2つの共通データセットに対して最先端の性能を達成した。
論文 参考訳(メタデータ) (2024-12-24T16:38:04Z) - What's Wrong with Your Code Generated by Large Language Models? An Extensive Study [80.18342600996601]
大規模言語モデル(LLM)は、標準解に比べて短いがより複雑なコードを生成する。
3つのカテゴリと12のサブカテゴリを含む誤ったコードに対するバグの分類を開発し、一般的なバグタイプに対する根本原因を分析する。
そこで本研究では,LLMがバグタイプやコンパイラフィードバックに基づいて生成したコードを批判し,修正することのできる,自己批判を導入した新たな学習自由反復手法を提案する。
論文 参考訳(メタデータ) (2024-07-08T17:27:17Z) - A Unified Debugging Approach via LLM-Based Multi-Agent Synergy [39.11825182386288]
FixAgentはマルチエージェントのシナジーによる統合デバッグのためのエンドツーエンドフレームワークである。
1.25$times$ 2.56$times$レポレベルのベンチマークであるDefects4Jのバグを修正した。
論文 参考訳(メタデータ) (2024-04-26T04:55:35Z) - When Large Language Models Confront Repository-Level Automatic Program
Repair: How Well They Done? [13.693311241492827]
オープンソースリポジトリから124の典型的なリポジトリレベルのバグで構成される新しいベンチマークであるRepoBugsを紹介します。
GPT3.5を用いた予備実験では,RepoBugsの修復率は22.58%に過ぎなかった。
本稿では,リポジトリレベルのコード修復タスクに対して,より正確なコンテキストを提供するために,シンプルで普遍的なリポジトリレベルのコンテキスト抽出手法(RLCE)を提案する。
論文 参考訳(メタデータ) (2024-03-01T11:07:41Z) - DebugBench: Evaluating Debugging Capability of Large Language Models [80.73121177868357]
DebugBench - LLM(Large Language Models)のベンチマーク。
C++、Java、Pythonの4つの主要なバグカテゴリと18のマイナータイプをカバーする。
ゼロショットシナリオで2つの商用および4つのオープンソースモデルを評価する。
論文 参考訳(メタデータ) (2024-01-09T15:46:38Z) - Using Developer Discussions to Guide Fixing Bugs in Software [51.00904399653609]
我々は,タスク実行前に利用可能であり,また自然発生しているバグレポートの議論を,開発者による追加情報の必要性を回避して利用することを提案する。
このような議論から派生したさまざまな自然言語コンテキストがバグ修正に役立ち、オラクルのバグ修正コミットに対応するコミットメッセージの使用よりもパフォーマンスの向上につながることを実証する。
論文 参考訳(メタデータ) (2022-11-11T16:37:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。