論文の概要: iCoRe: An Iterative Correlation-Aware Retriever for Bug Reproduction Test Generation
- arxiv url: http://arxiv.org/abs/2604.19224v1
- Date: Tue, 21 Apr 2026 08:26:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-22 22:41:49.689193
- Title: iCoRe: An Iterative Correlation-Aware Retriever for Bug Reproduction Test Generation
- Title(参考訳): iCoRe: バグ再現テスト生成のための反復的相関対応レトリバー
- Authors: Junyi Wang, Jialun Cao, Zhongxin Liu,
- Abstract要約: iCoReは反復的相関型コンテキスト検索手法である。
本手法はFail-to-Passレートをそれぞれ42.0%,52.8%とする。
- 参考スコア(独自算出の注目度): 10.824024745675281
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Automatically generating bug reproduction tests (BRT) from issue descriptions is crucial for software maintenance. LLM-based approaches have shown great potential for this task. Their effectiveness heavily relies on retrieving high-quality context from the codebase. The retrieval phase of existing approaches relies on either traditional methods like BM25 or LLM-driven strategies. LLM-based retrieval strategies typically equip an LLM with tools to autonomously explore the repository or select the most relevant files and code snippets from a provided list as context. However, these retrieval methods suffer from three key limitations: 1) They often employ a unified strategy for retrieving both source code and test cases, overlooking their distinct retrieval requirements. 2) They focus solely on semantic similarity while ignoring function call relationships, leading to irrelevant context. 3) The retrieval lacks a feedback loop from the generation phase, preventing it from refining the context based on execution results. These limitations collectively result in low-quality context, thereby hindering the accuracy of bug reproduction. To address these challenges, we propose iCoRe, an iterative, correlation-aware context retrieval approach explicitly aware of three key correlations: 1) between source code and test cases, which requires differentiated retrieval, 2) between textual semantics and function call structures for accurate relevance assessment, and 3) between the retrieval and generation phases, which enables iterative feedback and refinement. To evaluate iCoRe, we integrate it with an LLM-based BRT generator and conduct a comprehensive evaluation on the SWT-bench Lite and TDD-bench Verified benchmarks. Experimental results show that our method achieves a Fail-to-Pass rate of 42.0% and 52.8% respectively, representing 19.7%-31.7% relative improvements over existing retrieval methods.
- Abstract(参考訳): 問題記述からバグ再現テスト(BRT)を自動的に生成することは、ソフトウェアのメンテナンスに不可欠である。
LLMベースのアプローチは、このタスクに大きな可能性を示している。
その効果はコードベースから高品質なコンテキストを取得することに大きく依存しています。
既存のアプローチの検索フェーズは、BM25 や LLM による戦略のような従来の手法に依存している。
LLMベースの検索戦略は通常、LLMにリポジトリを自律的に探索したり、提供されたリストから最も関連性の高いファイルやコードスニペットをコンテキストとして選択するためのツールを装備する。
しかし、これらの検索方法には3つの制限がある。
1) ソースコードとテストケースの両方を検索するための統一的な戦略をしばしば採用する。
2)機能コール関係を無視しながら意味的類似性にのみ焦点を合わせ,無関係な文脈へとつながる。
3)検索には生成フェーズからのフィードバックループが欠如しており,実行結果に基づいてコンテキストを書き換えることができない。
これらの制限は全体として、品質の低いコンテキストをもたらすため、バグの再現の精度を損なう。
これらの課題に対処するため、我々は3つの重要な相関関係を明確に認識する反復的相関対応コンテキスト検索手法iCoReを提案する。
1) ソースコードとテストケースを区別した検索を必要とする。
2) 正確な関連性評価のためのテキスト意味論と機能呼び出し構造
3) 検索フェーズと生成フェーズの間には, 反復的なフィードバックと改善が可能である。
iCoReを評価するために、LLMベースのBRTジェネレータと統合し、SWT-bench LiteとTDD-bench Verifiedベンチマークで包括的な評価を行う。
実験の結果,既存の検索手法と比較して,Fail-to-Passレートが42.0%,Fail-to-Passレートが52.8%,19.7%~31.7%向上したことがわかった。
関連論文リスト
- Transforming External Knowledge into Triplets for Enhanced Retrieval in RAG of LLMs [55.78708003681562]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)における幻覚を、生成時に外部知識を取り入れることで緩和する。
既存のRAGアプローチは通常、コンテキストとしてテキストフラグメントを検索し、非構造化する。
本稿では,三重項に基づく検索フレームワークTri-RAGを提案する。
論文 参考訳(メタデータ) (2026-04-14T11:36:29Z) - AlignCoder: Aligning Retrieval with Target Intent for Repository-Level Code Completion [55.21541958868449]
リポジトリレベルのコード補完フレームワークであるAlignCoderを提案する。
我々のフレームワークは、初期クエリとターゲットコードのセマンティックギャップを橋渡しする拡張クエリを生成する。
我々は、拡張クエリにおける推論情報を活用してより正確な検索を行うAlignRetrieverのトレーニングに強化学習を採用する。
論文 参考訳(メタデータ) (2026-01-27T15:23:14Z) - LLM-guided Hierarchical Retrieval [54.73080745446999]
LATTICEは階層的な検索フレームワークであり、LLMは対数探索の複雑さで大きなコーパスを推論し、ナビゲートすることができる。
LLM誘導探索における中心的な課題は、モデルの関連性判断がノイズが多く、文脈に依存し、階層性に気付かないことである。
我々のフレームワークは、推論集約型BRIGHTベンチマークで最先端のゼロショット性能を実現する。
論文 参考訳(メタデータ) (2025-10-15T07:05:17Z) - Reasoning-enhanced Query Understanding through Decomposition and Interpretation [87.56450566014625]
ReDIは、分解と解釈によるクエリ理解のための推論強化アプローチである。
我々は,大規模検索エンジンから実世界の複雑なクエリの大規模データセットをコンパイルした。
BRIGHT と BEIR の実験により、ReDI はスパースと密度の高い検索パラダイムの両方において、強いベースラインを一貫して超えることを示した。
論文 参考訳(メタデータ) (2025-09-08T10:58:42Z) - CAAD: Context-Aware Adaptive Decoding for Truthful Text Generation [31.469511576774252]
大規模言語モデルに対する文脈対応適応型復号法を提案する。
当社のアプローチは、TrathfulQAで平均2.8%の改善を実現しています。
モデルに依存しない,スケーラブルで,効率的な手法では,1世代パスしか必要としない。
論文 参考訳(メタデータ) (2025-08-04T08:28:25Z) - When Retriever Meets Generator: A Joint Model for Code Comment Generation [3.6781644685120924]
RAGSumは、単一のCodeT5バックボーンを使用して、ヒューズ検索と生成の上に構築されている。
対照的な事前学習フェーズは、最寄りの探索のためのコード埋め込みを形作る。
最終出力を研磨するために、軽量な自己精製ループが配置される。
論文 参考訳(メタデータ) (2025-07-16T18:12:27Z) - Benchmarking Deep Search over Heterogeneous Enterprise Data [73.55304268238474]
検索強化生成(RAG)の形式を評価するための新しいベンチマークを提案する。
RAGは、多種多様な、しかし関連するソースに対して、ソースを意識したマルチホップ推論を必要とする。
製品計画、開発、サポートステージをまたいだビジネスをシミュレートする合成データパイプラインを使用して構築します。
論文 参考訳(メタデータ) (2025-06-29T08:34:59Z) - IterKey: Iterative Keyword Generation with LLMs for Enhanced Retrieval Augmented Generation [24.108631023133704]
IterKeyは、スパース検索によるRAGを強化する反復的なキーワード生成フレームワークである。
BM25ベースのRAGと単純なベースラインよりも5%から20%の精度向上を実現している。
論文 参考訳(メタデータ) (2025-05-13T11:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。