論文の概要: Improving Retrieval-Augmented Deep Assertion Generation via Joint Training
- arxiv url: http://arxiv.org/abs/2502.10696v2
- Date: Mon, 24 Feb 2025 09:00:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:49:18.965969
- Title: Improving Retrieval-Augmented Deep Assertion Generation via Joint Training
- Title(参考訳): ジョイントトレーニングによる検索強化深部沈降生成の改善
- Authors: Quanjun Zhang, Chunrong Fang, Yi Zheng, Ruixiang Qian, Shengcheng Yu, Yuan Zhao, Jianyi Zhou, Yun Yang, Tao Zheng, Zhenyu Chen,
- Abstract要約: 検索強化された自動アサーション生成手法 AG-RAG を提案する。
AG-RAGは、関連するテスト-アサートペア(TAP)をセマンティックマッチングで検索するために、密集したレトリバーを構築する。
我々はAG-RAGを2つのベンチマークと3つのメトリクスに関する6つの最先端のAGアプローチに対して広範囲に評価する。
- 参考スコア(独自算出の注目度): 21.2001651233287
- License:
- Abstract: Unit testing attempts to validate the correctness of basic units of the software system under test and has a crucial role in software development and testing. Very recent work proposes a retrieve-and-edit approach to generate unit test oracles, i.e., assertions. Despite being promising, it is still far from perfect due to some limitations, such as splitting assertion retrieval and generation into two separate components without benefiting each other. In this paper, we propose AG-RAG, a retrieval-augmented automated assertion generation approach that leverages external codebases and joint training to address various technical limitations of prior work. Inspired by the plastic surgery hypothesis, AG-RAG attempts to combine relevant unit tests and advanced pre-trained language models (PLMs) with retrieval-augmented fine-tuning. AG-RAG builds a dense retriever to search for relevant test-assert pairs (TAPs) with semantic matching and a retrieval-augmented generator to synthesize accurate assertions with the focal-test and retrieved TAPs as input. Besides, AG-RAG leverages a code-aware language model CodeT5 as the cornerstone to facilitate both assertion retrieval and generation tasks. Furthermore, the retriever is optimized in conjunction with the generator as a whole pipeline with a joint training strategy. This unified design fully adapts both components specifically for retrieving more useful TAPs, thereby generating accurate assertions. We extensively evaluate AG-RAG against six state-of-the-art AG approaches on two benchmarks and three metrics. Experimental results show that AG-RAG significantly outperforms previous AG approaches on all benchmarks and metrics, e.g., improving the most recent baseline EditAS by 20.82% and 26.98% in terms of accuracy. AG-RAG also correctly generates 1739 and 2866 unique assertions that all baselines fail to generate, 3.45X and 9.20X more than EditAS.
- Abstract(参考訳): 単体テストは、テスト中のソフトウェアシステムの基本的なユニットの正しさを検証しようと試み、ソフトウェア開発とテストにおいて重要な役割を担います。
ごく最近の研究で、単体テストのオラクル、すなわちアサーションを生成するための検索と編集のアプローチが提案されている。
有望であるにもかかわらず、アサーション検索と生成を2つの別々のコンポーネントに分割するなど、いくつかの制限があるため、まだ完璧ではない。
本稿では,外部コードベースを活用した検索強化型自動アサーション生成手法AG-RAGを提案する。
プラスティック手術の仮説に触発されて、AG-RAGは関連する単体テストと高度な事前訓練言語モデル(PLM)と検索強化微調整を組み合わせようとしている。
AG-RAGは、セマンティックマッチングで関連するテスト-アサートペア(TAP)を検索するための密集した検索器と、フォーカステストと検索されたTAPを入力として正確なアサーションを合成する検索拡張ジェネレータを構築している。
さらに、AG-RAGはコード認識言語モデルCodeT5を基盤として、アサーション検索と生成タスクの両方を容易にする。
さらに、再生器は、パイプライン全体としてジェネレータとともに、共同訓練戦略とともに最適化される。
この統一された設計は、より有用なTAPを取得するために両方のコンポーネントを完全に適応し、正確なアサーションを生成する。
我々はAG-RAGを2つのベンチマークと3つのメトリクスに関する6つの最先端AGアプローチに対して広範囲に評価する。
実験の結果、AG-RAGはすべてのベンチマークとメトリクスにおいて、最新のベースラインEditASを20.82%、精度は26.98%改善した。
AG-RAGはまた、すべてのベースラインが生成できない1739と2866のユニークなアサーションを、EditASより3.45Xと9.20Xより正確に生成する。
関連論文リスト
- Improving Retrieval-Augmented Generation through Multi-Agent Reinforcement Learning [51.54046200512198]
Retrieval-augmented Generation (RAG) は、外部の現在の知識を大規模言語モデルに組み込むために広く利用されている。
標準的なRAGパイプラインは、クエリ書き換え、文書検索、文書フィルタリング、回答生成など、いくつかのコンポーネントから構成される。
これらの課題を克服するため,RAGパイプラインを多エージェント協調作業として,各コンポーネントをRLエージェントとして扱うことを提案する。
論文 参考訳(メタデータ) (2025-01-25T14:24:50Z) - Chain-of-Retrieval Augmented Generation [72.06205327186069]
本稿では,o1-like RAGモデルを学習し,最終回答を生成する前に段階的に関連情報を抽出・推論する手法を提案する。
提案手法であるCoRAGは,進化状態に基づいて動的にクエリを再構成する。
論文 参考訳(メタデータ) (2025-01-24T09:12:52Z) - MAIN-RAG: Multi-Agent Filtering Retrieval-Augmented Generation [34.66546005629471]
大規模言語モデル(LLM)は、様々な自然言語処理タスクに不可欠なツールであるが、時代遅れや誤った情報の生成に悩まされることが多い。
Retrieval-Augmented Generation (RAG)は、外部のリアルタイム情報検索をLLM応答に組み込むことでこの問題に対処する。
この問題に対処するため,マルチエージェントフィルタ検索検索生成(MAIN-RAG)を提案する。
MAIN-RAGはトレーニング不要なRAGフレームワークで、複数のLCMエージェントを利用して検索した文書のフィルタリングとスコア付けを行う。
論文 参考訳(メタデータ) (2024-12-31T08:07:26Z) - Toward General Instruction-Following Alignment for Retrieval-Augmented Generation [63.611024451010316]
Retrieval-Augmented Generation (RAG) システムの効果的な適用には、自然な指示に従うことが不可欠である。
RAGシステムにおける命令追従アライメントのための,最初の自動化,拡張性,検証可能な合成パイプラインであるVIF-RAGを提案する。
論文 参考訳(メタデータ) (2024-10-12T16:30:51Z) - SFR-RAG: Towards Contextually Faithful LLMs [57.666165819196486]
Retrieval Augmented Generation (RAG) は、外部コンテキスト情報を大言語モデル(LLM)と統合し、事実の精度と妥当性を高めるパラダイムである。
SFR-RAG(SFR-RAG)について述べる。
また、複数の人気かつ多様なRAGベンチマークをコンパイルする新しい評価フレームワークであるConBenchについても紹介する。
論文 参考訳(メタデータ) (2024-09-16T01:08:18Z) - xRAG: Extreme Context Compression for Retrieval-augmented Generation with One Token [108.7069350303884]
xRAGは、検索拡張生成に適した、革新的なコンテキスト圧縮手法である。
xRAGは、言語モデル表現空間に文書の埋め込みをシームレスに統合する。
実験の結果、xRAGは6つの知識集約タスクで平均10%以上の改善を達成していることがわかった。
論文 参考訳(メタデータ) (2024-05-22T16:15:17Z) - Evaluating Retrieval Quality in Retrieval-Augmented Generation [21.115495457454365]
従来のエンドツーエンド評価手法は計算コストが高い。
本稿では,検索リストの各文書をRAGシステム内の大規模言語モデルで個別に利用するeRAGを提案する。
eRAGは、ランタイムを改善し、エンドツーエンド評価の最大50倍のGPUメモリを消費する、大きな計算上のアドバンテージを提供する。
論文 参考訳(メタデータ) (2024-04-21T21:22:28Z) - Revisiting and Improving Retrieval-Augmented Deep Assertion Generation [13.373681113601982]
単体テストはソフトウェア開発プロセスにおいて重要な活動となっている。
Yuらは単体テストのためのアサーションを生成する統合的なアプローチ(略して積分)を提案した。
有望であるにもかかわらず、なぜ統合が機能するのか、それとも機能しないのかについては、いまだに知識のギャップがあります。
論文 参考訳(メタデータ) (2023-09-19T02:39:02Z) - RAP-Gen: Retrieval-Augmented Patch Generation with CodeT5 for Automatic
Program Repair [75.40584530380589]
新たな検索型パッチ生成フレームワーク(RAP-Gen)を提案する。
RAP-Gen 以前のバグ修正ペアのリストから取得した関連する修正パターンを明示的に活用する。
RAP-GenをJavaScriptのTFixベンチマークとJavaのCode RefinementとDefects4Jベンチマークの2つのプログラミング言語で評価する。
論文 参考訳(メタデータ) (2023-09-12T08:52:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。