論文の概要: Code Review Automation using Retrieval Augmented Generation
- arxiv url: http://arxiv.org/abs/2511.05302v1
- Date: Fri, 07 Nov 2025 15:02:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.805714
- Title: Code Review Automation using Retrieval Augmented Generation
- Title(参考訳): Retrieval Augmented Generation を用いたコードレビュー自動化
- Authors: Qianru Meng, Xiao Zhang, Zhaochen Ren, Joost Visser,
- Abstract要約: コードレビューはソフトウェアの品質を維持するのに不可欠ですが、労働集約的です。
深層学習に基づく生成技術と検索に基づく手法は,この課題において高い性能を示した。
本稿では,検索法と生成法を組み合わせたRARe(Retrieval-Augmented Reviewer)を紹介する。
- 参考スコア(独自算出の注目度): 3.438467395627969
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Code review is essential for maintaining software quality but is labor-intensive. Automated code review generation offers a promising solution to this challenge. Both deep learning-based generative techniques and retrieval-based methods have demonstrated strong performance in this task. However, despite these advancements, there are still some limitations where generated reviews can be either off-point or overly general. To address these issues, we introduce Retrieval-Augmented Reviewer (RARe), which leverages Retrieval-Augmented Generation (RAG) to combine retrieval-based and generative methods, explicitly incorporating external domain knowledge into the code review process. RARe uses a dense retriever to select the most relevant reviews from the codebase, which then enrich the input for a neural generator, utilizing the contextual learning capacity of large language models (LLMs), to produce the final review. RARe outperforms state-of-the-art methods on two benchmark datasets, achieving BLEU-4 scores of 12.32 and 12.96, respectively. Its effectiveness is further validated through a detailed human evaluation and a case study using an interpretability tool, demonstrating its practical utility and reliability.
- Abstract(参考訳): コードレビューはソフトウェアの品質を維持するのに不可欠ですが、労働集約的です。
自動コードレビュー生成はこの課題に対して有望な解決策を提供する。
深層学習に基づく生成技術と検索に基づく手法の両方が,この課題において高い性能を示した。
しかし、これらの進歩にもかかわらず、生成したレビューがオフポイントまたは過剰な一般であるような制限がまだある。
これらの問題に対処するために、検索ベースと生成メソッドを組み合わせ、コードレビュープロセスに外部ドメイン知識を明示的に組み込むために、Retrieval-Augmented Generation (RAG)を活用するRetrieval-Augmented Reviewer (RARe)を導入する。
RAReは、コードベースから最も関連性の高いレビューを選択するために、密度の高いレトリバーを使用して、ニューラルネットワークの入力を豊かにし、大きな言語モデル(LLM)のコンテキスト学習能力を活用して、最終的なレビューを生成する。
RAReは、それぞれ12.32と12.96のBLEU-4スコアを達成し、2つのベンチマークデータセットで最先端の手法より優れている。
その有効性は、人間の詳細な評価と、解釈可能性ツールを用いたケーススタディによりさらに検証され、実用性と信頼性が実証された。
関連論文リスト
- RLAC: Reinforcement Learning with Adversarial Critic for Free-Form Generation Tasks [75.52891348667491]
オープンエンド生成タスクは、多様でしばしば暗黙的なタスク固有の評価ルーブリックを満たすために出力を必要とする。
関連するルーリックの数が多ければ多いほど、極めて高い検証コストと応答の不完全な評価につながる。
RLAC(Reinforcement Learning with Adrial Critic, Reinforcement Learning with Adrial Critic)を提案する。
論文 参考訳(メタデータ) (2025-11-03T17:15:05Z) - Retrieval-Augmented Code Review Comment Generation [0.0]
コードレビューコメントの自動生成(RCG)は、コード変更に対する自然言語フィードバックを自動生成することで開発者を支援することを目的としている。
既存のアプローチは主にジェネレーションベース、事前訓練された言語モデル、情報検索ベース(IR)のいずれかであり、同様の過去の例からのコメントを再利用している。
本研究は,事前学習した言語モデルを検索したコードレビュー例に条件付けすることで,RCGの検索拡張生成(RAG)を活用することを提案する。
論文 参考訳(メタデータ) (2025-06-13T08:58:20Z) - Leveraging Reward Models for Guiding Code Review Comment Generation [13.306560805316103]
コードレビューは、コード品質の評価、潜在的な問題に対するフィードバックの提供、特定された問題に対処するためのコード修正を含む、現代のソフトウェア開発において重要なコンポーネントである。
ディープラーニングのテクニックは、人間のレビュアーが行うようなコードにコメントすることで、コードレビューのジェネレーティブな側面に取り組むことができる。
本稿では,報酬機構を備えた強化学習を活用することによって,レビューコメント生成を自動化するディープラーニングフレームワークであるCoRALを紹介する。
論文 参考訳(メタデータ) (2025-06-04T21:31:38Z) - ReLearn: Unlearning via Learning for Large Language Models [64.2802606302194]
本研究では、効果的なアンラーニングのためのデータ拡張および微調整パイプラインであるReLearnを提案する。
このフレームワークでは、知識レベルの保存を測定するために、知識獲得率(KFR)と知識保持率(KRR)を導入している。
実験の結果,ReLearnは高品質な出力を保ちながら,目標とするリセットを実現することができた。
論文 参考訳(メタデータ) (2025-02-16T16:31:00Z) - Assessing the Answerability of Queries in Retrieval-Augmented Code Generation [7.68409881755304]
本研究は,有効な回答が生成できるかどうかを評価するための課題を提案する。
我々は、Retrieval-augmented Code Generability Evaluation (RaCGEval)と呼ばれるベンチマークデータセットを構築し、このタスクを実行するモデルの性能を評価する。
論文 参考訳(メタデータ) (2024-11-08T13:09:14Z) - CodeRAG-Bench: Can Retrieval Augment Code Generation? [78.37076502395699]
検索拡張生成を用いたコード生成の系統的,大規模な解析を行う。
まず、コード生成タスクの3つのカテゴリを含む総合的な評価ベンチマークであるCodeRAG-Benchをキュレートする。
CodeRAG-Bench上のトップパフォーマンスモデルについて、1つまたは複数のソースから検索したコンテキストを提供することにより検討する。
論文 参考訳(メタデータ) (2024-06-20T16:59:52Z) - Repoformer: Selective Retrieval for Repository-Level Code Completion [30.706277772743615]
検索強化生成(RAG)の最近の進歩は、リポジトリレベルのコード補完の新たな時代が始まった。
本稿では,不要な場合の検索を回避するため,選択的なRAGフレームワークを提案する。
我々のフレームワークは、異なる世代モデル、レトリバー、プログラミング言語に対応できることを示します。
論文 参考訳(メタデータ) (2024-03-15T06:59:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。