論文の概要: Retrieval-Augmented Code Review Comment Generation
- arxiv url: http://arxiv.org/abs/2506.11591v1
- Date: Fri, 13 Jun 2025 08:58:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.72604
- Title: Retrieval-Augmented Code Review Comment Generation
- Title(参考訳): Retrieval-Augmented Code Review コメント生成
- Authors: Hyunsun Hong, Jongmoon Baik,
- Abstract要約: コードレビューコメントの自動生成(RCG)は、コード変更に対する自然言語フィードバックを自動生成することで開発者を支援することを目的としている。
既存のアプローチは主にジェネレーションベース、事前訓練された言語モデル、情報検索ベース(IR)のいずれかであり、同様の過去の例からのコメントを再利用している。
本研究は,事前学習した言語モデルを検索したコードレビュー例に条件付けすることで,RCGの検索拡張生成(RAG)を活用することを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated code review comment generation (RCG) aims to assist developers by automatically producing natural language feedback for code changes. Existing approaches are primarily either generation-based, using pretrained language models, or information retrieval-based (IR), reusing comments from similar past examples. While generation-based methods leverage code-specific pretraining on large code-natural language corpora to learn semantic relationships between code and natural language, they often struggle to generate low-frequency but semantically important tokens due to their probabilistic nature. In contrast, IR-based methods excel at recovering such rare tokens by copying from existing examples but lack flexibility in adapting to new code contexts-for example, when input code contains identifiers or structures not found in the retrieval database. To bridge the gap between generation-based and IR-based methods, this work proposes to leverage retrieval-augmented generation (RAG) for RCG by conditioning pretrained language models on retrieved code-review exemplars. By providing relevant examples that illustrate how similar code has been previously reviewed, the model is better guided to generate accurate review comments. Our evaluation on the Tufano et al. benchmark shows that RAG-based RCG outperforms both generation-based and IR-based RCG. It achieves up to +1.67% higher exact match and +4.25% higher BLEU scores compared to generation-based RCG. It also improves the generation of low-frequency ground-truth tokens by up to 24.01%. We additionally find that performance improves as the number of retrieved exemplars increases.
- Abstract(参考訳): コードレビューコメントの自動生成(RCG)は、コード変更に対する自然言語フィードバックを自動生成することで開発者を支援することを目的としている。
既存のアプローチは主にジェネレーションベース、事前訓練された言語モデル、情報検索ベース(IR)のいずれかであり、同様の過去の例からのコメントを再利用している。
生成ベースの手法は、コードと自然言語のセマンティックな関係を学習するために、大規模なコード自然言語コーパスでコード固有の事前訓練を利用するが、確率的性質のため、低周波だが意味的に重要なトークンを生成するのに苦労することが多い。
対照的に、IRベースのメソッドは、既存の例からコピーすることで、そのような稀なトークンを回復するのに優れているが、新しいコードコンテキストに適応する柔軟性に欠ける。
生成元とIRに基づく手法のギャップを埋めるため,検索したコードレビュー例に事前学習した言語モデルを条件づけることにより,RCGの検索拡張生成(RAG)を活用することを提案する。
コードが以前どのようにレビューされたかを示す関連する例を提供することで、モデルが正確なレビューコメントを生成するようにガイドされている。
Tufano et alベンチマークによる評価では、RAGベースのRCGは世代ベースとIRベースのRCGの両方で優れていた。
最大で1.67%、BLEUスコアは4.25%である。
また、低周波のグラウンドトラストークンを最大24.01%改善する。
また,検索した例の数が増加するにつれて,性能が向上することがわかった。
関連論文リスト
- X-ray Made Simple: Lay Radiology Report Generation and Robust Evaluation [21.425178466284017]
ラジオロジーレポート生成(RRG)はマルチモーダル生成モデルの開発で大きく進歩している。
既存の語彙ベースのメトリクスで高いパフォーマンスを持つRRGは、単なるミラージュです - モデルはレポートのテンプレートを学習することでのみ、高いBLEUを得ることができます。
本稿では,BLEUの膨らませた数を軽減し,より堅牢な評価を行うセマンティクスに基づく評価手法を提案する。
論文 参考訳(メタデータ) (2024-06-25T19:52:01Z) - CodeRAG-Bench: Can Retrieval Augment Code Generation? [78.37076502395699]
検索拡張生成を用いたコード生成の系統的,大規模な解析を行う。
まず、コード生成タスクの3つのカテゴリを含む総合的な評価ベンチマークであるCodeRAG-Benchをキュレートする。
CodeRAG-Bench上のトップパフォーマンスモデルについて、1つまたは複数のソースから検索したコンテキストを提供することにより検討する。
論文 参考訳(メタデータ) (2024-06-20T16:59:52Z) - Distillation Enhanced Generative Retrieval [96.69326099136289]
生成的検索はテキスト検索において有望な新しいパラダイムであり、関連する通路の識別子文字列を検索対象として生成する。
本研究は, 蒸留による生成的検索をさらに促進するための有効な方向を特定し, DGR という名称の実行可能なフレームワークを提案する。
本研究では,4つの公開データセットに対して実験を行い,DGRが生成的検索手法の最先端性能を達成することを示す。
論文 参考訳(メタデータ) (2024-02-16T15:48:24Z) - Rewriting the Code: A Simple Method for Large Language Model Augmented Code Search [7.822427053078387]
Generation-Augmented Retrieval (GAR)フレームワークは、クエリを拡張するための例のコードスニペットを生成する。
本稿では、forスタイルの正規化内でコード(ReCo)を書き換える、シンプルで効果的な方法を提案する。
コードスタイル類似度(Code Style similarity)は、コード内のスタイリスティック類似度を定量化するための最初のメートル法である。
論文 参考訳(メタデータ) (2024-01-09T12:12:50Z) - Learning to Rank in Generative Retrieval [62.91492903161522]
生成的検索は、検索対象として関連する通路の識別子文字列を生成することを目的としている。
我々はLTRGRと呼ばれる生成検索のための学習 torankフレームワークを提案する。
このフレームワークは、現在の生成的検索システムを強化するために、追加の学習からランクまでのトレーニングフェーズのみを必要とする。
論文 参考訳(メタデータ) (2023-06-27T05:48:14Z) - Stochastic Code Generation [1.7205106391379026]
コード生成のために事前訓練された大きな言語モデルは、高品質のショートコードを生成するが、コヒーレントな長いコードを生成するのにしばしば苦労する。
この問題は、長文生成のための言語モデリングにも見られる。
本研究では,この手法をコード生成に適用してコヒーレンスを向上できるかを検討する。
論文 参考訳(メタデータ) (2023-04-14T00:01:05Z) - ReCode: Robustness Evaluation of Code Generation Models [90.10436771217243]
コード生成モデルのための総合的ロバストネス評価ベンチマークであるReCodeを提案する。
ドクストリング、関数と変数名、コード構文、コードフォーマットのコードに特化して、30以上の変換をカスタマイズします。
ヒトのアノテータでは、摂動プロンプトの90%以上が本来のプロンプトの意味を変えていないことが確認された。
論文 参考訳(メタデータ) (2022-12-20T14:11:31Z) - Enhancing Semantic Code Search with Multimodal Contrastive Learning and
Soft Data Augmentation [50.14232079160476]
コード検索のためのマルチモーダルコントラスト学習とソフトデータ拡張を用いた新しい手法を提案する。
我々は,6つのプログラミング言語を用いた大規模データセットにおけるアプローチの有効性を評価するために,広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-04-07T08:49:27Z) - Retrieve and Refine: Exemplar-based Neural Comment Generation [27.90756259321855]
同様のコードスニペットのコメントはコメントの生成に役立ちます。
我々は、与えられたコード、AST、類似したコード、そして入力として見劣りする新しいセク2seqニューラルネットワークを設計する。
約200万のサンプルを含む大規模Javaコーパスに対するアプローチを評価した。
論文 参考訳(メタデータ) (2020-10-09T09:33:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。