論文の概要: Unity is Strength: Cross-Task Knowledge Distillation to Improve Code
Review Generation
- arxiv url: http://arxiv.org/abs/2309.03362v1
- Date: Wed, 6 Sep 2023 21:10:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 08:55:20.836962
- Title: Unity is Strength: Cross-Task Knowledge Distillation to Improve Code
Review Generation
- Title(参考訳): Unityの強み:コードレビュー生成を改善するクロスタスク知識蒸留
- Authors: Oussama Ben Sghaier, Lucas Maes, Houari Sahraoui
- Abstract要約: 本稿では,クロスタスク知識蒸留に基づく新しいディープラーニングアーキテクチャであるdisCOREVを提案する。
提案手法では,コメント生成モデルの微調整をコードリファインメントモデルで指導する。
以上の結果から,本手法はBLEUスコアによって評価されたより良いレビューコメントを生成することが示された。
- 参考スコア(独自算出の注目度): 0.9208007322096533
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Code review is a fundamental process in software development that plays a
critical role in ensuring code quality and reducing the likelihood of errors
and bugs. However, code review might be complex, subjective, and
time-consuming. Comment generation and code refinement are two key tasks of
this process and their automation has traditionally been addressed separately
in the literature using different approaches. In this paper, we propose a novel
deep-learning architecture, DISCOREV, based on cross-task knowledge
distillation that addresses these two tasks simultaneously. In our approach,
the fine-tuning of the comment generation model is guided by the code
refinement model. We implemented this guidance using two strategies,
feedback-based learning objective and embedding alignment objective. We
evaluated our approach based on cross-task knowledge distillation by comparing
it to the state-of-the-art methods that are based on independent training and
fine-tuning. Our results show that our approach generates better review
comments as measured by the BLEU score.
- Abstract(参考訳): コードレビューはソフトウェア開発における基本的なプロセスであり、コード品質の確保とエラーやバグの可能性の低減に重要な役割を果たします。
しかし、コードレビューは複雑で、主観的で、時間がかかります。
コメント生成とコードリファインメントは、このプロセスの2つの重要なタスクであり、その自動化は伝統的に異なるアプローチで文学の中で別々に取り組まれてきた。
本稿では,これら2つのタスクを同時に処理するクロスタスク知識蒸留に基づく,新しいディープラーニングアーキテクチャであるdiscorevを提案する。
提案手法では,コメント生成モデルの微調整をコードリファインメントモデルで指導する。
フィードバックに基づく学習目標と埋め込みアライメント目標の2つの戦略を用いて,このガイダンスを実装した。
我々は,独立した学習と微調整に基づく最先端手法と比較し,クロスタスク知識蒸留に基づくアプローチを評価した。
その結果,bleuスコアで測定したレビューコメントの質が向上した。
関連論文リスト
- CompassJudger-1: All-in-one Judge Model Helps Model Evaluation and Evolution [74.41064280094064]
textbfJudger-1は、最初のオープンソースのtextbfall-in-one judge LLMである。
CompassJudger-1は、優れた汎用性を示す汎用LLMである。
textbfJudgerBenchは、様々な主観評価タスクを含む新しいベンチマークである。
論文 参考訳(メタデータ) (2024-10-21T17:56:51Z) - DOCE: Finding the Sweet Spot for Execution-Based Code Generation [69.5305729627198]
本稿では,候補生成,$n$-best再ランク,最小ベイズリスク(MBR)復号化,自己老化などを含む包括的フレームワークを提案する。
本研究は,実行ベースメソッドの重要性と,実行ベースメソッドと実行フリーメソッドとの差を明らかにする。
論文 参考訳(メタデータ) (2024-08-25T07:10:36Z) - AI-powered Code Review with LLMs: Early Results [10.37036924997437]
本稿では,Large Language Model (LLM) ベースのモデルを用いて,ソフトウェアの品質と効率を改善する新しい手法を提案する。
提案するLLMベースのAIエージェントモデルは,大規模コードリポジトリ上でトレーニングされている。
コードの臭いを検出し、潜在的なバグを特定し、改善の提案を提供し、コードを最適化することを目的としている。
論文 参考訳(メタデータ) (2024-04-29T08:27:50Z) - Improving the Learning of Code Review Successive Tasks with Cross-Task
Knowledge Distillation [1.0878040851638]
本研究では,これらのタスクを同時に処理するために,クロスタスク知識蒸留を利用した新しいディープラーニングアーキテクチャdisCOREVを紹介する。
提案手法は, BLEUスコアによる評価値と, CodeBLEUスコアによるより正確なコード修正値から, より良いレビューコメントを生成する。
論文 参考訳(メタデータ) (2024-02-03T07:02:22Z) - ReviewRanker: A Semi-Supervised Learning Based Approach for Code Review
Quality Estimation [0.6895577977557867]
レビュープロセスの有効性と継続的改善の検査は、開発生産性を高めることができる。
本稿では,各コードレビューに信頼性スコアを割り当てることを目的とした,半教師付き学習システムであるReviewRankerを提案する。
提案手法は,開発者が提供したシンプルで明確なラベルに基づいて訓練される。
論文 参考訳(メタデータ) (2023-07-08T15:37:48Z) - Deep Learning Based Code Generation Methods: Literature Review [30.17038624027751]
本稿では、自然言語記述に従って関連するコードフラグメントを生成することを目的としたコード生成タスクに焦点を当てる。
本稿では,ディープラーニングに基づくコード生成手法に関する現在の研究を体系的にレビューする。
論文 参考訳(メタデータ) (2023-03-02T08:25:42Z) - Benchopt: Reproducible, efficient and collaborative optimization
benchmarks [67.29240500171532]
Benchoptは、機械学習で最適化ベンチマークを自動化、再生、公開するためのフレームワークである。
Benchoptは実験を実行、共有、拡張するための既製のツールを提供することで、コミュニティのベンチマークを簡単にする。
論文 参考訳(メタデータ) (2022-06-27T16:19:24Z) - Visual Transformer for Task-aware Active Learning [49.903358393660724]
プールベースのアクティブラーニングのための新しいパイプラインを提案する。
提案手法は,学習中に使用可能なアンラベリング例を利用して,ラベル付き例との相関関係を推定する。
ビジュアルトランスフォーマーは、ラベル付き例と非ラベル付き例の間の非ローカルビジュアル概念依存性をモデル化する。
論文 参考訳(メタデータ) (2021-06-07T17:13:59Z) - Lessons from Chasing Few-Shot Learning Benchmarks: Rethinking the
Evaluation of Meta-Learning Methods [9.821362920940631]
メタラーニングのための簡単なベースライン、FIX-MLを紹介します。
メタラーニングの2つの可能性を探る:(i)トレーニングセット(in-distriion)を生成する同じタスク分布に一般化する手法を開発する、(ii)新しい未確認タスク分布(out-of-distriion)に一般化する手法を開発する。
本研究は,この領域の進歩を推論するためには,メタラーニングの目標を明確に説明し,より適切な評価戦略を開発する必要があることを強調した。
論文 参考訳(メタデータ) (2021-02-23T05:34:30Z) - Knowledge-Aware Procedural Text Understanding with Multi-Stage Training [110.93934567725826]
本稿では,このような文書の理解とプロセス中のエンティティの状態や場所の追跡を目的とした手続き的テキスト理解の課題に焦点をあてる。
常識的推論の難しさとデータ不足という2つの課題はまだ未解決のままである。
我々は、複数の外部知識を効果的に活用する、KnOwledge-Aware ProceduraL text understAnding (KOALA)モデルを提案する。
論文 参考訳(メタデータ) (2020-09-28T10:28:40Z) - Enhancing Dialogue Generation via Multi-Level Contrastive Learning [57.005432249952406]
質問に対する応答のきめ細かい品質をモデル化するマルチレベルコントラスト学習パラダイムを提案する。
Rank-aware (RC) ネットワークはマルチレベルコントラスト最適化の目的を構築するために設計されている。
本研究では,知識推論(KI)コンポーネントを構築し,学習中の参照からキーワードの知識を抽出し,そのような情報を活用して情報的単語の生成を促す。
論文 参考訳(メタデータ) (2020-09-19T02:41:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。