論文の概要: Automating Code Review: A Systematic Literature Review
- arxiv url: http://arxiv.org/abs/2503.09510v1
- Date: Wed, 12 Mar 2025 16:19:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:39:52.181165
- Title: Automating Code Review: A Systematic Literature Review
- Title(参考訳): コードレビューの自動化: 体系的な文献レビュー
- Authors: Rosalia Tufano, Gabriele Bavota,
- Abstract要約: コードレビューは、コード品質の向上を目標として、チームメイトによって書かれたコードを評価することで構成される。
実証的な研究は、そのようなプラクティスによってもたらされた利益を文書化しており、開発者の時間という面ではコストがかかる。
コードレビュータスクを自動化する技術とツールが提案されている。
- 参考スコア(独自算出の注目度): 15.416725497289697
- License:
- Abstract: Code Review consists in assessing the code written by teammates with the goal of increasing code quality. Empirical studies documented the benefits brought by such a practice that, however, has its cost to pay in terms of developers' time. For this reason, researchers have proposed techniques and tools to automate code review tasks such as the reviewers selection (i.e., identifying suitable reviewers for a given code change) or the actual review of a given change (i.e., recommending improvements to the contributor as a human reviewer would do). Given the substantial amount of papers recently published on the topic, it may be challenging for researchers and practitioners to get a complete overview of the state-of-the-art. We present a systematic literature review (SLR) featuring 119 papers concerning the automation of code review tasks. We provide: (i) a categorization of the code review tasks automated in the literature; (ii) an overview of the under-the-hood techniques used for the automation, including the datasets used for training data-driven techniques; (iii) publicly available techniques and datasets used for their evaluation, with a description of the evaluation metrics usually adopted for each task. The SLR is concluded by a discussion of the current limitations of the state-of-the-art, with insights for future research directions.
- Abstract(参考訳): コードレビューは、コード品質の向上を目標として、チームメイトによって書かれたコードを評価することで構成される。
実証的な研究は、そのようなプラクティスによってもたらされた利益を文書化しており、開発者の時間という面ではコストがかかる。
このため、研究者は、レビュアーの選択(例えば、与えられたコード変更に適したレビュアーを特定する)や、与えられた変更の実際のレビュー(つまり、人間レビュアーとしてコントリビュータの改善を推奨する)などのコードレビュータスクを自動化する技術やツールを提案している。
このトピックについて最近発行された大量の論文を考えると、研究者や実践者が最先端の完全な概要を知ることは難しいかもしれない。
コードレビュータスクの自動化に関する119の論文を特集した体系的文献レビュー(SLR)を報告する。
提供します。
一 文献において自動化されたコードレビュー業務の分類
(II)データ駆動技術のトレーニングに使用されるデータセットを含む、自動化に使用されるアンダー・ザ・フード技術の概要
(3) 各課題に通常採用される評価基準について記述した上で, それらの評価に使用される技術やデータセットを公開している。
SLRは現在の最先端技術の限界について議論し、今後の研究の方向性について考察する。
関連論文リスト
- Can Large Language Models Serve as Evaluators for Code Summarization? [47.21347974031545]
LLM(Large Language Models)は、コード要約手法の効果的な評価手法である。
LLMはエージェントに、コードレビュアー、コード作者、コードエディタ、システムアナリストなどの様々な役割を演じるよう促す。
CoDERPEは、人間の評価と81.59%のスピアマン相関を達成し、既存のBERTScoreの基準を17.27%上回った。
論文 参考訳(メタデータ) (2024-12-02T09:56:18Z) - Are Large Language Models Good Classifiers? A Study on Edit Intent Classification in Scientific Document Revisions [62.12545440385489]
大規模言語モデル(LLM)は、テキスト生成の大幅な進歩をもたらしたが、分類タスクの強化の可能性はまだ未検討である。
生成と符号化の両方のアプローチを含む分類のための微調整LDMを徹底的に研究するためのフレームワークを提案する。
我々はこのフレームワークを編集意図分類(EIC)においてインスタンス化する。
論文 参考訳(メタデータ) (2024-10-02T20:48:28Z) - Predicting Expert Evaluations in Software Code Reviews [8.012861163935904]
本稿では,その複雑さや主観性から回避されるコードレビューの側面を自動化するアルゴリズムモデルを提案する。
手作業によるレビューを置き換える代わりに、私たちのモデルは、レビュアーがより影響力のあるタスクに集中するのに役立つ洞察を追加します。
論文 参考訳(メタデータ) (2024-09-23T16:01:52Z) - Re3: A Holistic Framework and Dataset for Modeling Collaborative Document Revision [62.12545440385489]
共同文書リビジョンを共同で分析するためのフレームワークであるRe3を紹介する。
本稿では,Re3-Sciについて紹介する。Re3-Sciは,その行動と意図に応じて手動でラベル付けされた科学的論文の大規模なコーパスである。
我々は,新しいデータを用いて,学術領域における共同文書改訂に関する実証的研究を行った。
論文 参考訳(メタデータ) (2024-05-31T21:19:09Z) - Is Reference Necessary in the Evaluation of NLG Systems? When and Where? [58.52957222172377]
基準自由度は人間の判断と高い相関を示し,言語品質の低下に対する感度が高いことを示す。
本研究は,自動測定の適切な適用方法と,測定値の選択が評価性能に与える影響について考察する。
論文 参考訳(メタデータ) (2024-03-21T10:31:11Z) - Improving Automated Code Reviews: Learning from Experience [12.573740138977065]
本研究では,自動コードレビューモデルから高品質なレビューを生成できるかどうかを検討する。
経験を意識したオーバーサンプリングは、レビューの正確性、情報レベル、有意義性を高めることができる。
論文 参考訳(メタデータ) (2024-02-06T07:48:22Z) - Code Review Automation: Strengths and Weaknesses of the State of the Art [14.313783664862923]
3つのコードレビュー自動化技術は、この論文で説明した2つのタスクで成功するか失敗する傾向があります。
この研究は質的な焦点が強く、正確な予測と間違った予測の分析に105時間のマニュアルインスペクションが費やされている。
論文 参考訳(メタデータ) (2024-01-10T13:00:18Z) - Automated Grading and Feedback Tools for Programming Education: A
Systematic Review [7.776434991976473]
ほとんどの論文はオブジェクト指向言語における代入の正確性を評価する。
ソースコードの保守性、可読性、ドキュメントを評価するツールは少ない。
ほとんどのツールは、ほぼ即時フィードバックを可能にする完全に自動化されたアセスメントを提供する。
論文 参考訳(メタデータ) (2023-06-20T17:54:50Z) - NLPeer: A Unified Resource for the Computational Study of Peer Review [58.71736531356398]
NLPeer - 5万以上の論文と5つの異なる会場からの1万1千件のレビューレポートからなる、初めて倫理的にソースされたマルチドメインコーパス。
従来のピアレビューデータセットを拡張し、解析および構造化された論文表現、豊富なメタデータ、バージョニング情報を含む。
我々の研究は、NLPなどにおけるピアレビューの体系的、多面的、エビデンスに基づく研究への道のりをたどっている。
論文 参考訳(メタデータ) (2022-11-12T12:29:38Z) - A Systematic Literature Review of Automated ICD Coding and
Classification Systems using Discharge Summaries [5.156484100374058]
フリーテキスト臨床物語の体系化は、資金、保険請求処理、研究などの二次的用途に有用であると長年認識されてきた。
コードの割り当ての現在のシナリオは、非常にコストがかかり、時間がかかり、エラーが発生しやすい手作業のプロセスです。
この体系的な文献レビューは、自動化された臨床コーディングシステムの包括的概要を提供する。
論文 参考訳(メタデータ) (2021-07-12T03:55:17Z) - Hierarchical Bi-Directional Self-Attention Networks for Paper Review
Rating Recommendation [81.55533657694016]
本稿では,階層型双方向自己注意ネットワークフレームワーク(HabNet)を提案する。
具体的には、文エンコーダ(レベル1)、レビュー内エンコーダ(レベル2)、レビュー間エンコーダ(レベル3)の3つのレベルで、論文レビューの階層構造を利用する。
我々は、最終的な受理決定を行う上で有用な予測者を特定することができ、また、数値的なレビュー評価とレビュアーが伝えるテキストの感情の不整合を発見するのに役立てることができる。
論文 参考訳(メタデータ) (2020-11-02T08:07:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。