論文の概要: An Empirical Study on the Amount of Changes Required for Merge Request Acceptance
- arxiv url: http://arxiv.org/abs/2507.23640v1
- Date: Thu, 31 Jul 2025 15:18:46 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-08-01 13:49:11.268995
- Title: An Empirical Study on the Amount of Changes Required for Merge Request Acceptance
- Title(参考訳): 統合要求受け入れに必要な変更量に関する実証的研究
- Authors: Samah Kansab, Mohammed Sayagh, Francis Bordeleau, Ali Tizghadam,
- Abstract要約: GitLabのリクエストの71%は提出後に調整を必要とし、28%は200行以上のコードの変更を含む。
テキストの特徴、コードの複雑さ、開発者エクスペリエンス、レビュー履歴、ブランチなど、さまざまな次元のメトリクスを使用して、解釈可能な機械学習モデルをトレーニングします。
本モデルでは, 高い性能(AUC 0.84-0.88)を達成し, 複雑さ, 経験, テキスト特徴が重要な予測因子であることを明らかにする。
- 参考スコア(独自算出の注目度): 2.5999037208435705
- License:
- Abstract: Code review (CR) is essential to software development, helping ensure that new code is properly integrated. However, the CR process often involves significant effort, including code adjustments, responses to reviewers, and continued implementation. While past studies have examined CR delays and iteration counts, few have investigated the effort based on the volume of code changes required, especially in the context of GitLab Merge Requests (MRs), which remains underexplored. In this paper, we define and measure CR effort as the amount of code modified after submission, using a dataset of over 23,600 MRs from four GitLab projects. We find that up to 71% of MRs require adjustments after submission, and 28% of these involve changes to more than 200 lines of code. Surprisingly, this effort is not correlated with review time or the number of participants. To better understand and predict CR effort, we train an interpretable machine learning model using metrics across multiple dimensions: text features, code complexity, developer experience, review history, and branching. Our model achieves strong performance (AUC 0.84-0.88) and reveals that complexity, experience, and text features are key predictors. Historical project characteristics also influence current review effort. Our findings highlight the feasibility of using machine learning to explain and anticipate the effort needed to integrate code changes during review.
- Abstract(参考訳): コードレビュー(CR)はソフトウェア開発に不可欠であり、新しいコードが適切に統合されていることを保証する。
しかしながら、CRプロセスには、コード調整、レビュアーへの応答、継続的な実装など、かなりの労力がかかることが多い。
過去の研究ではCRの遅延とイテレーション数を調べてきたが、特に未調査のGitLab Merge Requests(MRs)のコンテキストにおいて、必要なコード変更の量に基づいて、その労力を調査している人は少ない。
本稿では、4つのGitLabプロジェクトから23,600 MRのデータセットを使用して、CRの労力を提出後に修正されたコード量として定義し、測定する。
MRの最大71%は提出後に調整を必要としており、そのうち28%は200行以上のコードの変更を含む。
驚いたことに、この取り組みはレビュー時間や参加者数と相関しない。
CRの取り組みをよりよく理解し、予測するために、テキスト機能、コードの複雑さ、開発者エクスペリエンス、レビュー履歴、ブランチといった、さまざまな次元のメトリクスを使用して、解釈可能な機械学習モデルをトレーニングします。
本モデルでは, 高い性能(AUC 0.84-0.88)を達成し, 複雑さ, 経験, テキスト特徴が重要な予測因子であることを明らかにした。
歴史的プロジェクトの特徴は、現在のレビューにも影響している。
調査の結果は、レビュー中にコード変更を統合するために必要な作業の説明と予測に機械学習を使用することの可能性を強調した。
関連論文リスト
- Rethinking Code Review Workflows with LLM Assistance: An Empirical Study [2.9593087583214173]
本稿では,LLM支援コードレビューツールの2つのバリエーションを含むフィールド実験と,現在のコードレビュープラクティスの探索的フィールドスタディを組み合わせる。
この研究は、頻繁なコンテキスト切り替えやコンテキスト情報の不足など、従来のコードレビューにおける重要な課題を特定している。
フィールド実験では,LLM生成レビューを事前に提供し,オンデマンドインタラクションを実現する2つのプロトタイプを開発した。
論文 参考訳(メタデータ) (2025-05-22T07:54:07Z) - Is Compression Really Linear with Code Intelligence? [60.123628177110206]
textitFormat Annealingは、事前訓練されたモデルの本質的な能力を同等に評価するために設計された、軽量で透明なトレーニング手法である。
我々の経験的結果は、測定されたコードインテリジェンスとビット・パー・キャラクタ(BPC)の基本的な対数関係を明らかにする。
私たちの研究は、コードインテリジェンスの開発における圧縮の役割をより微妙に理解し、コードドメインにおける堅牢な評価フレームワークに貢献します。
論文 参考訳(メタデータ) (2025-05-16T16:59:14Z) - Analyzing DevOps Practices Through Merge Request Data: A Case Study in Networking Software Company [2.5999037208435705]
GitLabのリクエスト(MR)メカニズムは、コードの提出とレビューを合理化する。
MRデータは、コラボレーションパターン、生産性、プロセス最適化など、幅広い側面を反映しています。
本研究では、ネットワークソフトウェア企業の116プロジェクトの4チームから26.7kのMRを調査する。
論文 参考訳(メタデータ) (2025-03-18T19:33:34Z) - Understanding Code Understandability Improvements in Code Reviews [79.16476505761582]
GitHub上のJavaオープンソースプロジェクトからの2,401のコードレビューコメントを分析した。
改善提案の83.9%が承認され、統合され、1%未満が後に復活した。
論文 参考訳(メタデータ) (2024-10-29T12:21:23Z) - Towards Realistic Evaluation of Commit Message Generation by Matching Online and Offline Settings [77.20838441870151]
オンラインメトリック - VCSに生成されたメッセージをコミットする前にユーザが導入する編集回数 - を使用して、オフライン実験用のメトリクスを選択します。
我々は,GPT-4が生成したコミットメッセージと,人間の専門家が編集したコミットメッセージからなる57対のデータセットを収集した。
以上の結果から,編集距離が最も高い相関性を示すのに対し,BLEUやMETEORなどの類似度は低い相関性を示すことがわかった。
論文 参考訳(メタデータ) (2024-10-15T20:32:07Z) - VersiCode: Towards Version-controllable Code Generation [58.82709231906735]
大規模言語モデル(LLM)は、コード生成において大きな進歩を遂げていますが、既存の研究は、ソフトウェア開発の動的な性質を説明できません。
バージョン別コード補完(VSCC)とバージョン別コードマイグレーション(VACM)の2つの新しいタスクを提案する。
VersiCodeについて広範な評価を行い、バージョン管理可能なコード生成が確かに重要な課題であることを示した。
論文 参考訳(メタデータ) (2024-06-11T16:15:06Z) - Code Reviewer Recommendation Based on a Hypergraph with Multiplex
Relationships [30.74556500021384]
多重関係を持つハイパーグラフを利用する新しいコードレビュアレコメンデーション手法であるMIRRecを提案する。
MIRRecは、プルリクエストと開発者の間で、学位なしのハイパーエッジを使用して、従来のペアワイズ接続を超える高次相関をエンコードする。
MIRRecの有効性を検証するために、GitHubにホストされている10の人気のあるオープンソースプロジェクトからの48,374のプルリクエストからなるデータセットを用いて実験を行った。
論文 参考訳(メタデータ) (2024-01-19T15:25:14Z) - What Makes a Code Review Useful to OpenDev Developers? An Empirical
Investigation [4.061135251278187]
コードレビューの有効性が少し改善されても、ソフトウェア開発組織にとってかなりの節約が得られます。
本研究の目的は,コードレビューコメントをOSS開発者に有用なものにする方法を,より精細に理解することである。
論文 参考訳(メタデータ) (2023-02-22T22:48:27Z) - Predicting Code Review Completion Time in Modern Code Review [12.696276129130332]
Modern Code Review (MCR)は、オープンソースと商用の両方で共通のプラクティスとして採用されている。
コードレビューは、様々な社会的技術的要因のために完了するのにかなりの遅延を経験することができる。
コードレビューの完了に必要な時間を見積もるためのツールサポートが不足している。
論文 参考訳(メタデータ) (2021-09-30T14:00:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。