論文の概要: On The Impact of Merge Request Deviations on Code Review Practices
- arxiv url: http://arxiv.org/abs/2506.08860v1
- Date: Tue, 10 Jun 2025 14:51:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:42.656314
- Title: On The Impact of Merge Request Deviations on Code Review Practices
- Title(参考訳): マージ要求逸脱がコードレビュー実践に及ぼす影響について
- Authors: Samah Kansab, Francis Bordeleau, Ali Tizghadam,
- Abstract要約: これらのケースを偏差と仮説で表現し、それらがバイアス分析を無視し、レビュー分析のためにMLモデルを弱めていると仮定する。
MRの37.02%で発生する7つの偏差カテゴリを同定し、数ショットの学習検出法(精度91%)を提案する。
我々は,(1)MR偏差の分類学,(2)AIによる検出アプローチ,(3)MLに基づくレビュー分析への影響の実証的証拠を含む。
- 参考スコア(独自算出の注目度): 2.8402080392117757
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Code review is a key practice in software engineering, ensuring quality and collaboration. However, industrial Merge Request (MR) workflows often deviate from standardized review processes, with many MRs serving non-review purposes (e.g., drafts, rebases, or dependency updates). We term these cases deviations and hypothesize that ignoring them biases analytics and undermines ML models for review analysis. We identify seven deviation categories, occurring in 37.02% of MRs, and propose a few-shot learning detection method (91% accuracy). By excluding deviations, ML models predicting review completion time improve performance in 53.33% of cases (up to 2.25x) and exhibit significant shifts in feature importance (47% overall, 60% top-*k*). Our contributions include: (1) a taxonomy of MR deviations, (2) an AI-driven detection approach, and (3) empirical evidence of their impact on ML-based review analytics. This work aids practitioners in optimizing review efforts and ensuring reliable insights.
- Abstract(参考訳): コードレビューはソフトウェアエンジニアリングにおける重要なプラクティスであり、品質とコラボレーションを保証する。
しかしながら、インダストリアルマージ要求(MR)ワークフローは、標準化されたレビュープロセスから逸脱することが多く、多くのMRが非レビュー目的(ドラフト、リベース、依存性更新など)を提供する。
これらのケースを偏差と仮説で表現し、それらがバイアス分析を無視し、レビュー分析のためにMLモデルを弱めていると仮定する。
MRの37.02%で発生する7つの偏差カテゴリを同定し、数ショットの学習検出法(精度91%)を提案する。
変更を除外することで、レビュー完了時間を予測するMLモデルは53.33%のケース(最大2.25倍)のパフォーマンスを改善し、機能の重要性(全体の47%、トップ*k*の60%)を大きく変えた。
我々は,(1)MR偏差の分類学,(2)AIによる検出アプローチ,(3)MLに基づくレビュー分析への影響の実証的証拠を含む。
この仕事は、実践者がレビューの作業を最適化し、信頼できる洞察を確保するのに役立ちます。
関連論文リスト
- R-PRM: Reasoning-Driven Process Reward Modeling [53.06844294668382]
プロセス・リワード・モデル(Process Reward Models, PRM)は、各推論ステップを評価することによって、有望なソリューションとして登場した。
既存のPRMは評価スコアを直接出力し、学習効率と評価精度の両方を制限する。
推論駆動プロセスリワードモデリング(R-PRM)を提案する。
R-PRMは限られたアノテーションからシードデータを生成し、効果的にモデルの推論能力をブートストラップします。
論文 参考訳(メタデータ) (2025-03-27T09:23:08Z) - The Lessons of Developing Process Reward Models in Mathematical Reasoning [62.165534879284735]
Process Reward Models (PRM) は、推論プロセスにおける中間エラーを特定し、緩和することを目的としている。
我々は,モンテカルロ (MC) 推定とLarge Language Models (LLM) を効果的に統合するコンセンサスフィルタリング機構を開発した。
私たちは、既存のオープンソース代替品よりも優れた、最先端のPRMを新たにリリースしています。
論文 参考訳(メタデータ) (2025-01-13T13:10:16Z) - Aligning Model Evaluations with Human Preferences: Mitigating Token Count Bias in Language Model Assessments [2.1370543868467275]
本稿では,大規模言語モデルと人的評価を協調させる手法について検討する。
我々はこのバイアスを定量化するためにベイズ統計とt検定を用い、GPTScorerを調整するための再校正手順を開発した。
以上の結果から,再校正したLCM評価器と,複数のユースケースにおけるヒト評価との整合性は有意に改善した。
論文 参考訳(メタデータ) (2024-07-05T09:26:40Z) - Eliminating Position Bias of Language Models: A Mechanistic Approach [119.34143323054143]
位置バイアスは現代言語モデル (LM) の一般的な問題であることが証明されている。
我々の力学解析は、ほぼ全ての最先端のLMで使われている2つのコンポーネント(因果的注意と相対的位置エンコーディング)に位置バイアスが関係している。
位置バイアスを排除することによって、LM-as-a-judge、検索強化QA、分子生成、数学推論など、下流タスクのパフォーマンスと信頼性が向上する。
論文 参考訳(メタデータ) (2024-07-01T09:06:57Z) - MR-Ben: A Meta-Reasoning Benchmark for Evaluating System-2 Thinking in LLMs [55.20845457594977]
大規模言語モデル(LLM)は、問題解決と意思決定の能力の向上を示している。
本稿ではメタ推論技術を必要とするプロセスベースのベンチマークMR-Benを提案する。
メタ推論のパラダイムは,システム2のスロー思考に特に適しています。
論文 参考訳(メタデータ) (2024-06-20T03:50:23Z) - A First Look at Fairness of Machine Learning Based Code Reviewer
Recommendation [14.50773969815661]
本稿では,ソフトウェア工学(SE)分野におけるMLアプリケーションの公平性に関する最初の研究を行う。
我々の実証研究は、現在最先端のMLベースのコードレビュアーレコメンデーション技術が不公平で差別的な行動を示すことを示している。
本稿では,MLベースのコードレビュアレコメンデーションシステムが不公平である理由についても論じ,不公平を緩和するための解決策を提供する。
論文 参考訳(メタデータ) (2023-07-21T01:57:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。