論文の概要: Using Machine Intelligence to Prioritise Code Review Requests
- arxiv url: http://arxiv.org/abs/2102.05916v1
- Date: Thu, 11 Feb 2021 10:04:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-12 14:08:17.027544
- Title: Using Machine Intelligence to Prioritise Code Review Requests
- Title(参考訳): マシンインテリジェンスを使ってコードレビューの要求を優先する
- Authors: Nishrith Saini and Ricardo Britto
- Abstract要約: 我々はEricssonで、コードレビュー要求を優先するPineappleと呼ばれるツールの開発を目的とした、産業ケーススタディを実施しました。
その結果,パイナップルの有能な予測性能(RMSE = 0.21, MAE = 0.15)が示唆された。
Pineappleのユーザの82.6%は、信頼できる結果を提供することで、コードレビュー要求の優先順位付けをサポートできると考えている。
ユーザの56.5%は、コードレビューのリードタイムの短縮に役立つと考えている。
- 参考スコア(独自算出の注目度): 1.827510863075184
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern Code Review (MCR) is the process of reviewing new code changes that
need to be merged with an existing codebase. As a developer, one may receive
many code review requests every day, i.e., the review requests need to be
prioritised. Manually prioritising review requests is a challenging and
time-consuming process. To address the above problem, we conducted an
industrial case study at Ericsson aiming at developing a tool called Pineapple,
which uses a Bayesian Network to prioritise code review requests. To validate
our approach/tool, we deployed it in a live software development project at
Ericsson, wherein more than 150 developers develop a telecommunication product.
We focused on evaluating the predictive performance, feasibility, and
usefulness of our approach. The results indicate that Pineapple has competent
predictive performance (RMSE = 0.21 and MAE = 0.15). Furthermore, around 82.6%
of Pineapple's users believe the tool can support code review request
prioritisation by providing reliable results, and around 56.5% of the users
believe it helps reducing code review lead time. As future work, we plan to
evaluate Pineapple's predictive performance, usefulness, and feasibility
through a longitudinal investigation.
- Abstract(参考訳): Modern Code Review (MCR)は、既存のコードベースとマージする必要がある新しいコード変更をレビューするプロセスである。
開発者として、毎日多くのコードレビューリクエストを受け取り、すなわち、レビュー要求を優先順位付けする必要がある。
手作業によるレビュー要求の優先順位付けは困難で時間を要するプロセスです。
上記の問題に対処するため,我々は,コードレビュー要求の優先順位付けにベイズネットワークを使用するpineappleというツールの開発を目的としたericssonの産業ケーススタディを実施した。
私たちのアプローチ/ツールを検証するために、私たちはそれをEricssonのライブソフトウェア開発プロジェクトにデプロイしました。
我々は, 予測性能, 実現可能性, 有用性を評価することに焦点を当てた。
結果は、パイナップルが有能な予測性能(RMSE = 0.21およびMAE = 0.15)を有することを示している。
さらに、pineappleユーザーの82.6%は、信頼できる結果を提供することで、このツールがコードレビュー要求の優先順位付けをサポートできると信じており、56.5%は、コードレビューのリードタイムを減らすのに役立つと考えている。
今後の研究として, ピネアップルの予測性能, 有用性, 実現可能性について, 縦断調査により検討する。
関連論文リスト
- Understanding Code Understandability Improvements in Code Reviews [79.16476505761582]
GitHub上のJavaオープンソースプロジェクトからの2,401のコードレビューコメントを分析した。
改善提案の83.9%が承認され、統合され、1%未満が後に復活した。
論文 参考訳(メタデータ) (2024-10-29T12:21:23Z) - Knowledge-Guided Prompt Learning for Request Quality Assurance in Public Code Review [15.019556560416403]
Public Code Review(PCR)は、開発チームの内部コードレビューのアシスタントである。
本稿では,開発者によるコードレビュー要求品質保証を実現するために,公開コードレビューのための知識指導型プロンプト学習を提案する。
論文 参考訳(メタデータ) (2024-10-29T02:48:41Z) - Codev-Bench: How Do LLMs Understand Developer-Centric Code Completion? [60.84912551069379]
Code-Development Benchmark (Codev-Bench)は、細粒度で現実世界、リポジトリレベル、開発者中心の評価フレームワークです。
Codev-Agentは、リポジトリのクローリングを自動化し、実行環境を構築し、既存のユニットテストから動的呼び出しチェーンを抽出し、データ漏洩を避けるために新しいテストサンプルを生成するエージェントベースのシステムである。
論文 参考訳(メタデータ) (2024-10-02T09:11:10Z) - What If We Had Used a Different App? Reliable Counterfactual KPI Analysis in Wireless Systems [52.499838151272016]
本稿では、無線アクセスネットワーク(RAN)によって異なるアプリが実装された場合、キーパフォーマンス指標(KPI)の値を推定する「What-if」問題に対処する。
本稿では,推定値に対して信頼度の高い「エラーバー」を提供する無線システムに対する共形予測に基づく対実解析手法を提案する。
論文 参考訳(メタデータ) (2024-09-30T18:47:26Z) - Predicting Expert Evaluations in Software Code Reviews [8.012861163935904]
本稿では,その複雑さや主観性から回避されるコードレビューの側面を自動化するアルゴリズムモデルを提案する。
手作業によるレビューを置き換える代わりに、私たちのモデルは、レビュアーがより影響力のあるタスクに集中するのに役立つ洞察を追加します。
論文 参考訳(メタデータ) (2024-09-23T16:01:52Z) - Team-related Features in Code Review Prediction Models [10.576931077314887]
コードオーナシップ、ワークロード、チーム関係に関連する機能の予測能力を評価します。
結果から,コードオーナシップに関連する機能が最も優れた予測能力を持つことが示唆された。
提案されたすべての機能とコード行を合わせることで、レビュアーの参加とフィードバックの量の両方に最適な予測ができると結論付けます。
論文 参考訳(メタデータ) (2023-12-11T09:30:09Z) - ReviewRanker: A Semi-Supervised Learning Based Approach for Code Review
Quality Estimation [0.6895577977557867]
レビュープロセスの有効性と継続的改善の検査は、開発生産性を高めることができる。
本稿では,各コードレビューに信頼性スコアを割り当てることを目的とした,半教師付き学習システムであるReviewRankerを提案する。
提案手法は,開発者が提供したシンプルで明確なラベルに基づいて訓練される。
論文 参考訳(メタデータ) (2023-07-08T15:37:48Z) - Predicting Code Review Completion Time in Modern Code Review [12.696276129130332]
Modern Code Review (MCR)は、オープンソースと商用の両方で共通のプラクティスとして採用されている。
コードレビューは、様々な社会的技術的要因のために完了するのにかなりの遅延を経験することができる。
コードレビューの完了に必要な時間を見積もるためのツールサポートが不足している。
論文 参考訳(メタデータ) (2021-09-30T14:00:56Z) - Measuring Coding Challenge Competence With APPS [54.22600767666257]
コード生成のベンチマークであるAPPSを紹介する。
私たちのベンチマークには1万の問題が含まれています。
GPT-Neoのような最近のモデルでは、導入問題のテストケースの約15%をパスできる。
論文 参考訳(メタデータ) (2021-05-20T17:58:42Z) - Emerging App Issue Identification via Online Joint Sentiment-Topic
Tracing [66.57888248681303]
本稿では,MERITという新しい問題検出手法を提案する。
AOBSTモデルに基づいて、1つのアプリバージョンに対するユーザレビューに否定的に反映されたトピックを推測する。
Google PlayやAppleのApp Storeで人気のアプリに対する実験は、MERITの有効性を実証している。
論文 参考訳(メタデータ) (2020-08-23T06:34:05Z) - Automating App Review Response Generation [67.58267006314415]
本稿では,レビューと回答の知識関係を学習することで,レビュー応答を自動的に生成する新しいアプローチRRGenを提案する。
58のアプリと309,246のレビュー-レスポンスペアの実験では、RRGenはBLEU-4の点で少なくとも67.4%のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-02-10T05:23:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。