論文の概要: Using Machine Intelligence to Prioritise Code Review Requests
- arxiv url: http://arxiv.org/abs/2102.05916v1
- Date: Thu, 11 Feb 2021 10:04:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-12 14:08:17.027544
- Title: Using Machine Intelligence to Prioritise Code Review Requests
- Title(参考訳): マシンインテリジェンスを使ってコードレビューの要求を優先する
- Authors: Nishrith Saini and Ricardo Britto
- Abstract要約: 我々はEricssonで、コードレビュー要求を優先するPineappleと呼ばれるツールの開発を目的とした、産業ケーススタディを実施しました。
その結果,パイナップルの有能な予測性能(RMSE = 0.21, MAE = 0.15)が示唆された。
Pineappleのユーザの82.6%は、信頼できる結果を提供することで、コードレビュー要求の優先順位付けをサポートできると考えている。
ユーザの56.5%は、コードレビューのリードタイムの短縮に役立つと考えている。
- 参考スコア(独自算出の注目度): 1.827510863075184
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern Code Review (MCR) is the process of reviewing new code changes that
need to be merged with an existing codebase. As a developer, one may receive
many code review requests every day, i.e., the review requests need to be
prioritised. Manually prioritising review requests is a challenging and
time-consuming process. To address the above problem, we conducted an
industrial case study at Ericsson aiming at developing a tool called Pineapple,
which uses a Bayesian Network to prioritise code review requests. To validate
our approach/tool, we deployed it in a live software development project at
Ericsson, wherein more than 150 developers develop a telecommunication product.
We focused on evaluating the predictive performance, feasibility, and
usefulness of our approach. The results indicate that Pineapple has competent
predictive performance (RMSE = 0.21 and MAE = 0.15). Furthermore, around 82.6%
of Pineapple's users believe the tool can support code review request
prioritisation by providing reliable results, and around 56.5% of the users
believe it helps reducing code review lead time. As future work, we plan to
evaluate Pineapple's predictive performance, usefulness, and feasibility
through a longitudinal investigation.
- Abstract(参考訳): Modern Code Review (MCR)は、既存のコードベースとマージする必要がある新しいコード変更をレビューするプロセスである。
開発者として、毎日多くのコードレビューリクエストを受け取り、すなわち、レビュー要求を優先順位付けする必要がある。
手作業によるレビュー要求の優先順位付けは困難で時間を要するプロセスです。
上記の問題に対処するため,我々は,コードレビュー要求の優先順位付けにベイズネットワークを使用するpineappleというツールの開発を目的としたericssonの産業ケーススタディを実施した。
私たちのアプローチ/ツールを検証するために、私たちはそれをEricssonのライブソフトウェア開発プロジェクトにデプロイしました。
我々は, 予測性能, 実現可能性, 有用性を評価することに焦点を当てた。
結果は、パイナップルが有能な予測性能(RMSE = 0.21およびMAE = 0.15)を有することを示している。
さらに、pineappleユーザーの82.6%は、信頼できる結果を提供することで、このツールがコードレビュー要求の優先順位付けをサポートできると信じており、56.5%は、コードレビューのリードタイムを減らすのに役立つと考えている。
今後の研究として, ピネアップルの予測性能, 有用性, 実現可能性について, 縦断調査により検討する。
関連論文リスト
- Team-related Features in Code Review Prediction Models [10.576931077314887]
コードオーナシップ、ワークロード、チーム関係に関連する機能の予測能力を評価します。
結果から,コードオーナシップに関連する機能が最も優れた予測能力を持つことが示唆された。
提案されたすべての機能とコード行を合わせることで、レビュアーの参加とフィードバックの量の両方に最適な予測ができると結論付けます。
論文 参考訳(メタデータ) (2023-12-11T09:30:09Z) - Does Code Review Speed Matter for Practitioners? [0.0]
コードベロシティの向上は、さまざまなソフトウェアプロジェクトにとって共通の目標です。
コードベロシティに関連する信念と実践について調査した。
論文 参考訳(メタデータ) (2023-11-04T19:22:23Z) - ReviewRanker: A Semi-Supervised Learning Based Approach for Code Review
Quality Estimation [0.6895577977557867]
レビュープロセスの有効性と継続的改善の検査は、開発生産性を高めることができる。
本稿では,各コードレビューに信頼性スコアを割り当てることを目的とした,半教師付き学習システムであるReviewRankerを提案する。
提案手法は,開発者が提供したシンプルで明確なラベルに基づいて訓練される。
論文 参考訳(メタデータ) (2023-07-08T15:37:48Z) - Improving Text Matching in E-Commerce Search with A Rationalizable,
Intervenable and Fast Entity-Based Relevance Model [78.80174696043021]
エンティティベース関連モデル(EBRM)と呼ばれる新しいモデルを提案する。
この分解により、高精度にクロスエンコーダQE関連モジュールを使用できる。
また、ユーザログから自動生成されたQEデータによるQEモジュールの事前トレーニングにより、全体的なパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-07-01T15:44:53Z) - Using Large-scale Heterogeneous Graph Representation Learning for Code
Review Recommendations [7.260832843615661]
我々は、レビュアーレコメンデーションのための新しいアプローチであるCoRALを提示する。
私たちは、リッチなエンティティセットから構築された社会技術的グラフを使用します。
我々は,コラルがレビュアー選択のマニュアル履歴を極めてうまくモデル化できることを示した。
論文 参考訳(メタデータ) (2022-02-04T20:58:54Z) - Predicting Code Review Completion Time in Modern Code Review [12.696276129130332]
Modern Code Review (MCR)は、オープンソースと商用の両方で共通のプラクティスとして採用されている。
コードレビューは、様々な社会的技術的要因のために完了するのにかなりの遅延を経験することができる。
コードレビューの完了に必要な時間を見積もるためのツールサポートが不足している。
論文 参考訳(メタデータ) (2021-09-30T14:00:56Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - A New Score for Adaptive Tests in Bayesian and Credal Networks [64.80185026979883]
テストは、そのシークエンスと質問数とが、テイカーの推定スキルに基づいて動的に調整されるときに適応する。
後部確率のモードに基づいて、別のスコアの族を提示するので、説明し易い。
論文 参考訳(メタデータ) (2021-05-25T20:35:42Z) - Measuring Coding Challenge Competence With APPS [54.22600767666257]
コード生成のベンチマークであるAPPSを紹介する。
私たちのベンチマークには1万の問題が含まれています。
GPT-Neoのような最近のモデルでは、導入問題のテストケースの約15%をパスできる。
論文 参考訳(メタデータ) (2021-05-20T17:58:42Z) - Emerging App Issue Identification via Online Joint Sentiment-Topic
Tracing [66.57888248681303]
本稿では,MERITという新しい問題検出手法を提案する。
AOBSTモデルに基づいて、1つのアプリバージョンに対するユーザレビューに否定的に反映されたトピックを推測する。
Google PlayやAppleのApp Storeで人気のアプリに対する実験は、MERITの有効性を実証している。
論文 参考訳(メタデータ) (2020-08-23T06:34:05Z) - Automating App Review Response Generation [67.58267006314415]
本稿では,レビューと回答の知識関係を学習することで,レビュー応答を自動的に生成する新しいアプローチRRGenを提案する。
58のアプリと309,246のレビュー-レスポンスペアの実験では、RRGenはBLEU-4の点で少なくとも67.4%のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-02-10T05:23:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。