論文の概要: Using Knowledge Units of Programming Languages to Recommend Reviewers
for Pull Requests: An Empirical Study
- arxiv url: http://arxiv.org/abs/2305.05654v1
- Date: Tue, 9 May 2023 17:50:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 09:15:16.656099
- Title: Using Knowledge Units of Programming Languages to Recommend Reviewers
for Pull Requests: An Empirical Study
- Title(参考訳): プログラミング言語の知識単位を用いてプルリクエストのレビュアーを推薦する:実証的研究
- Authors: Md Ahasanuzzaman, Gustavo A. Oliva and Ahmed E. Hassan
- Abstract要約: 我々は、プログラミング言語の知識単位(KU)を操作するコードレビュアレコメンデータを設計する。
GitHubからアクティブにメンテナンスされている10のJavaプロジェクトからKUを検出し、290Kコミットと65Kプルリクエスト(PR)にまたがる。
RQ1では、KURECは最高性能のベースラインレコメンデータ(RF)と同様に機能する。
- 参考スコア(独自算出の注目度): 4.1405339591694075
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Code review is a key element of quality assurance in software development.
Determining the right reviewer for a given code change requires understanding
the characteristics of the changed code, identifying the skills of each
potential reviewer (expertise profile), and finding a good match between the
two. To facilitate this task, we design a code reviewer recommender that
operates on the knowledge units (KUs) of a programming language. We define a KU
as a cohesive set of key capabilities that are offered by one or more building
blocks of a given programming language. We operationalize our KUs using
certification exams for the Java programming language. We detect KUs from 10
actively maintained Java projects from GitHub, spanning 290K commits and 65K
pull requests (PRs). Next, we generate developer expertise profiles based on
the detected KUs. Finally, these KU-based expertise profiles are used to build
a code reviewer recommender (KUREC). In RQ1, we observe that KUREC performs as
well as the top-performing baseline recommender (RF). From a practical
standpoint, we highlight that KUREC's performance is more stable (lower
interquartile range) than that of RF, thus making it more consistent and
potentially more trustworthy. Next, in RQ2 we design three new recommenders by
combining KUREC with our baseline recommenders. These new combined recommenders
outperform both KUREC and the individual baselines. Finally, in RQ3 we evaluate
how reasonable the recommendations from KUREC and the combined recommenders are
when those deviate from the ground truth. Taking together the results from all
RQs, we conclude that KUREC and one of the combined recommenders (AD_FREQ) are
overall superior to the baseline recommenders that we studied. Future work in
the area should thus (i) consider KU-based recommenders as baselines and (ii)
experiment with combined recommenders.
- Abstract(参考訳): コードレビューは、ソフトウェア開発における品質保証の重要な要素です。
与えられたコード変更に対する適切なレビュアーを決定するには、変更したコードの特徴を理解し、潜在的なレビュアー(専門家プロファイル)のスキルを特定し、両者の適切な一致を見つける必要がある。
この作業を容易にするために,プログラミング言語の知識単位(KU)で動作するコードレビュアレコメンデータを設計する。
我々は、あるプログラミング言語の1つ以上のビルディングブロックによって提供される重要な機能の集合としてKUを定義する。
Java プログラミング言語の認定試験を使って KU を運用しています。
githubからアクティブにメンテナンスされた10のjavaプロジェクトからkusを検出し、290kコミットと65kプルリクエスト(prs)にまたがる。
次に、検出されたkusに基づいて、開発者専門知識プロファイルを作成する。
最後に、これらのKUベースの専門プロファイルを使用して、コードレビュアレコメンデータ(KUREC)を構築する。
RQ1では、KURECは最高性能のベースラインレコメンデータ(RF)と同様に機能する。
実用的な観点からは、kurecのパフォーマンスはrfよりも安定している(低四分位域)ため、より一貫性があり、潜在的に信頼性が高いことを強調する。
次に、RQ2では、KURECとベースラインレコメンデータを組み合わせて、3つの新しいレコメンデータを設計します。
これらの新しい組み合わせレコメンデーターは、KURECと個々のベースラインの両方を上回っている。
最後に、RQ3において、KURECとコメンデーターの組み合わせによる推奨が、根本から逸脱した時にどれほど妥当かを評価する。
すべてのRQの結果をまとめて、KURECと複合推薦者(AD_FREQ)は、私たちが研究したベースライン推薦者よりも総合的に優れていると結論づける。
そのため、地域における今後の仕事
(i)KUベースのレコメンデーターをベースラインとみなし、
(二)複合推薦者による実験。
関連論文リスト
- Knowledge-Guided Prompt Learning for Request Quality Assurance in Public Code Review [15.019556560416403]
Public Code Review(PCR)は、開発チームの内部コードレビューのアシスタントである。
本稿では,開発者によるコードレビュー要求品質保証を実現するために,公開コードレビューのための知識指導型プロンプト学習を提案する。
論文 参考訳(メタデータ) (2024-10-29T02:48:41Z) - CURE4Rec: A Benchmark for Recommendation Unlearning with Deeper Influence [55.21518669075263]
CURE4Recは、レコメンデーションアンラーニング評価のための最初の包括的なベンチマークである。
さまざまな影響レベルのデータに対する推薦公正性と堅牢性に対するアンラーニングの影響について検討する。
論文 参考訳(メタデータ) (2024-08-26T16:21:50Z) - An Ordinal Regression Framework for a Deep Learning Based Severity
Assessment for Chest Radiographs [50.285682227571996]
本稿では,順序回帰問題をモデル,対象関数,分類関数の3つの部分に分割する枠組みを提案する。
符号化の選択が性能に強く影響し,コーエンのカッパの選択重み付けに依存することを示す。
論文 参考訳(メタデータ) (2024-02-08T14:00:45Z) - Code Reviewer Recommendation Based on a Hypergraph with Multiplex
Relationships [30.74556500021384]
多重関係を持つハイパーグラフを利用する新しいコードレビュアレコメンデーション手法であるMIRRecを提案する。
MIRRecは、プルリクエストと開発者の間で、学位なしのハイパーエッジを使用して、従来のペアワイズ接続を超える高次相関をエンコードする。
MIRRecの有効性を検証するために、GitHubにホストされている10の人気のあるオープンソースプロジェクトからの48,374のプルリクエストからなるデータセットを用いて実験を行った。
論文 参考訳(メタデータ) (2024-01-19T15:25:14Z) - RECipe: Does a Multi-Modal Recipe Knowledge Graph Fit a Multi-Purpose
Recommendation System? [2.969705152497174]
本稿では多目的レシピレコメンデーションフレームワークとしてRECipeを紹介する。
RECipeは,(1)行動ベースレコメンデータ,(2)レビューベースレコメンデータ,(3)画像ベースレコメンデータの3つのサブシステムから構成される。
論文 参考訳(メタデータ) (2023-08-08T20:54:59Z) - What Makes a Code Review Useful to OpenDev Developers? An Empirical
Investigation [4.061135251278187]
コードレビューの有効性が少し改善されても、ソフトウェア開発組織にとってかなりの節約が得られます。
本研究の目的は,コードレビューコメントをOSS開発者に有用なものにする方法を,より精細に理解することである。
論文 参考訳(メタデータ) (2023-02-22T22:48:27Z) - Recommendation Systems with Distribution-Free Reliability Guarantees [83.80644194980042]
我々は、主に良いアイテムを含むことを厳格に保証されたアイテムのセットを返す方法を示す。
本手法は, 擬似発見率の厳密な有限サンプル制御によるランキングモデルを提供する。
我々はYahoo!のランキングとMSMarcoデータセットの学習方法を評価する。
論文 参考訳(メタデータ) (2022-07-04T17:49:25Z) - Using Large-scale Heterogeneous Graph Representation Learning for Code
Review Recommendations [7.260832843615661]
我々は、レビュアーレコメンデーションのための新しいアプローチであるCoRALを提示する。
私たちは、リッチなエンティティセットから構築された社会技術的グラフを使用します。
我々は,コラルがレビュアー選択のマニュアル履歴を極めてうまくモデル化できることを示した。
論文 参考訳(メタデータ) (2022-02-04T20:58:54Z) - CoSQA: 20,000+ Web Queries for Code Search and Question Answering [63.92224685262063]
CoSQAデータセットには、自然言語クエリとコードのペア用の20,604ラベルが含まれている。
本稿では,クエリコードマッチングを強化するために,CoCLRと呼ばれる対照的な学習手法を提案する。
我々は,CodeXGLUEを同じCodeBERTモデルで評価し,CoSQAのトレーニングにより,コード質問応答の精度が5.1%向上したことを示す。
論文 参考訳(メタデータ) (2021-05-27T15:37:21Z) - Information Directed Reward Learning for Reinforcement Learning [64.33774245655401]
我々は、標準rlアルゴリズムが可能な限り少数の専門家クエリで高い期待値を達成することができる報酬関数のモデルを学ぶ。
特定のタイプのクエリ用に設計された以前のアクティブな報酬学習方法とは対照的に、IDRLは自然に異なるクエリタイプに対応します。
我々は,複数の環境における広範囲な評価と,異なるタイプのクエリでこの結果を支持する。
論文 参考訳(メタデータ) (2021-02-24T18:46:42Z) - KQA Pro: A Dataset with Explicit Compositional Programs for Complex
Question Answering over Knowledge Base [67.87878113432723]
複雑KBQAのためのデータセットであるKQA Proを紹介する。
各質問に対して、対応するKoPLプログラムとSPARQLクエリを提供するので、KQA ProはKBQAとセマンティック解析の両方に役立ちます。
論文 参考訳(メタデータ) (2020-07-08T03:28:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。