論文の概要: Examining Ownership Models in Software Teams: A Systematic Literature Review and a Replication Study
- arxiv url: http://arxiv.org/abs/2405.15665v1
- Date: Fri, 24 May 2024 16:03:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-27 13:20:55.778553
- Title: Examining Ownership Models in Software Teams: A Systematic Literature Review and a Replication Study
- Title(参考訳): ソフトウェアチームにおけるオーナシップモデルの検討 - 体系的文献レビューとレプリケーションスタディ
- Authors: Umme Ayman Koana, Quang Hy Le, Shadikur Rahman, Chris Carlson, Francis Chew, Maleknaz Nayebi,
- Abstract要約: 2005年から2022年にかけて発行された79の関連論文を特定した。
我々は、タイプ、所有者、所有権度に基づく所有権のアーティファクトの分類を開発する。
- 参考スコア(独自算出の注目度): 2.0891120283967264
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effective ownership of software artifacts, particularly code, is crucial for accountability, knowledge sharing, and code quality enhancement. Researchers have proposed models linking ownership of software artifacts with developer performance and code quality. Our study aims to systematically examine various ownership models and provide a structured literature overview. Conducting a systematic literature review, we identified 79 relevant papers published between 2005 and 2022. We developed a taxonomy of ownership artifacts based on type, owners, and degree of ownership, along with compiling modeling variables and analytics types used in each study. Additionally, we assessed the replication status of each study. As a result, we identified nine distinct software artifacts whose ownership has been discussed in the literature, with "Code" being the most frequently analyzed artifact. We found that only three papers (3.79%) provided code and data, whereas nine papers (11.4%) provided only data. Using our systematic literature review results, we replicated experiments on nine priority projects at \texttt{Brightsquid}. The company aimed to compare its code quality against ownership factors in other teams, so we conducted a replication study using their data. Unlike prior studies, we found no strong correlation between minor contributors and bug numbers. Surprisingly, we found no strong link between the total number of developers modifying a file and bug counts, contrasting previous findings. However, we observed a significant correlation between major contributors and bug counts, diverging from earlier research.
- Abstract(参考訳): ソフトウェアアーティファクトの効果的なオーナシップ、特にコードは、説明責任、知識共有、コード品質の向上に不可欠です。
ソフトウェアアーティファクトのオーナシップと開発者のパフォーマンスとコード品質を結びつけるモデルが提案されている。
本研究の目的は,様々なオーナシップモデルを体系的に検討し,構造化された文献概要を提供することである。
2005年から2022年にかけて、系統的な文献レビューを行い、79の関連論文を同定した。
我々は,各研究で用いたモデル変数と分析型をコンパイルし,タイプ,所有者,所有権度に基づいて,所有権のアーティファクトの分類法を開発した。
さらに, 各研究の複製状況についても検討した。
その結果、文献で議論されている9つの異なるソフトウェアアーティファクトを特定し、「コード」が最も頻繁に分析されたアーティファクトとした。
3つの論文(3.79%)がコードとデータを提供しており、9つの論文(11.4%)がデータのみを提供していた。
文献の体系的なレビュー結果を用いて,9つの優先プロジェクトについて実験を再現した。
同社は、コード品質を他のチームのオーナシップ要因と比較することを目的として、彼らのデータを使用したレプリケーション調査を実施しました。
以前の研究とは異なり、小さなコントリビュータとバグ番号の間には、強い相関関係はありませんでした。
驚いたことに、以前の結果とは対照的に、ファイルを変更する開発者の総数とバグ数との間には、強い関連性はありませんでした。
しかし,従来の研究から分岐して,主要なコントリビュータとバグ数との間に有意な相関関係がみられた。
関連論文リスト
- Are Large Language Models Good Classifiers? A Study on Edit Intent Classification in Scientific Document Revisions [62.12545440385489]
大規模言語モデル(LLM)は、テキスト生成の大幅な進歩をもたらしたが、分類タスクの強化の可能性はまだ未検討である。
生成と符号化の両方のアプローチを含む分類のための微調整LDMを徹底的に研究するためのフレームワークを提案する。
我々はこのフレームワークを編集意図分類(EIC)においてインスタンス化する。
論文 参考訳(メタデータ) (2024-10-02T20:48:28Z) - Code Ownership: The Principles, Differences, and Their Associations with Software Quality [6.123324869194196]
本稿では,開発者の集合,コードオーナシップの近似値,専門性レベルの観点から,一般的に使用されているオーナシップの近似の相違について検討する。
コミットベースのオーナシップとラインベースのオーナシップの近似は、さまざまな開発者のセット、コードのオーナシップの値、さまざまな主要な開発者のセットを生成します。
論文 参考訳(メタデータ) (2024-08-23T03:01:59Z) - AuthAttLyzer-V2: Unveiling Code Authorship Attribution using Enhanced Ensemble Learning Models & Generating Benchmark Dataset [0.0]
Source Code Authorship Attribution (SCAA)は、ソフトウェアの起源と振舞いに関する洞察を提供するため、ソフトウェア分類に不可欠である。
本稿では,SCAAのための新しいソースコード特徴抽出器であるAuthAttLyzer-V2について述べる。
論文 参考訳(メタデータ) (2024-06-28T13:04:16Z) - Chain-of-Factors Paper-Reviewer Matching [32.86512592730291]
本稿では,意味的・話題的・引用的要因を協調的に考慮した,論文レビューアマッチングのための統一モデルを提案する。
提案したChain-of-Factorsモデルの有効性を,最先端のペーパー-リビューアマッチング手法と科学的事前学習言語モデルと比較した。
論文 参考訳(メタデータ) (2023-10-23T01:29:18Z) - Analyzing Dataset Annotation Quality Management in the Wild [63.07224587146207]
最先端モデルのトレーニングと評価に使用される一般的なデータセットでさえ、誤ったアノテーションやバイアス、アーティファクトの量は無視できない。
データセット作成プロジェクトに関するプラクティスやガイドラインは存在するが、品質管理の実施方法に関する大規模な分析はまだ行われていない。
論文 参考訳(メタデータ) (2023-07-16T21:22:40Z) - Same or Different? Diff-Vectors for Authorship Analysis [78.83284164605473]
古典的な著作物分析において、特徴ベクトルは文書を表し、特徴の値は文書中の特徴の相対周波数(関数の増大)を表し、クラスラベルは文書の著者を表す。
筆者らの実験は共著者検証,著者検証,クローズドセットの著者帰属に取り組んでおり,DVは自然に第1の問題を解くのに向いているが,第2と第3の問題を解くための2つの新しい方法も提供している。
論文 参考訳(メタデータ) (2023-01-24T08:48:12Z) - Cracking Double-Blind Review: Authorship Attribution with Deep Learning [43.483063713471935]
本稿では、匿名の原稿を著者に属性付けるトランスフォーマーベースのニューラルネットワークアーキテクチャを提案する。
我々は、arXivで公開されているすべての研究論文を200万冊以上の原稿に活用する。
本手法は, 論文の最大73%を正解する, 前代未聞の著者帰属精度を実現する。
論文 参考訳(メタデータ) (2022-11-14T15:50:24Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Assaying Out-Of-Distribution Generalization in Transfer Learning [103.57862972967273]
私たちは、経験的に対処するメッセージの相違を強調して、以前の作業の統一的なビューを取ります。
私たちは9つの異なるアーキテクチャから、多数の、あるいは少数の設定で31K以上のネットワークを微調整しました。
論文 参考訳(メタデータ) (2022-07-19T12:52:33Z) - What's New? Summarizing Contributions in Scientific Literature [85.95906677964815]
本稿では,論文のコントリビューションと作業状況について,個別の要約を生成するために,論文要約のアンタングル化という新たなタスクを導入する。
本稿では,学術論文のS2ORCコーパスを拡張し,コントリビューション・コントリビューション・コントリビューション・レファレンス・ラベルを付加する。
本稿では, 生成した出力の関連性, 新規性, 絡み合いを報告する総合的自動評価プロトコルを提案する。
論文 参考訳(メタデータ) (2020-11-06T02:23:01Z) - CORAL: COde RepresentAtion Learning with Weakly-Supervised Transformers
for Analyzing Data Analysis [33.190021245507445]
ソースコード、特に科学的なソースコードの大規模解析は、データサイエンスのプロセスをよりよく理解する約束を持っている。
本稿では,抽象構文木と周辺自然言語コメントからコードの共同表現を計算するための,弱い教師付きトランスフォーマーベースのアーキテクチャを提案する。
本モデルでは,手軽に手軽に管理できる弱さを生かし,専門家による供給よりも38%の精度向上を実現し,ベースラインを上回ります。
論文 参考訳(メタデータ) (2020-08-28T19:57:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。