論文の概要: The Corrective Commit Probability Code Quality Metric
- arxiv url: http://arxiv.org/abs/2007.10912v1
- Date: Tue, 21 Jul 2020 16:04:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 05:42:25.907053
- Title: The Corrective Commit Probability Code Quality Metric
- Title(参考訳): 訂正的コミット確率コード品質指標
- Authors: Idan Amit and Dror G. Feitelson
- Abstract要約: コード品質指標であるCCP(Corrective Commit Probability)を提案する。
CCPはコミットが修正保守を反映する確率を測定する。
この基準は、開発者の品質、情報、安定性の概念と一致していることを示す。
- 参考スコア(独自算出の注目度): 0.913755431537592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a code quality metric, Corrective Commit Probability (CCP),
measuring the probability that a commit reflects corrective maintenance. We
show that this metric agrees with developers' concept of quality, informative,
and stable. Corrective commits are identified by applying a linguistic model to
the commit messages. Corrective commits are identified by applying a linguistic
model to the commit messages. We compute the CCP of all large active GitHub
projects (7,557 projects with at least 200 commits in 2019). This leads to the
creation of a quality scale, suggesting that the bottom 10% of quality projects
spend at least 6 times more effort on fixing bugs than the top 10%. Analysis of
project attributes shows that lower CCP (higher quality) is associated with
smaller files, lower coupling, use of languages like JavaScript and C# as
opposed to PHP and C++, fewer developers, lower developer churn, better
onboarding, and better productivity. Among other things these results support
the "Quality is Free" claim, and suggest that achieving higher quality need not
require higher expenses.
- Abstract(参考訳): 我々は,コミットが補正的メンテナンスを反映する確率を測定するccp(precisive commit probability)というコード品質指標を提案する。
この基準は開発者の品質、情報、安定性の概念と一致している。
訂正コミットはコミットメッセージに言語モデルを適用することで識別される。
訂正コミットはコミットメッセージに言語モデルを適用することで識別される。
私たちは、すべての大規模なgithubプロジェクト(2019年に少なくとも200コミットの7,557プロジェクト)のccpを計算しています。
これにより、品質のスケールが作成され、品質プロジェクトの下位10%が、上位10%よりもバグの修正に少なくとも6倍の労力を費やすことが示唆される。
プロジェクト属性の分析によると、低いCCP(高品質)は、小さなファイル、低い結合、PHPやC++とは対照的にJavaScriptやC#のような言語の使用、開発者の減少、開発者の混乱、より良いオンボーディング、生産性に結びついている。
これらの結果は“Quality is Free”の主張を支持し、より高い品質を達成するためには高いコストを必要としないことを示唆している。
関連論文リスト
- Leveraging Large Language Models for Efficient Failure Analysis in Game Development [47.618236610219554]
本稿では,テストの失敗の原因となるコードの変更を自動的に識別する手法を提案する。
このメソッドは、LLM(Large Language Models)を利用して、エラーメッセージと対応するコード変更を関連付ける。
当社のアプローチは新たに作成したデータセットで71%の精度に達しています。
論文 参考訳(メタデータ) (2024-06-11T09:21:50Z) - Developers' Perception: Fixed Bugs Often Overlooked as Quality Contributions [0.0]
より高い品質を示すものとしてリポジトリで発見されたり修正されたりしたバグを認識しているのは、プログラマの3分の1に過ぎない。
この発見は、プログラマがテストとバグレポートの重要性を誤解することが多いという考えを裏付けるものだ。
論文 参考訳(メタデータ) (2024-03-16T04:40:19Z) - CommitBench: A Benchmark for Commit Message Generation [22.03783968903916]
既存のデータセットはコミット選択の品質など,さまざまな問題を示す。
新しい大規模データセットであるCommitBenchをコンパイルし、データセット作成のベストプラクティスを採用しています。
私たちはCommitBenchを使って既存のモデルを比較し、他のアプローチがソースコードで事前訓練されたTransformerモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-08T09:56:45Z) - Quality-Aware Translation Models: Efficient Generation and Quality Estimation in a Single Model [77.19693792957614]
そこで我々は,ニューラルネットワーク翻訳(NMT)モデルを用いて,その品質を学習し,その品質を推定する手法を提案する。
我々は、単一パスの復号化の効率性よりも、品質向上や品質改善のアプローチよりも優れた品質向上を得る。
論文 参考訳(メタデータ) (2023-10-10T15:33:51Z) - Frustrated with Code Quality Issues? LLMs can Help! [7.67768651817923]
静的解析ツールは、コード品質の問題にフラグを付けるために開発者に使われます。
開発者は、ツールの発見に基づいてコード品質を改善するために、コードを修正するために余分な労力を費やす必要がある。
コード品質の問題を解決するためのコード修正を支援するツールであるCORE(COde Revisionsの略)を提案する。
論文 参考訳(メタデータ) (2023-09-22T15:37:07Z) - Who is the Real Hero? Measuring Developer Contribution via
Multi-dimensional Data Integration [8.735393610868435]
開発者のコントリビューションを測定するための多次元情報融合に基づくアプローチであるCValueを提案する。
CValueは4次元のソースコードから構文情報と意味情報を抽出する。
プロジェクト内の各コミットに対するコントリビューションスコアを生成するために、情報をフューズする。
論文 参考訳(メタデータ) (2023-08-17T13:57:44Z) - From Commit Message Generation to History-Aware Commit Message
Completion [49.175498083165884]
コミットメッセージ生成からコミットメッセージ補完に焦点を移すことができれば、結果のコミットメッセージの品質と個人的な性質を大幅に改善できる、と私たちは論じています。
既存のデータセットには履歴データがないため、20のプログラミング言語で107万のコミットを含むCommitChronicleと呼ばれる新しいデータセットを収集、共有しています。
以上の結果から,コミットメッセージ補完は生成よりも優れた結果を示し,一般的にはGPT-3.5-turboはより悪い性能を示すが,長大かつ詳細なメッセージの可能性を示唆している。
論文 参考訳(メタデータ) (2023-08-15T09:10:49Z) - Teaching Large Language Models to Self-Debug [62.424077000154945]
大規模言語モデル(LLM)は、コード生成において素晴らしいパフォーマンスを達成した。
本稿では,大規模言語モデルで予測プログラムを数発のデモでデバッグする自己デバッグを提案する。
論文 参考訳(メタデータ) (2023-04-11T10:43:43Z) - Using Developer Discussions to Guide Fixing Bugs in Software [51.00904399653609]
我々は,タスク実行前に利用可能であり,また自然発生しているバグレポートの議論を,開発者による追加情報の必要性を回避して利用することを提案する。
このような議論から派生したさまざまな自然言語コンテキストがバグ修正に役立ち、オラクルのバグ修正コミットに対応するコミットメッセージの使用よりもパフォーマンスの向上につながることを実証する。
論文 参考訳(メタデータ) (2022-11-11T16:37:33Z) - Break-It-Fix-It: Unsupervised Learning for Program Repair [90.55497679266442]
我々は2つの重要なアイデアを持つ新しいトレーニング手法であるBreak-It-Fix-It (BIFI)を提案する。
批判者は、実際の悪い入力でフィクスダーの出力をチェックし、トレーニングデータに良い(固定された)出力を追加する。
これらのアイデアに基づいて、よりペア化されたデータを生成するために、ブレーカとフィクスチャを同時に使用しながら、繰り返し更新する。
BIFIは既存のメソッドより優れており、GitHub-Pythonで90.5%、DeepFixで71.7%の修正精度がある。
論文 参考訳(メタデータ) (2021-06-11T20:31:04Z) - Using Source Code Density to Improve the Accuracy of Automatic Commit
Classification into Maintenance Activities [7.53201324244815]
コミットのネットサイズを測るソースコード密度を導入し、自動コミット分類の精度を向上させる方法を示す。
1つのプロジェクトでモデルをトレーニングし、他のプロジェクトに適用するクロスプロジェクトコミット分類では、最大89%の精度と0.82のKappaを達成します。
論文 参考訳(メタデータ) (2020-05-28T11:05:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。