論文の概要: Using Source Code Density to Improve the Accuracy of Automatic Commit
Classification into Maintenance Activities
- arxiv url: http://arxiv.org/abs/2005.13904v1
- Date: Thu, 28 May 2020 11:05:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-27 05:54:25.762241
- Title: Using Source Code Density to Improve the Accuracy of Automatic Commit
Classification into Maintenance Activities
- Title(参考訳): ソースコード密度を用いた自動コミット分類の保守作業における精度向上
- Authors: Sebastian H\"onel, Morgan Ericsson, Welf L\"owe, Anna Wingkvist
- Abstract要約: コミットのネットサイズを測るソースコード密度を導入し、自動コミット分類の精度を向上させる方法を示す。
1つのプロジェクトでモデルをトレーニングし、他のプロジェクトに適用するクロスプロジェクトコミット分類では、最大89%の精度と0.82のKappaを達成します。
- 参考スコア(独自算出の注目度): 7.53201324244815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Source code is changed for a reason, e.g., to adapt, correct, or adapt it.
This reason can provide valuable insight into the development process but is
rarely explicitly documented when the change is committed to a source code
repository. Automatic commit classification uses features extracted from
commits to estimate this reason.
We introduce source code density, a measure of the net size of a commit, and
show how it improves the accuracy of automatic commit classification compared
to previous size-based classifications. We also investigate how preceding
generations of commits affect the class of a commit, and whether taking the
code density of previous commits into account can improve the accuracy further.
We achieve up to 89% accuracy and a Kappa of 0.82 for the cross-project
commit classification where the model is trained on one project and applied to
other projects. Models trained on single projects yield accuracies of up to 93%
with a Kappa approaching 0.90. The accuracy of the automatic commit
classification has a direct impact on software (process) quality analyses that
exploit the classification, so our improvements to the accuracy will also
improve the confidence in such analyses.
- Abstract(参考訳): ソースコードは、例えば、適応、修正、適応などのために変更される。
この理由は開発プロセスに関する貴重な洞察を提供するが、変更がソースコードリポジトリにコミットされた時に明示的に文書化されることは滅多にない。
自動コミット分類は、この理由を推定するためにコミットから抽出された機能を使用する。
我々は、コミットのネットサイズを測定するソースコード密度を導入し、以前のサイズベースの分類と比較して、コミットの自動分類の精度をいかに改善するかを示す。
また,コミットの前の世代がコミットのクラスに与える影響や,コミットのコード密度を考慮に入れれば,その精度が向上するかどうかについても検討する。
1つのプロジェクトでモデルをトレーニングし、他のプロジェクトに適用するクロスプロジェクトコミット分類において、最大89%の精度と0.82のKappaを達成する。
単一のプロジェクトで訓練されたモデルは最大で93%、カッパは0.90に近づいた。
自動コミット分類の精度は、その分類を利用するソフトウェア(プロセス)の品質分析に直接的な影響を与えるので、精度の改善もその分析の信頼性を向上させることができる。
関連論文リスト
- Refactoring-aware Block Tracking in Commit History [1.8352113484137624]
CodeTrackerは、コードブロックのコミット変更履歴を生成できるオラクル対応ツールである。
実験の結果,CodeTrackerはGumTreeベースのベースラインよりも精度が高く,実行時間が速いことがわかった。
論文 参考訳(メタデータ) (2024-09-24T15:33:39Z) - Adaptive Hierarchical Certification for Segmentation using Randomized Smoothing [87.48628403354351]
機械学習の認証は、特定の条件下では、敵対的なサンプルが特定の範囲内でモデルを回避できないことを証明している。
セグメンテーションの一般的な認証方法は、平らな粒度のクラスを使い、モデルの不確実性による高い断続率をもたらす。
本稿では,複数レベルの階層内で画素を認証し,不安定なコンポーネントに対して粗いレベルに適応的に認証を緩和する,新しい,より実用的な設定を提案する。
論文 参考訳(メタデータ) (2024-02-13T11:59:43Z) - Improving the Accuracy-Robustness Trade-Off of Classifiers via Adaptive Smoothing [9.637143119088426]
正誤例に対する頑健な基本分類器の信頼性差が,この改良の鍵となることを示す。
逆入力検出器を2つのベースモデルの混合を適応的に調整する混合ネットワークに適応させる。
提案したフレキシブルな手法は「適応的平滑化(adaptive smoothing)」と呼ばれ、クリーンな精度、堅牢性、あるいは敵検出を改善する既存のあるいは将来の方法と連携して機能する。
論文 参考訳(メタデータ) (2023-01-29T22:05:28Z) - A Stable, Fast, and Fully Automatic Learning Algorithm for Predictive
Coding Networks [65.34977803841007]
予測符号化ネットワークは、ベイズ統計学と神経科学の両方にルーツを持つ神経科学にインスパイアされたモデルである。
シナプス重みに対する更新規則の時間的スケジュールを変更するだけで、元の規則よりもずっと効率的で安定したアルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-16T00:11:04Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Learning Stable Classifiers by Transferring Unstable Features [59.06169363181417]
本研究では,素早い相関関係の存在下での伝達学習について検討する。
提案手法は, ソースタスクで学習した安定な特徴抽出器を直接転送しても, 対象タスクのバイアスを排除できないことを実験的に実証する。
我々は、ソースタスクの不安定な特徴とターゲットタスクの不安定な特徴が直接関連していると仮定する。
論文 参考訳(メタデータ) (2021-06-15T02:41:12Z) - Automated Mapping of Vulnerability Advisories onto their Fix Commits in
Open Source Repositories [7.629717457706326]
実践経験と機械学習(ML)を組み合わせたアプローチを提案する。
アドバイザリから脆弱性に関する鍵情報を含むアドバイザリレコードを抽出する。
影響を受けるプロジェクトのソースコードリポジトリから、候補となる修正コミットのサブセットを取得する。
論文 参考訳(メタデータ) (2021-03-24T17:50:35Z) - Do Adversarially Robust ImageNet Models Transfer Better? [102.09335596483695]
逆向きに堅牢なモデルは、トランスファーラーニングに使用する場合、標準訓練されたモデルよりもよく機能する。
私たちの結果は、ロバストさが機能表現の改善につながるという最近の仮説と一致しています。
論文 参考訳(メタデータ) (2020-07-16T17:42:40Z) - Evaluating Prediction-Time Batch Normalization for Robustness under
Covariate Shift [81.74795324629712]
我々は予測時間バッチ正規化と呼び、共変量シフト時のモデル精度とキャリブレーションを大幅に改善する。
予測時間バッチ正規化は、既存の最先端アプローチに相補的な利点をもたらし、ロバスト性を向上させることを示します。
この手法は、事前トレーニングと併用して使用すると、さまざまな結果が得られるが、より自然なタイプのデータセットシフトでは、パフォーマンスが良くないようだ。
論文 参考訳(メタデータ) (2020-06-19T05:08:43Z) - Calibrated neighborhood aware confidence measure for deep metric
learning [0.0]
深度メートル法学習は、数ショット学習、画像検索、およびオープンセット分類の問題にうまく適用されてきた。
深層学習モデルの信頼度を測定し、信頼できない予測を特定することは、まだオープンな課題です。
本稿では,その分類精度をよく反映した校正・解釈可能な信頼度尺度の定義に焦点をあてる。
論文 参考訳(メタデータ) (2020-06-08T21:05:38Z) - On-the-Fly Adaptation of Source Code Models using Meta-Learning [28.98699307030983]
文脈適応の問題はメタラーニングの問題である。
我々は、欠落したトークンの予測を改善するために、ファイル内の情報から最もよく学習できるベースソースコードモデルを訓練する。
大規模なJava GitHubコーパスの実験において、パフォーマンスの改善を実証した。
論文 参考訳(メタデータ) (2020-03-26T07:11:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。