論文の概要: Software Defect Prediction by Online Learning Considering Defect
Overlooking
- arxiv url: http://arxiv.org/abs/2308.13582v1
- Date: Fri, 25 Aug 2023 15:02:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 12:37:12.388916
- Title: Software Defect Prediction by Online Learning Considering Defect
Overlooking
- Title(参考訳): 欠陥見落としを考慮したオンライン学習によるソフトウェア欠陥予測
- Authors: Yuta Yamasaki, Nikolay Fedorov, Masateru Tsunoda, Akito Monden, Amjed
Tahir, Kwabena Ebo Bennin, Koji Toda, Keitaro Nakasai
- Abstract要約: オンライン学習に基づく欠陥予測モデルの構築は、予測精度を向上させることができる。
新しいデータポイントを追加する際に、新しい予測モデルを継続的に再構築する。
しかし、モジュールを"非欠陥"(負の予測)として予測すると、そのようなモジュールのテストケースが少なくなる。
- 参考スコア(独自算出の注目度): 1.655352281097533
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building defect prediction models based on online learning can enhance
prediction accuracy. It continuously rebuilds a new prediction model when
adding a new data point. However, predicting a module as "non-defective" (i.e.,
negative prediction) can result in fewer test cases for such modules.
Therefore, defects can be overlooked during testing, even when the module is
defective. The erroneous test results are used as learning data by online
learning, which could negatively affect prediction accuracy. In our experiment,
we demonstrate this negative influence on prediction accuracy.
- Abstract(参考訳): オンライン学習に基づく欠陥予測モデルの構築は,予測精度を向上させる。
新しいデータポイントを追加すると、新しい予測モデルを継続的に再構築します。
しかし、モジュールを"非欠陥"(負の予測)として予測すると、そのようなモジュールのテストケースが少なくなる。
したがって、モジュールが欠陥している場合でも、テスト中に欠陥を見逃すことができる。
誤テスト結果は、オンライン学習による学習データとして使用され、予測精度に悪影響を及ぼす可能性がある。
本実験では,予測精度に対する負の影響を示す。
関連論文リスト
- Online Classification with Predictions [20.291598040396302]
我々は,学習者が将来の事例に関する予測にアクセスできる場合に,オンライン分類を研究する。
学習者が、将来の例が容易に予測可能なデータを見ることが常に保証されている場合、オンライン学習は、トランスダクティブなオンライン学習と同じくらい簡単であることを示す。
論文 参考訳(メタデータ) (2024-05-22T23:45:33Z) - The Impact of Defect (Re) Prediction on Software Testing [1.5869998695491834]
クロスプロジェクト欠陥予測(CPDP)は、同じプロジェクトから過去のデータが入手できない可能性があるため、外部プロジェクトからのデータを使用することを目的としている。
Bandit Algorithm(BA)に基づくアプローチは、これまで最も適切な学習プロジェクトを選択するために提案されてきた。
本研究の目的は,特に早期試験において,見渡す欠陥を減らすため,BA法を改善することである。
論文 参考訳(メタデータ) (2024-04-17T03:34:13Z) - Building Defect Prediction Models by Online Learning Considering Defect Overlooking [1.5869998695491834]
オンライン学習に基づく欠陥予測モデルの構築は、予測精度を向上させることができる。
非欠陥(non-defective)"と予測されるモジュールは、そのようなモジュールのテストケースが少なくなる可能性がある。
誤テスト結果は、オンライン学習による学習データとして使用され、予測精度に悪影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2024-04-17T03:20:46Z) - Why does Prediction Accuracy Decrease over Time? Uncertain Positive
Learning for Cloud Failure Prediction [35.058991707881646]
また,モデルの再訓練後,予測精度が約9%低下する可能性が示唆された。
緩和動作は、予測モデルを更新しながらより多くのノイズを発生させる可能性がある緩和後に検証できないため、不確実な正の事例をもたらす可能性がある。
この問題に対処するために、我々は不確実な正の学習リスク推定器(Uptake)アプローチを設計する。
論文 参考訳(メタデータ) (2024-01-08T03:13:09Z) - Learning Sample Difficulty from Pre-trained Models for Reliable
Prediction [55.77136037458667]
本稿では,大規模事前学習モデルを用いて,サンプル難易度を考慮したエントロピー正規化による下流モデルトレーニングを指導する。
我々は、挑戦的なベンチマークで精度と不確実性の校正を同時に改善する。
論文 参考訳(メタデータ) (2023-04-20T07:29:23Z) - T-Cal: An optimal test for the calibration of predictive models [49.11538724574202]
有限検証データセットを用いた予測モデルの誤校正を仮説検証問題として検討する。
誤校正の検出は、クラスの条件付き確率が予測の十分滑らかな関数である場合にのみ可能である。
我々は、$ell$-Expected Error(ECE)のデバイアスドプラグイン推定器に基づくキャリブレーションのためのミニマックステストであるT-Calを提案する。
論文 参考訳(メタデータ) (2022-03-03T16:58:54Z) - Conformal prediction for the design problem [72.14982816083297]
機械学習の現実的な展開では、次にテストすべきデータを選択するために予測アルゴリズムを使用します。
このような設定では、トレーニングデータとテストデータの間には、異なるタイプの分散シフトがある。
このような環境で予測の不確実性を定量化する手法を提案する。
論文 参考訳(メタデータ) (2022-02-08T02:59:12Z) - Churn Reduction via Distillation [54.5952282395487]
本研究は, 基礎モデルを教師として用いた蒸留によるトレーニングと, 予測的チャーンに対する明示的な制約によるトレーニングとの等価性を示す。
次に, 蒸留が近年の多くのベースラインに対する低チャーン訓練に有効であることを示す。
論文 参考訳(メタデータ) (2021-06-04T18:03:31Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Positive-Congruent Training: Towards Regression-Free Model Updates [87.25247195148187]
画像分類において、サンプルワイドの不整合は「負のフリップ」として現れる
新しいモデルは、古い(参照)モデルによって正しく分類されたテストサンプルの出力を誤って予測する。
そこで本研究では,PC トレーニングのための簡易なアプローチである Focal Distillation を提案する。
論文 参考訳(メタデータ) (2020-11-18T09:00:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。