論文の概要: Well-Calibrated Probabilistic Predictive Maintenance using Venn-Abers
- arxiv url: http://arxiv.org/abs/2306.06642v1
- Date: Sun, 11 Jun 2023 10:32:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 17:38:41.002997
- Title: Well-Calibrated Probabilistic Predictive Maintenance using Venn-Abers
- Title(参考訳): Venn-Aber を用いた高い校正確率予測
- Authors: Ulf Johansson, Tuwe L\"ofstr\"om, and Cecilia S\"onstr\"od
- Abstract要約: 本稿では,Venn-Abers予測器の使用法について検討し,マイノリティクラス予測への影響について検討する。
実験では、Venn-Abersキャリブレーションを決定木、ランダム森林、XGBoostモデルに適用する。
意思決定支援のために、Venn-Abersが生成した有効確率区間を利用する利点を示す。
- 参考スコア(独自算出の注目度): 0.5161531917413706
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When using machine learning for fault detection, a common problem is the fact
that most data sets are very unbalanced, with the minority class (a fault)
being the interesting one. In this paper, we investigate the usage of
Venn-Abers predictors, looking specifically at the effect on the minority class
predictions. A key property of Venn-Abers predictors is that they output
well-calibrated probability intervals. In the experiments, we apply Venn-Abers
calibration to decision trees, random forests and XGBoost models, showing how
both overconfident and underconfident models are corrected. In addition, the
benefit of using the valid probability intervals produced by Venn-Abers for
decision support is demonstrated. When using techniques producing opaque
underlying models, e.g., random forest and XGBoost, each prediction will
consist of not only the label, but also a valid probability interval, where the
width is an indication of the confidence in the estimate. Adding Venn-Abers on
top of a decision tree allows inspection and analysis of the model, to
understand both the underlying relationship, and finding out in which parts of
feature space that the model is accurate and/or confident.
- Abstract(参考訳): フォールト検出に機械学習を使用する場合、ほとんどのデータセットは非常に不均衡であり、少数派(フォールト)が興味深いという事実が一般的な問題である。
本稿では,venn-abers予測器の使用状況を調査し,マイノリティクラス予測への影響について考察する。
Venn-Abers予測器の鍵となる性質は、よく校正された確率区間を出力することである。
実験では、Venn-Abersキャリブレーションを決定木、ランダム森林、XGBoostモデルに適用し、過信モデルと過信モデルの両方の補正方法を示す。
また,Venn-Abers が生成した確率区間を意思決定支援に用いる利点を示す。
ランダムフォレストやxgboostといった不透明なモデルを生成する手法を使用する場合、各予測はラベルだけでなく、幅が推定の信頼度を示す有効な確率区間も含む。
決定木の上にVenn-Aberを追加することで、モデルのインスペクションと分析が可能になり、両方の基盤となる関係を理解し、モデルが正確かつ/または自信のある機能空間のどの部分かを見つけることができる。
関連論文リスト
- Probabilistic Scores of Classifiers, Calibration is not Enough [0.32985979395737786]
二項分類タスクでは、確率的予測の正確な表現が実世界の様々な応用に不可欠である。
本研究では,予測スコアと真の確率分布の一致を優先するアプローチを強調した。
その結果,従来の校正基準の限界が明らかとなり,重要な意思決定のための予測モデルの信頼性を損なう可能性が示唆された。
論文 参考訳(メタデータ) (2024-08-06T19:53:00Z) - Treeffuser: Probabilistic Predictions via Conditional Diffusions with Gradient-Boosted Trees [39.9546129327526]
Treeffuserは、表データの確率的予測のための使いやすい方法である。
Treeffuserはよく校正された予測分布を学習し、幅広い回帰タスクを処理できる。
Walmartの営業データを用いて、不確実性の下での在庫配分への応用について、その汎用性を実証する。
論文 参考訳(メタデータ) (2024-06-11T18:59:24Z) - Calibrating Neural Simulation-Based Inference with Differentiable
Coverage Probability [50.44439018155837]
ニューラルモデルのトレーニング目的に直接キャリブレーション項を含めることを提案する。
古典的なキャリブレーション誤差の定式化を緩和することにより、エンドツーエンドのバックプロパゲーションを可能にする。
既存の計算パイプラインに直接適用でき、信頼性の高いブラックボックス後部推論が可能である。
論文 参考訳(メタデータ) (2023-10-20T10:20:45Z) - Generative Perturbation Analysis for Probabilistic Black-Box Anomaly
Attribution [2.22999837458579]
ブラックボックス回帰設定における確率的異常帰属の課題に対処する。
このタスクは、ブラックボックスモデル自体ではなくブラックボックス予測からの異常な逸脱を説明するため、標準的なXAI(説明可能なAI)シナリオとは異なる。
本稿では,確率的帰属属性を予測平均として計算するだけでなく,その不確かさを定量化するための,確率的帰属属性の新たな枠組みを提案する。
論文 参考訳(メタデータ) (2023-08-09T04:59:06Z) - Ensembled Prediction Intervals for Causal Outcomes Under Hidden
Confounding [49.1865229301561]
本稿では,既存の因果感受性モデルを用いた部分同定手法を提案し,Caus-Modensがより厳密な結果区間を与えることを示す。
3つの異なるベンチマークのうち最後のものは、未知だが探究可能な基底真理を持つ観測実験にGPT-4を新たに使用することである。
論文 参考訳(メタデータ) (2023-06-15T21:42:40Z) - Conformal prediction for the design problem [72.14982816083297]
機械学習の現実的な展開では、次にテストすべきデータを選択するために予測アルゴリズムを使用します。
このような設定では、トレーニングデータとテストデータの間には、異なるタイプの分散シフトがある。
このような環境で予測の不確実性を定量化する手法を提案する。
論文 参考訳(メタデータ) (2022-02-08T02:59:12Z) - Predicting with Confidence on Unseen Distributions [90.68414180153897]
ドメイン適応と予測不確実性文学を結びつけて、挑戦的な未知分布のモデル精度を予測する。
分類器の予測における信頼度(DoC)の差は,様々な変化に対して,分類器の性能変化を推定することに成功した。
具体的には, 合成分布と自然分布の区別について検討し, その単純さにもかかわらず, DoCは分布差の定量化に優れることを示した。
論文 参考訳(メタデータ) (2021-07-07T15:50:18Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Estimation of Accurate and Calibrated Uncertainties in Deterministic
models [0.8702432681310401]
我々は,決定論的予測を確率論的予測に変換する手法を考案した。
そのためには,そのようなモデルの精度と信頼性(校正)を損なう必要がある。
隠れたノイズを正確に回収できる合成データと、大規模な実世界のデータセットの両方について、いくつかの例を示す。
論文 参考訳(メタデータ) (2020-03-11T04:02:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。