論文の概要: Uncertainty Quantification in Anomaly Detection with Cross-Conformal
$p$-Values
- arxiv url: http://arxiv.org/abs/2402.16388v1
- Date: Mon, 26 Feb 2024 08:22:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 14:03:56.087983
- Title: Uncertainty Quantification in Anomaly Detection with Cross-Conformal
$p$-Values
- Title(参考訳): クロスコンフォーマルな$p$値を用いた異常検出の不確かさの定量化
- Authors: Oliver Hennh\"ofer and Christine Preisach
- Abstract要約: 本研究は, 異形間異常検出という, 異常検出のための新しい枠組みを導入する。
本研究では,不確実な量子化異常検出のための統計効率(完全整形)と計算効率(完全整形)の両立を両立させる方法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Given the growing significance of reliable, trustworthy, and explainable
machine learning, the requirement of uncertainty quantification for anomaly
detection systems has become increasingly important. In this context,
effectively controlling Type I error rates ($\alpha$) without compromising the
statistical power ($1-\beta$) of these systems can build trust and reduce costs
related to false discoveries, particularly when follow-up procedures are
expensive. Leveraging the principles of conformal prediction emerges as a
promising approach for providing respective statistical guarantees by
calibrating a model's uncertainty. This work introduces a novel framework for
anomaly detection, termed cross-conformal anomaly detection, building upon
well-known cross-conformal methods designed for prediction tasks. With that, it
addresses a natural research gap by extending previous works in the context of
inductive conformal anomaly detection, relying on the split-conformal approach
for model calibration. Drawing on insights from conformal prediction, we
demonstrate that the derived methods for calculating cross-conformal $p$-values
strike a practical compromise between statistical efficiency (full-conformal)
and computational efficiency (split-conformal) for uncertainty-quantified
anomaly detection on benchmark datasets.
- Abstract(参考訳): 信頼性,信頼性,説明可能な機械学習の重要性が高まり,異常検出システムに対する不確実性定量化の必要性が高まっている。
この文脈では、これらのシステムの統計力(1-\beta$)を損なうことなく、効果的にタイプIエラー率(1-\beta$)を制御することができ、特にフォローアップ手順が高価である場合に、誤った発見に関連するコストを削減できる。
共形予測の原理を活用することは、モデルの不確かさを校正することで各統計的保証を提供するための有望なアプローチとして現れる。
本研究は、予測タスク用に設計されたよく知られたクロスコンフォーマルな手法に基づいて、クロスコンフォーマルな異常検出と呼ばれる新しい異常検出フレームワークを導入する。
これにより、モデルキャリブレーションのための分割共形アプローチに依拠して、帰納的共形異常検出の文脈で以前の作品を拡張することによって、自然研究のギャップに対処できる。
コンフォーメーション予測から得られた知見に基づき,クロスコンフォーマルな$p$-valuesの計算手法が,ベンチマークデータセットにおける不確実性定量化異常検出のための統計効率(フルコンフォーマル)と計算効率(スプライトコンフォーマル)の実用的妥協をもたらすことを実証した。
関連論文リスト
- Cost-Sensitive Uncertainty-Based Failure Recognition for Object Detection [1.8990839669542954]
本稿では,ユーザ定義予算に合わせて,オブジェクト検出のためのコスト感受性フレームワークを提案する。
性能劣化を防ぐために最低限の閾値設定要件を導出する。
エラー認識率を最大化するために、しきい値処理の自動化と最適化を行う。
論文 参考訳(メタデータ) (2024-04-26T14:03:55Z) - Distributional Shift-Aware Off-Policy Interval Estimation: A Unified
Error Quantification Framework [8.572441599469597]
本研究では、無限水平マルコフ決定過程の文脈における高信頼オフ政治評価について検討する。
目的は、未知の行動ポリシーから事前に収集されたオフラインデータのみを用いて、対象の政策値に対する信頼区間(CI)を確立することである。
提案アルゴリズムは, 非線形関数近似設定においても, サンプル効率, 誤差ローバスト, 既知収束性を示す。
論文 参考訳(メタデータ) (2023-09-23T06:35:44Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Calibration-Aware Bayesian Learning [37.82259435084825]
本稿では、キャリブレーション対応ベイズニューラルネットワーク(CA-BNN)と呼ばれる統合フレームワークを提案する。
ベイズ学習のように変分分布を最適化しながら、データ依存あるいはデータ非依存の正則化をそれぞれ適用する。
予測キャリブレーション誤差(ECE)と信頼性図を用いて,提案手法の利点を検証した。
論文 参考訳(メタデータ) (2023-05-12T14:19:15Z) - The Implicit Delta Method [61.36121543728134]
本稿では,不確実性のトレーニング損失を無限に正規化することで機能する,暗黙のデルタ法を提案する。
有限差分により無限小変化が近似された場合でも, 正則化による評価の変化は評価推定器の分散に一定であることを示す。
論文 参考訳(メタデータ) (2022-11-11T19:34:17Z) - Statistics and Deep Learning-based Hybrid Model for Interpretable
Anomaly Detection [0.0]
ハイブリッド手法は、予測タスクと予測タスクの両方において、純粋統計的および純粋深層学習法より優れていることが示されている。
MES-LSTMは、これらの課題を克服する解釈可能な異常検出モデルである。
論文 参考訳(メタデータ) (2022-02-25T14:17:03Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Deep Learning based Uncertainty Decomposition for Real-time Control [9.067368638784355]
本稿では,ディープラーニングを用いたトレーニングデータの欠如を検出する新しい手法を提案する。
合成および実世界のデータセットに対する既存のアプローチに対する利点を示す。
さらに、シミュレーションされたクアッドコプターにオンラインデータ効率制御を展開させる上で、この不確実性推定の実用性を実証する。
論文 参考訳(メタデータ) (2020-10-06T10:46:27Z) - Evaluating probabilistic classifiers: Reliability diagrams and score
decompositions revisited [68.8204255655161]
確率的に統計的に一貫性があり、最適に結合し、再現可能な信頼性図を自動生成するCORP手法を導入する。
コーパスは非パラメトリックアイソトニック回帰に基づいており、プール・アジャセント・ヴァイオレータ(PAV)アルゴリズムによって実装されている。
論文 参考訳(メタデータ) (2020-08-07T08:22:26Z) - Learning to Predict Error for MRI Reconstruction [67.76632988696943]
提案手法による予測の不確実性は予測誤差と強く相関しないことを示す。
本稿では,2段階の予測誤差の目標ラベルと大小を推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-13T15:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。