論文の概要: Improving Out-of-Distribution Detection via Epistemic Uncertainty
Adversarial Training
- arxiv url: http://arxiv.org/abs/2209.03148v1
- Date: Mon, 5 Sep 2022 14:32:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-08 12:47:48.761173
- Title: Improving Out-of-Distribution Detection via Epistemic Uncertainty
Adversarial Training
- Title(参考訳): 認識的不確実性学習による分布外検出の改善
- Authors: Derek Everett, Andre T. Nguyen, Luke E. Richards, Edward Raff
- Abstract要約: 我々は,ドロップアウトアンサンブルによって予測される不確実性の攻撃を組み込んだ,単純な対向訓練手法を開発した。
本手法は,OOD検出性能を標準データ上で向上させる(逆向きではない)とともに,ほぼランダムな推定性能から$geq 0.75$まで,標準化された部分AUCを改善する。
- 参考スコア(独自算出の注目度): 29.4569172720654
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The quantification of uncertainty is important for the adoption of machine
learning, especially to reject out-of-distribution (OOD) data back to human
experts for review. Yet progress has been slow, as a balance must be struck
between computational efficiency and the quality of uncertainty estimates. For
this reason many use deep ensembles of neural networks or Monte Carlo dropout
for reasonable uncertainty estimates at relatively minimal compute and memory.
Surprisingly, when we focus on the real-world applicable constraint of $\leq
1\%$ false positive rate (FPR), prior methods fail to reliably detect OOD
samples as such. Notably, even Gaussian random noise fails to trigger these
popular OOD techniques. We help to alleviate this problem by devising a simple
adversarial training scheme that incorporates an attack of the epistemic
uncertainty predicted by the dropout ensemble. We demonstrate this method
improves OOD detection performance on standard data (i.e., not adversarially
crafted), and improves the standardized partial AUC from near-random guessing
performance to $\geq 0.75$.
- Abstract(参考訳): 不確実性の定量化は、機械学習の採用、特にood(out-of-distribution)データを人間の専門家にレビューするために拒否する上で重要である。
しかし、計算効率と不確実性評価の質の間にバランスを取る必要があるため、進捗は遅くなっている。
このため、比較的最小限の計算とメモリで妥当な不確実性推定のために、ニューラルネットワークの深いアンサンブルやモンテカルロのドロップアウトを使用することが多い。
驚いたことに、実際の適用制約である$\leq 1\%$ false positive rate (FPR)に注目すると、事前の手法ではOODサンプルを確実に検出できない。
特に、ガウス的ランダムノイズでさえ、これらの一般的なOODテクニックを誘発することができない。
我々は,ドロップアウト・アンサンブルによって予測される認識的不確実性への攻撃を組み込んだ,単純な敵対的訓練方式を考案することで,この問題を軽減することを支援する。
本手法は,標準データにおけるOOD検出性能を向上し,ほぼランダムな推定性能から$\geq 0.75$まで,標準化された部分AUCを改善する。
関連論文リスト
- Revisiting Confidence Estimation: Towards Reliable Failure Prediction [53.79160907725975]
多くの信頼度推定法は誤分類誤りを検出するのに有害である。
本稿では, 最先端の故障予測性能を示す平坦な最小値を求めることにより, 信頼性ギャップを拡大することを提案する。
論文 参考訳(メタデータ) (2024-03-05T11:44:14Z) - Adaptive Uncertainty Estimation via High-Dimensional Testing on Latent
Representations [28.875819909902244]
不確実性推定は、訓練されたディープニューラルネットワークの信頼性を評価することを目的としている。
既存の不確実性推定アプローチは、低次元分布仮定に依存している。
本研究では,不確実性推定のためのデータ適応型高次元仮説テストを用いた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-25T12:22:18Z) - Conservative Prediction via Data-Driven Confidence Minimization [70.93946578046003]
機械学習の安全性クリティカルな応用においては、モデルが保守的であることが望ましいことが多い。
本研究では,不確実性データセットに対する信頼性を最小化するデータ駆動信頼性最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:05:36Z) - Uncertainty-Estimation with Normalized Logits for Out-of-Distribution
Detection [35.539218522504605]
UE-NL(Uncertainty-Estimation with Normalized Logits)は,OOD検出のための頑健な学習手法である。
UE-NLは、入力データの不確実性スコアを予測することにより、全てのIDサンプルを等しく扱う。
他の方法によってOODデータと誤認される可能性のあるIDデータを騒がせることは、より堅牢である。
論文 参考訳(メタデータ) (2023-02-15T11:57:09Z) - Free Lunch for Generating Effective Outlier Supervision [46.37464572099351]
本稿では, ほぼ現実的な外乱監視を実現するための超効率的な手法を提案する。
提案したtextttBayesAug は,従来の方式に比べて偽陽性率を 12.50% 以上削減する。
論文 参考訳(メタデータ) (2023-01-17T01:46:45Z) - On the Practicality of Deterministic Epistemic Uncertainty [106.06571981780591]
決定論的不確実性法(DUM)は,分布外データの検出において高い性能を達成する。
DUMが十分に校正されており、現実のアプリケーションにシームレスにスケールできるかどうかは不明だ。
論文 参考訳(メタデータ) (2021-07-01T17:59:07Z) - Provably Robust Detection of Out-of-distribution Data (almost) for free [124.14121487542613]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)データに対する高い過度な予測を生成することが知られている。
本稿では,認証可能なOOD検出器を標準分類器と組み合わせてOOD認識分類器を提案する。
このようにして、我々は2つの世界のベストを達成している。OOD検出は、分布内に近いOODサンプルであっても、予測精度を損なうことなく、非操作型OODデータに対する最先端のOOD検出性能に近接する。
論文 参考訳(メタデータ) (2021-06-08T11:40:49Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Certifiably Adversarially Robust Detection of Out-of-Distribution Data [111.67388500330273]
我々は,OOD点における信頼度を低くすることで,OOD検出の証明可能な最悪のケースを保証することを目的としている。
トレーニング時に見られるOODデータセットを超えて一般化されたOODデータの信頼性の非自明な境界が可能であることを示す。
論文 参考訳(メタデータ) (2020-07-16T17:16:47Z) - Revisiting One-vs-All Classifiers for Predictive Uncertainty and
Out-of-Distribution Detection in Neural Networks [22.34227625637843]
識別型分類器における確率のパラメトリゼーションが不確実性推定に与える影響について検討する。
画像分類タスクのキャリブレーションを改善するために, 1-vs-all の定式化が可能であることを示す。
論文 参考訳(メタデータ) (2020-07-10T01:55:02Z) - Uncertainty-Based Out-of-Distribution Classification in Deep
Reinforcement Learning [17.10036674236381]
アウト・オブ・ディストリビューションデータの誤予測は、機械学習システムにおける安全性の危機的状況を引き起こす可能性がある。
我々は不確実性に基づくOOD分類のためのフレームワークUBOODを提案する。
UBOODはアンサンブルに基づく推定器と組み合わせることで,信頼性の高い分類結果が得られることを示す。
論文 参考訳(メタデータ) (2019-12-31T09:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。