論文の概要: ATOM: Robustifying Out-of-distribution Detection Using Outlier Mining
- arxiv url: http://arxiv.org/abs/2006.15207v4
- Date: Wed, 30 Jun 2021 02:33:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 21:23:49.547231
- Title: ATOM: Robustifying Out-of-distribution Detection Using Outlier Mining
- Title(参考訳): ATOM:outlier Miningを用いた分布外検出のロバスト化
- Authors: Jiefeng Chen, Yixuan Li, Xi Wu, Yingyu Liang, Somesh Jha
- Abstract要約: インフォメーション・アウトリエ・マイニングによるアドリアトレーニングは、OOD検出の堅牢性を向上させる。
ATOMは,古典的,敵対的なOOD評価タスクの幅広いファミリーの下で,最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 51.19164318924997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting out-of-distribution (OOD) inputs is critical for safely deploying
deep learning models in an open-world setting. However, existing OOD detection
solutions can be brittle in the open world, facing various types of adversarial
OOD inputs. While methods leveraging auxiliary OOD data have emerged, our
analysis on illuminative examples reveals a key insight that the majority of
auxiliary OOD examples may not meaningfully improve or even hurt the decision
boundary of the OOD detector, which is also observed in empirical results on
real data. In this paper, we provide a theoretically motivated method,
Adversarial Training with informative Outlier Mining (ATOM), which improves the
robustness of OOD detection. We show that, by mining informative auxiliary OOD
data, one can significantly improve OOD detection performance, and somewhat
surprisingly, generalize to unseen adversarial attacks. ATOM achieves
state-of-the-art performance under a broad family of classic and adversarial
OOD evaluation tasks. For example, on the CIFAR-10 in-distribution dataset,
ATOM reduces the FPR (at TPR 95%) by up to 57.99% under adversarial OOD inputs,
surpassing the previous best baseline by a large margin.
- Abstract(参考訳): out-of-distribution (ood)インプットの検出は、オープンワールド環境でディープラーニングモデルを安全にデプロイする上で重要である。
しかし、既存のOOD検出ソリューションは、様々な種類のOOD入力に直面して、オープンな世界で脆くすることができる。
補助的なOODデータを利用する手法が出現しているが,本分析では,補助的なOODデータの大部分は,実データ上で経験的な結果として観察されるOOD検出器の決定境界を有意に改善あるいは損なうものではない,という重要な知見が得られた。
本稿では,OOD検出のロバスト性を向上させるための理論的動機付け手法として,情報化アウトリアマイニング(ATOM)を提案する。
我々は,情報的補助OODデータをマイニングすることにより,OOD検出性能を著しく向上させることができ,また,意外なことに,敵の攻撃に対して一般化できることを示した。
ATOMは従来のOOD評価タスクの幅広いファミリーで最先端のパフォーマンスを達成する。
例えば、CIFAR-10 in-distriion データセットでは、ATOM は敵の OOD 入力で FPR (TPR 95%) を57.99% まで削減し、以前の最良ベースラインをはるかに上回っている。
関連論文リスト
- Learning to Augment Distributions for Out-of-Distribution Detection [49.12437300327712]
アウト・オブ・ディストリビューション (OOD) は、ラベルがイン・ディストリビューション (ID) の場合と区別される。
我々は,OODの分布差を軽減するためにDAL(distributal-Augmented OOD Learning)を提案する。
論文 参考訳(メタデータ) (2023-11-03T09:19:33Z) - OpenOOD v1.5: Enhanced Benchmark for Out-of-Distribution Detection [82.85303878718207]
アウト・オブ・ディストリビューション(OOD)検出は、オープンワールド・インテリジェントシステムの信頼性の高い運用に不可欠である。
本稿では,OOD検出手法の精度,標準化,ユーザフレンドリな評価を保証したOpenOOD v1.5を提案する。
論文 参考訳(メタデータ) (2023-06-15T17:28:00Z) - Out-of-distribution Detection with Implicit Outlier Transformation [72.73711947366377]
外周露光(OE)は、オフ・オブ・ディストリビューション(OOD)検出において強力である。
我々は,未確認のOOD状況に対してモデルの性能を良くする,新しいOEベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-03-09T04:36:38Z) - Rethinking Out-of-distribution (OOD) Detection: Masked Image Modeling is
All You Need [52.88953913542445]
簡単な再構築手法を用いることで,OOD検出の性能が大幅に向上する可能性が示唆された。
我々は、OOD検出フレームワーク(MOOD)のプリテキストタスクとして、マスケ画像モデリング(Masked Image Modeling)を採用する。
論文 参考訳(メタデータ) (2023-02-06T08:24:41Z) - MOOD: Multi-level Out-of-distribution Detection [13.207044902083057]
異常な入力がデプロイ中にモデルが失敗するのを防ぐには、分散アウト・ディストリビューション(OOD)検出が不可欠です。
動的かつ効率的なOOD推論のための中間分類器出力を利用する,新しいフレームワークであるマルチレベルアウトオブディストリビューション検出MOODを提案する。
MOODは、競合するOOD検出性能を維持しながら、推論における最大71.05%の計算削減を実現します。
論文 参考訳(メタデータ) (2021-04-30T02:18:31Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。