論文の概要: RODD: A Self-Supervised Approach for Robust Out-of-Distribution
Detection
- arxiv url: http://arxiv.org/abs/2204.02553v1
- Date: Wed, 6 Apr 2022 03:05:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 14:10:29.815571
- Title: RODD: A Self-Supervised Approach for Robust Out-of-Distribution
Detection
- Title(参考訳): rodd:ロバストな分散検出のための自己教師付きアプローチ
- Authors: Umar Khalid, Ashkan Esmaeili, Nazmul Karim, Nazanin Rahnavard
- Abstract要約: 本稿では,分散データセットに依存しない簡易かつ効果的なOOD検出手法を提案する。
提案手法は, コンパクトな低次元空間上に埋没するトレーニングサンプルの自己教師型特徴学習に依存する。
自己教師付きコントラスト学習を用いた事前学習モデルでは、潜伏空間における一次元特徴学習のより良いモデルが得られることを実証的に示す。
- 参考スコア(独自算出の注目度): 12.341250124228859
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have addressed the concern of detecting and rejecting the
out-of-distribution (OOD) samples as a major challenge in the safe deployment
of deep learning (DL) models. It is desired that the DL model should only be
confident about the in-distribution (ID) data which reinforces the driving
principle of the OOD detection. In this paper, we propose a simple yet
effective generalized OOD detection method independent of out-of-distribution
datasets. Our approach relies on self-supervised feature learning of the
training samples, where the embeddings lie on a compact low-dimensional space.
Motivated by the recent studies that show self-supervised adversarial
contrastive learning helps robustify the model, we empirically show that a
pre-trained model with self-supervised contrastive learning yields a better
model for uni-dimensional feature learning in the latent space. The method
proposed in this work referred to as \texttt{RODD}, outperforms SOTA detection
performance on an extensive suite of benchmark datasets on OOD detection tasks.
On the CIFAR-100 benchmarks, \texttt{RODD} achieves a 26.97 $\%$ lower
false-positive rate (FPR@95) compared to SOTA methods.
- Abstract(参考訳): 近年の研究では、ディープラーニング(DL)モデルの安全なデプロイにおいて、OOD(out-of-distriion)サンプルの検出と拒絶が大きな課題となっている。
dlモデルはood検出の駆動原理を補強する分布内(id)データに対してのみ自信を持つことが望まれる。
本稿では,分布外データセットに依存しない簡易かつ効果的なood検出手法を提案する。
提案手法は,コンパクトな低次元空間上に埋没するトレーニングサンプルの自己教師型特徴学習に依存する。
自己教師型対向学習がモデル強化に有効であることを示す最近の研究により、自己教師型対向学習を用いた事前訓練モデルが潜在空間における一次元特徴学習により良いモデルをもたらすことを実証的に示す。
本研究で提案する手法は,OOD検出タスクのベンチマークデータセットの広範なスイートにおいて,SOTA検出性能に優れる,‘texttt{RODD}’と呼ばれる。
CIFAR-100ベンチマークでは、SOTA法と比較して26.97$\%$低い偽陽性率(FPR@95)を達成する。
関連論文リスト
- OAML: Outlier Aware Metric Learning for OOD Detection Enhancement [5.357756138014614]
トレーニング中にモデルが見ていないオブジェクトを特定するために、アウト・オブ・ディストリビューション(OOD)検出法が開発されている。
Outlier Exposure(OE)メソッドは補助データセットを使用してOOD検出器を直接訓練する。
我々は,代表的なOODサンプルの収集と学習に取り組むために,OAML(Outlier Aware Metric Learning)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-24T11:01:43Z) - Model-free Test Time Adaptation for Out-Of-Distribution Detection [62.49795078366206]
我々はtextbfDistribution textbfDetection (abbr) のための非パラメトリックテスト時間 textbfAdaptation フレームワークを提案する。
Abbrは、オンラインテストサンプルを使用して、テスト中のモデル適応、データ分散の変更への適応性を向上させる。
複数のOOD検出ベンチマークにおける包括的実験により,abrの有効性を示す。
論文 参考訳(メタデータ) (2023-11-28T02:00:47Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - AUTO: Adaptive Outlier Optimization for Online Test-Time OOD Detection [81.49353397201887]
オープンソースアプリケーションに機械学習モデルをデプロイするには、アウト・オブ・ディストリビューション(OOD)検出が不可欠だ。
我々は、未ラベルのオンラインデータをテスト時に直接利用してOOD検出性能を向上させる、テスト時OOD検出と呼ばれる新しいパラダイムを導入する。
本稿では,入出力フィルタ,IDメモリバンク,意味的に一貫性のある目的からなる適応外乱最適化(AUTO)を提案する。
論文 参考訳(メタデータ) (2023-03-22T02:28:54Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Towards Realistic Out-of-Distribution Detection: A Novel Evaluation
Framework for Improving Generalization in OOD Detection [14.541761912174799]
本稿では,OOD(Out-of-Distribution)検出のための新しい評価フレームワークを提案する。
より現実的な設定で機械学習モデルのパフォーマンスを評価することを目的としている。
論文 参考訳(メタデータ) (2022-11-20T07:30:15Z) - Training OOD Detectors in their Natural Habitats [31.565635192716712]
アウト・オブ・ディストリビューション(OOD)検出は、野生にデプロイされた機械学習モデルにとって重要である。
近年の手法では,OOD検出の改善のために補助外乱データを用いてモデルを正規化している。
我々は、自然にIDとOODの両方のサンプルで構成される野生の混合データを活用する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T15:38:39Z) - ReAct: Out-of-distribution Detection With Rectified Activations [20.792140933660075]
オフ・オブ・ディストリビューション (OOD) 検出は, 実用的重要性から近年注目されている。
主な課題の1つは、モデルがしばしばOODデータに対して高い信頼性の予測を生成することである。
我々は,OODデータに対するモデル過信を低減するためのシンプルで効果的な手法であるReActを提案する。
論文 参考訳(メタデータ) (2021-11-24T21:02:07Z) - Provably Robust Detection of Out-of-distribution Data (almost) for free [124.14121487542613]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)データに対する高い過度な予測を生成することが知られている。
本稿では,認証可能なOOD検出器を標準分類器と組み合わせてOOD認識分類器を提案する。
このようにして、我々は2つの世界のベストを達成している。OOD検出は、分布内に近いOODサンプルであっても、予測精度を損なうことなく、非操作型OODデータに対する最先端のOOD検出性能に近接する。
論文 参考訳(メタデータ) (2021-06-08T11:40:49Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。