論文の概要: How to Exploit Hyperspherical Embeddings for Out-of-Distribution
Detection?
- arxiv url: http://arxiv.org/abs/2203.04450v3
- Date: Sat, 15 Apr 2023 07:25:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 00:51:41.723929
- Title: How to Exploit Hyperspherical Embeddings for Out-of-Distribution
Detection?
- Title(参考訳): 分布外検出のための超球面埋め込みの爆発法
- Authors: Yifei Ming, Yiyou Sun, Ousmane Dia, Yixuan Li
- Abstract要約: CIDERは、OOD検出に超球面埋め込みを利用する表現学習フレームワークである。
CIDERは優れたパフォーマンスを確立し、FPR95では19.36%で最新のライバルを上回った。
- 参考スコア(独自算出の注目度): 22.519572587827213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Out-of-distribution (OOD) detection is a critical task for reliable machine
learning. Recent advances in representation learning give rise to
distance-based OOD detection, where testing samples are detected as OOD if they
are relatively far away from the centroids or prototypes of in-distribution
(ID) classes. However, prior methods directly take off-the-shelf contrastive
losses that suffice for classifying ID samples, but are not optimally designed
when test inputs contain OOD samples. In this work, we propose CIDER, a novel
representation learning framework that exploits hyperspherical embeddings for
OOD detection. CIDER jointly optimizes two losses to promote strong ID-OOD
separability: a dispersion loss that promotes large angular distances among
different class prototypes, and a compactness loss that encourages samples to
be close to their class prototypes. We analyze and establish the unexplored
relationship between OOD detection performance and the embedding properties in
the hyperspherical space, and demonstrate the importance of dispersion and
compactness. CIDER establishes superior performance, outperforming the latest
rival by 19.36% in FPR95. Code is available at
https://github.com/deeplearning-wisc/cider.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OOD)検出は、信頼できる機械学習にとって重要なタスクである。
表象学習の最近の進歩は距離に基づくOOD検出をもたらし、テストサンプルがセントロイドやID(In-distriion)クラスのプロトタイプから比較的離れている場合、OODとして検出される。
しかし、事前の手法は、IDサンプルを分類するのに十分な対照的な損失を直接取り除くが、テスト入力がOODサンプルを含む場合、最適設計はされない。
本研究では,OOD検出のための超球面埋め込みを利用した表現学習フレームワークCIDERを提案する。
ciderは、異なるクラスプロトタイプ間の大きな角距離を促進する分散損失と、クラスプロトタイプに近いサンプルを推奨するコンパクトさ損失という、2つの損失を共同で最適化している。
我々は超球面空間におけるOOD検出性能と埋め込み特性の関係を解析・確立し,分散性とコンパクト性の重要性を実証する。
CIDERは優れたパフォーマンスを確立し、FPR95では19.36%を上回っている。
コードはhttps://github.com/deeplearning-wisc/ciderで入手できる。
関連論文リスト
- Detecting Out-of-Distribution Samples via Conditional Distribution
Entropy with Optimal Transport [20.421338676377587]
トレーニングサンプルとテストインプットの両方から幾何情報を含む経験的確率分布は,OOD検出に極めて有用である。
最適輸送の枠組みの中では,OODサンプルであるテスト入力の不確かさを定量化するため,エントロピー(enmphconditional distribution entropy)と呼ばれる新しいスコア関数を提案する。
論文 参考訳(メタデータ) (2024-01-22T07:07:32Z) - GROOD: GRadient-aware Out-Of-Distribution detection in interpolated
manifolds [12.727088216619386]
ディープニューラルネットワーク(DNN)におけるアウト・オブ・ディストリビューション検出は、現実世界のデプロイメントにおいてリスクを引き起こす可能性がある。
グラディエント・アウェア・アウトオフ・ディストリビューション検出を導入。
ネイティブ多様体(Internative manifold, GROOD)は、勾配空間の識別力に依存する新しいフレームワークである。
GRODが最先端のベースラインの確立された堅牢性を上回ることを示す。
論文 参考訳(メタデータ) (2023-12-22T04:28:43Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Plugin estimators for selective classification with out-of-distribution
detection [67.28226919253214]
現実世界の分類器は、信頼性の低いサンプルの予測を控えることの恩恵を受けることができる。
これらの設定は、選択分類(SC)とアウト・オブ・ディストリビューション(OOD)の検出文献において広範囲に研究されている。
OOD検出による選択分類に関する最近の研究は、これらの問題の統一的な研究を議論している。
本稿では,既存の手法を理論的に基礎づけ,有効かつ一般化したSCOD用プラグイン推定器を提案する。
論文 参考訳(メタデータ) (2023-01-29T07:45:17Z) - Out-of-distribution Detection with Deep Nearest Neighbors [33.71627349163909]
アウト・オブ・ディストリビューション(OOD)検出は、オープンな世界で機械学習モデルをデプロイするための重要なタスクである。
本稿では,OOD検出における非パラメトリック近接距離の有効性について検討する。
いくつかのベンチマークで最寄りのOOD検出の有効性を実証し,優れた性能を示す。
論文 参考訳(メタデータ) (2022-04-13T16:45:21Z) - WOOD: Wasserstein-based Out-of-Distribution Detection [6.163329453024915]
ディープ・ニューラル・ネットワークに基づく分類器のトレーニングデータは、通常同じ分布からサンプリングされる。
トレーニングサンプルから遠く離れた分布からテストサンプルの一部を引き出すと、トレーニングされたニューラルネットワークはこれらのOODサンプルに対して高い信頼性の予測を行う傾向にある。
本稿では,これらの課題を克服するため,Wasserstein を用いたアウト・オブ・ディストリビューション検出(WOOD)手法を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:35:15Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z) - Provably Robust Detection of Out-of-distribution Data (almost) for free [124.14121487542613]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)データに対する高い過度な予測を生成することが知られている。
本稿では,認証可能なOOD検出器を標準分類器と組み合わせてOOD認識分類器を提案する。
このようにして、我々は2つの世界のベストを達成している。OOD検出は、分布内に近いOODサンプルであっても、予測精度を損なうことなく、非操作型OODデータに対する最先端のOOD検出性能に近接する。
論文 参考訳(メタデータ) (2021-06-08T11:40:49Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。