論文の概要: CIDER: Exploiting Hyperspherical Embeddings for Out-of-Distribution
Detection
- arxiv url: http://arxiv.org/abs/2203.04450v1
- Date: Tue, 8 Mar 2022 23:44:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-10 14:55:06.708474
- Title: CIDER: Exploiting Hyperspherical Embeddings for Out-of-Distribution
Detection
- Title(参考訳): cider: 超球面埋め込みを分散検出に活用する
- Authors: Yifei Ming, Yiyou Sun, Ousmane Dia, Yixuan Li
- Abstract要約: アウト・オブ・ディストリビューション(OOD)検出は、信頼できる機械学習にとって重要なタスクである。
OOD検出のための超球面埋め込みを利用した表現学習フレームワークCIDERを提案する。
CIDERは様々な設定で有効であることを示し、最先端の性能を確立する。
- 参考スコア(独自算出の注目度): 22.519572587827213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Out-of-distribution (OOD) detection is a critical task for reliable machine
learning. Recent advances in representation learning give rise to developments
in distance-based OOD detection, where testing samples are detected as OOD if
they are relatively far away from the centroids or prototypes of
in-distribution (ID) classes. However, prior methods directly take
off-the-shelf loss functions that suffice for classifying ID samples, but are
not optimally designed for OOD detection. In this paper, we propose CIDER, a
simple and effective representation learning framework by exploiting
hyperspherical embeddings for OOD detection. CIDER jointly optimizes two losses
to promote strong ID-OOD separability: (1) a dispersion loss that promotes
large angular distances among different class prototypes, and (2) a compactness
loss that encourages samples to be close to their class prototypes. We show
that CIDER is effective under various settings and establishes state-of-the-art
performance. On a hard OOD detection task CIFAR-100 vs. CIFAR-10, our method
substantially improves the AUROC by 14.20% compared to the embeddings learned
by the cross-entropy loss.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OOD)検出は、信頼できる機械学習にとって重要なタスクである。
近年の表現学習の進歩は, 距離依存型OOD検出の進展を招き, テストサンプルが中心体や分布内(ID)クラスのプロトタイプから比較的離れている場合, OODとして検出される。
しかし,従来の方法では,IDサンプルの分類に十分なオフザシェルフ損失関数を直接取り出すが,OOD検出には最適ではない。
本稿では,OOD検出のための超球面埋め込みを利用した簡易かつ効果的な表現学習フレームワークCIDERを提案する。
CIDERは2つの損失を共同で最適化し,強いID-OOD分離性を促進する。(1) 異なるクラスプロトタイプ間の角距離を拡大する分散損失,(2) サンプルをクラスプロトタイプに近接させるコンパクト化損失。
CIDERは様々な設定で有効であることを示し、最先端の性能を確立する。
ハード OOD 検出タスク CIFAR-100 vs. CIFAR-10 では,クロスエントロピー損失による埋め込みに比べて,AUROC を14.20%向上させる。
関連論文リスト
- Detecting Out-of-Distribution Samples via Conditional Distribution
Entropy with Optimal Transport [20.421338676377587]
トレーニングサンプルとテストインプットの両方から幾何情報を含む経験的確率分布は,OOD検出に極めて有用である。
最適輸送の枠組みの中では,OODサンプルであるテスト入力の不確かさを定量化するため,エントロピー(enmphconditional distribution entropy)と呼ばれる新しいスコア関数を提案する。
論文 参考訳(メタデータ) (2024-01-22T07:07:32Z) - GROOD: GRadient-aware Out-Of-Distribution detection in interpolated
manifolds [12.727088216619386]
ディープニューラルネットワーク(DNN)におけるアウト・オブ・ディストリビューション検出は、現実世界のデプロイメントにおいてリスクを引き起こす可能性がある。
グラディエント・アウェア・アウトオフ・ディストリビューション検出を導入。
ネイティブ多様体(Internative manifold, GROOD)は、勾配空間の識別力に依存する新しいフレームワークである。
GRODが最先端のベースラインの確立された堅牢性を上回ることを示す。
論文 参考訳(メタデータ) (2023-12-22T04:28:43Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Plugin estimators for selective classification with out-of-distribution
detection [67.28226919253214]
現実世界の分類器は、信頼性の低いサンプルの予測を控えることの恩恵を受けることができる。
これらの設定は、選択分類(SC)とアウト・オブ・ディストリビューション(OOD)の検出文献において広範囲に研究されている。
OOD検出による選択分類に関する最近の研究は、これらの問題の統一的な研究を議論している。
本稿では,既存の手法を理論的に基礎づけ,有効かつ一般化したSCOD用プラグイン推定器を提案する。
論文 参考訳(メタデータ) (2023-01-29T07:45:17Z) - Out-of-distribution Detection with Deep Nearest Neighbors [33.71627349163909]
アウト・オブ・ディストリビューション(OOD)検出は、オープンな世界で機械学習モデルをデプロイするための重要なタスクである。
本稿では,OOD検出における非パラメトリック近接距離の有効性について検討する。
いくつかのベンチマークで最寄りのOOD検出の有効性を実証し,優れた性能を示す。
論文 参考訳(メタデータ) (2022-04-13T16:45:21Z) - WOOD: Wasserstein-based Out-of-Distribution Detection [6.163329453024915]
ディープ・ニューラル・ネットワークに基づく分類器のトレーニングデータは、通常同じ分布からサンプリングされる。
トレーニングサンプルから遠く離れた分布からテストサンプルの一部を引き出すと、トレーニングされたニューラルネットワークはこれらのOODサンプルに対して高い信頼性の予測を行う傾向にある。
本稿では,これらの課題を克服するため,Wasserstein を用いたアウト・オブ・ディストリビューション検出(WOOD)手法を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:35:15Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z) - Provably Robust Detection of Out-of-distribution Data (almost) for free [124.14121487542613]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)データに対する高い過度な予測を生成することが知られている。
本稿では,認証可能なOOD検出器を標準分類器と組み合わせてOOD認識分類器を提案する。
このようにして、我々は2つの世界のベストを達成している。OOD検出は、分布内に近いOODサンプルであっても、予測精度を損なうことなく、非操作型OODデータに対する最先端のOOD検出性能に近接する。
論文 参考訳(メタデータ) (2021-06-08T11:40:49Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。