論文の概要: Out-of-Distribution Detection with Hilbert-Schmidt Independence
Optimization
- arxiv url: http://arxiv.org/abs/2209.12807v1
- Date: Mon, 26 Sep 2022 15:59:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 15:04:16.946281
- Title: Out-of-Distribution Detection with Hilbert-Schmidt Independence
Optimization
- Title(参考訳): ヒルベルト・シュミット独立性最適化による分布外検出
- Authors: Jingyang Lin and Yu Wang and Qi Cai and Yingwei Pan and Ting Yao and
Hongyang Chao and Tao Mei
- Abstract要約: 異常検出タスクはAIの安全性において重要な役割を担っている。
ディープニューラルネットワーク分類器は通常、アウト・オブ・ディストリビューション(OOD)の入力を、信頼性の高いイン・ディストリビューション・クラスに誤って分類する傾向がある。
我々は,OOD検出タスクにおいて実用的かつ理論的に有効な代替確率論的パラダイムを提案する。
- 参考スコア(独自算出の注目度): 114.43504951058796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Outlier detection tasks have been playing a critical role in AI safety. There
has been a great challenge to deal with this task. Observations show that deep
neural network classifiers usually tend to incorrectly classify
out-of-distribution (OOD) inputs into in-distribution classes with high
confidence. Existing works attempt to solve the problem by explicitly imposing
uncertainty on classifiers when OOD inputs are exposed to the classifier during
training. In this paper, we propose an alternative probabilistic paradigm that
is both practically useful and theoretically viable for the OOD detection
tasks. Particularly, we impose statistical independence between inlier and
outlier data during training, in order to ensure that inlier data reveals
little information about OOD data to the deep estimator during training.
Specifically, we estimate the statistical dependence between inlier and outlier
data through the Hilbert-Schmidt Independence Criterion (HSIC), and we penalize
such metric during training. We also associate our approach with a novel
statistical test during the inference time coupled with our principled
motivation. Empirical results show that our method is effective and robust for
OOD detection on various benchmarks. In comparison to SOTA models, our approach
achieves significant improvement regarding FPR95, AUROC, and AUPR metrics. Code
is available: \url{https://github.com/jylins/hood}.
- Abstract(参考訳): 異常検出タスクはAIの安全性において重要な役割を担っている。
この課題に対処するには大きな課題があった。
観察によると、ディープニューラルネットワーク分類器は通常、不正確にout-of-distribution(ood)入力を高い信頼度で非分散クラスに分類する傾向がある。
既存の作業は、訓練中にOOD入力が分類器に露出した場合に、明示的に分類器に不確実性を付与することで、この問題を解決する。
本稿では,OOD検出タスクにおいて実用的かつ理論的に有効な代替確率論的パラダイムを提案する。
特に,訓練中のoodデータに関する情報を奥行き推定者にほとんど示さないよう,訓練中の異常データと外れ値データの間に統計的独立性が課される。
具体的には, ヒルベルト・シュミット独立基準 (hsic) を用いて, 異常値と外れ値の統計依存性を推定し, トレーニング中にペナルティを課す。
また,提案手法を,推論時間中に行った新しい統計テストと,主観的動機づけとを関連付けた。
実験結果から,本手法は様々なベンチマークにおいてOOD検出に有効で堅牢であることが示された。
提案手法は,SOTAモデルと比較して,FPR95,AUROC,AUPRメトリクスに関する大幅な改善を実現している。
コードは: \url{https://github.com/jylins/hood} で入手できる。
関連論文リスト
- How Does Unlabeled Data Provably Help Out-of-Distribution Detection? [63.41681272937562]
in-distribution (ID) とout-of-distribution (OOD) の両データの不均一性のため、未ラベルの in-the-wild データは非自明である。
本稿では,理論的保証と実証的有効性の両方を提供する新たな学習フレームワークであるSAL(Separate And Learn)を紹介する。
論文 参考訳(メタデータ) (2024-02-05T20:36:33Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - Unsupervised Dense Retrieval with Relevance-Aware Contrastive
Pre-Training [81.3781338418574]
関連性を考慮したコントラスト学習を提案する。
我々は、BEIRおよびオープンドメインQA検索ベンチマークにおいて、SOTAアン教師なしコントリバーモデルを一貫して改善する。
本手法は, 目標コーパスの事前訓練後, BM25に打ち勝つだけでなく, 優れた数発学習者として機能する。
論文 参考訳(メタデータ) (2023-06-05T18:20:27Z) - Using Semantic Information for Defining and Detecting OOD Inputs [3.9577682622066264]
アウト・オブ・ディストリビューション(OOD)検出は近年注目されている。
現在の検出器がトレーニングデータセットのバイアスを継承していることを示します。
これにより、現在のOOD検出器はトレーニング分布の外にある入力に不透過であり、同じ意味情報を持つことができる。
我々は,MNISTおよびCOCOデータセットのトレーニングデータから抽出した意味情報に基づいてOOD検出を行う。
論文 参考訳(メタデータ) (2023-02-21T21:31:20Z) - Augmenting Softmax Information for Selective Classification with
Out-of-Distribution Data [7.221206118679026]
既存のポストホック法はOOD検出でのみ評価した場合とは大きく異なる性能を示す。
本稿では,特徴に依存しない情報を用いて,ソフトマックスに基づく信頼度を向上するSCOD(Softmax Information Retaining Combination, SIRC)の新たな手法を提案する。
多様なImageNetスケールのデータセットと畳み込みニューラルネットワークアーキテクチャの実験は、SIRCがSCODのベースラインを一貫して一致または上回っていることを示している。
論文 参考訳(メタデータ) (2022-07-15T14:39:57Z) - Breaking Down Out-of-Distribution Detection: Many Methods Based on OOD
Training Data Estimate a Combination of the Same Core Quantities [104.02531442035483]
本研究の目的は,OOD検出手法の暗黙的なスコアリング機能を識別すると同時に,共通の目的を認識することである。
内分布と外分布の2値差はOOD検出問題のいくつかの異なる定式化と等価であることを示す。
また, 外乱露光で使用される信頼損失は, 理論上最適のスコアリング関数と非自明な方法で異なる暗黙的なスコアリング関数を持つことを示した。
論文 参考訳(メタデータ) (2022-06-20T16:32:49Z) - Training OOD Detectors in their Natural Habitats [31.565635192716712]
アウト・オブ・ディストリビューション(OOD)検出は、野生にデプロイされた機械学習モデルにとって重要である。
近年の手法では,OOD検出の改善のために補助外乱データを用いてモデルを正規化している。
我々は、自然にIDとOODの両方のサンプルで構成される野生の混合データを活用する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T15:38:39Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。