論文の概要: Uncertainty-Aware Out-of-Distribution Detection with Gaussian Processes
- arxiv url: http://arxiv.org/abs/2412.20918v1
- Date: Mon, 30 Dec 2024 12:57:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:07:16.599435
- Title: Uncertainty-Aware Out-of-Distribution Detection with Gaussian Processes
- Title(参考訳): ガウス過程による不確かさを意識したアウト・オブ・ディストリビューション検出
- Authors: Yang Chen, Chih-Li Sung, Arpan Kusari, Xiaoyang Song, Wenbo Sun,
- Abstract要約: ディープニューラルネットワーク(DNN)はしばしばクローズドワールドの前提の下で構築される。
OODサンプルは、現実世界のアプリケーションでトレーニングフェーズで必ずしも利用できない。
InDデータのみに基づく決定境界を確立するために,ガウス過程に基づくOOD検出手法を提案する。
- 参考スコア(独自算出の注目度): 13.246251147975192
- License:
- Abstract: Deep neural networks (DNNs) are often constructed under the closed-world assumption, which may fail to generalize to the out-of-distribution (OOD) data. This leads to DNNs producing overconfident wrong predictions and can result in disastrous consequences in safety-critical applications. Existing OOD detection methods mainly rely on curating a set of OOD data for model training or hyper-parameter tuning to distinguish OOD data from training data (also known as in-distribution data or InD data). However, OOD samples are not always available during the training phase in real-world applications, hindering the OOD detection accuracy. To overcome this limitation, we propose a Gaussian-process-based OOD detection method to establish a decision boundary based on InD data only. The basic idea is to perform uncertainty quantification of the unconstrained softmax scores of a DNN via a multi-class Gaussian process (GP), and then define a score function to separate InD and potential OOD data based on their fundamental differences in the posterior predictive distribution from the GP. Two case studies on conventional image classification datasets and real-world image datasets are conducted to demonstrate that the proposed method outperforms the state-of-the-art OOD detection methods when OOD samples are not observed in the training phase.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、しばしばクローズドワールドの仮定の下で構築され、オフ・オブ・ディストリビューション(OOD)データへの一般化に失敗する可能性がある。
これにより、DNNは過度に誤った予測を発生させ、安全クリティカルなアプリケーションに壊滅的な結果をもたらす可能性がある。
既存のOOD検出方法は、OODデータとトレーニングデータ(In-distriion dataまたはInD dataとも呼ばれる)を区別するために、モデルトレーニングやハイパーパラメータチューニングのためのOODデータのセットのキュレーションに主に依存している。
しかし、OODサンプルは現実世界のアプリケーションでトレーニングフェーズ中に必ずしも利用できないため、OOD検出精度を損なう。
この制限を克服するため、我々はガウス過程に基づくOOD検出手法を提案し、InDデータのみに基づく決定境界を確立する。
基本的な考え方は、DNNの制約のないソフトマックススコアを多クラスガウス過程(GP)で不確実な定量化を行い、GPから後方予測分布の基本的な違いに基づいて、InDと潜在的OODデータを分離するスコア関数を定義することである。
従来の画像分類データセットと実世界の画像データセットの2つのケーススタディを行い、OODサンプルがトレーニング段階で観測されない場合、提案手法が最先端のOOD検出方法より優れていることを示す。
関連論文リスト
- Out-of-distribution Detection Learning with Unreliable
Out-of-distribution Sources [73.28967478098107]
アウト・オブ・ディストリビューション(OOD)検出は、予測者が有効な予測を行うことができないOODデータをイン・ディストリビューション(ID)データとして識別する。
通常、OODパターンを識別できる予測器をトレーニングするために、実際のアウト・オブ・ディストリビューション(OOD)データを収集するのは困難である。
本稿では,Auxiliary Task-based OOD Learning (ATOL) というデータ生成に基づく学習手法を提案する。
論文 参考訳(メタデータ) (2023-11-06T16:26:52Z) - LINe: Out-of-Distribution Detection by Leveraging Important Neurons [15.797257361788812]
本稿では,分布内データとOODデータ間のモデル出力の差を解析するための新しい側面を紹介する。
本稿では,分布検出のポストホックアウトのための新しい手法であるLINe( Leveraging Important Neurons)を提案する。
論文 参考訳(メタデータ) (2023-03-24T13:49:05Z) - Detecting Out-of-distribution Examples via Class-conditional Impressions
Reappearing [30.938412222724608]
Out-of-Distribution(OOD)検出は、標準のディープニューラルネットワークを拡張して、元のトレーニングデータと異常な入力を区別することを目的としている。
プライバシーとセキュリティのため、補助的なデータは現実のシナリオでは実用的ではない傾向にある。
我々は,C2IR(Class-Conditional Impressions Reappearing)と呼ばれる,自然データに対する訓練を伴わないデータフリー手法を提案する。
論文 参考訳(メタデータ) (2023-03-17T02:55:08Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Augmenting Softmax Information for Selective Classification with
Out-of-Distribution Data [7.221206118679026]
既存のポストホック法はOOD検出でのみ評価した場合とは大きく異なる性能を示す。
本稿では,特徴に依存しない情報を用いて,ソフトマックスに基づく信頼度を向上するSCOD(Softmax Information Retaining Combination, SIRC)の新たな手法を提案する。
多様なImageNetスケールのデータセットと畳み込みニューラルネットワークアーキテクチャの実験は、SIRCがSCODのベースラインを一貫して一致または上回っていることを示している。
論文 参考訳(メタデータ) (2022-07-15T14:39:57Z) - On the Practicality of Deterministic Epistemic Uncertainty [106.06571981780591]
決定論的不確実性法(DUM)は,分布外データの検出において高い性能を達成する。
DUMが十分に校正されており、現実のアプリケーションにシームレスにスケールできるかどうかは不明だ。
論文 参考訳(メタデータ) (2021-07-01T17:59:07Z) - Provably Robust Detection of Out-of-distribution Data (almost) for free [124.14121487542613]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)データに対する高い過度な予測を生成することが知られている。
本稿では,認証可能なOOD検出器を標準分類器と組み合わせてOOD認識分類器を提案する。
このようにして、我々は2つの世界のベストを達成している。OOD検出は、分布内に近いOODサンプルであっても、予測精度を損なうことなく、非操作型OODデータに対する最先端のOOD検出性能に近接する。
論文 参考訳(メタデータ) (2021-06-08T11:40:49Z) - A statistical theory of out-of-distribution detection [26.928175726673615]
本稿では,データキュレーションへの接続を利用して分布外データを検出するための原則的手法を提案する。
データキュレーションでは、データセットから曖昧または分類が難しい入力ポイントを除外し、これらの除外ポイントは定義OODです。
したがって、データキュレーションの原理的生成モデルを用いて、OOD点の確率を得ることができる。
論文 参考訳(メタデータ) (2021-02-24T12:35:43Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Out-of-Distribution Detection for Automotive Perception [58.34808836642603]
ニューラルネットワーク(NN)は、自律運転におけるオブジェクト分類に広く使われている。
NNは、アウト・オブ・ディストリビューション(OOD)データとして知られるトレーニングデータセットで適切に表現されていない入力データでフェールすることができる。
本稿では,OODデータを必要としない入力がOODであるか否かを判定し,推論の計算コストを増大させる方法を提案する。
論文 参考訳(メタデータ) (2020-11-03T01:46:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。