論文の概要: Detecting Out-of-distribution Samples via Variational Auto-encoder with
Reliable Uncertainty Estimation
- arxiv url: http://arxiv.org/abs/2007.08128v3
- Date: Mon, 1 Nov 2021 05:50:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 22:04:06.900311
- Title: Detecting Out-of-distribution Samples via Variational Auto-encoder with
Reliable Uncertainty Estimation
- Title(参考訳): 不確実性推定を用いた変分オートエンコーダによる分布外サンプルの検出
- Authors: Xuming Ran, Mingkun Xu, Lingrui Mei, Qi Xu, Quanying Liu
- Abstract要約: 変分オートエンコーダ(VAE)は、豊かな表現能力を持つ影響のある生成モデルである。
VAEモデルは、アウト・オブ・ディストリビューション(OOD)インプットに対して、イン・ディストリビューション(ID)インプットよりも高い確率を割り当てる弱点がある。
本研究では,INCPVAEと呼ばれるVAEのエンコーダに統合可能な改良型ノイズコントラッシブ先行(INCP)を提案する。
- 参考スコア(独自算出の注目度): 5.430048915427229
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Variational autoencoders (VAEs) are influential generative models with rich
representation capabilities from the deep neural network architecture and
Bayesian method. However, VAE models have a weakness that assign a higher
likelihood to out-of-distribution (OOD) inputs than in-distribution (ID)
inputs. To address this problem, a reliable uncertainty estimation is
considered to be critical for in-depth understanding of OOD inputs. In this
study, we propose an improved noise contrastive prior (INCP) to be able to
integrate into the encoder of VAEs, called INCPVAE. INCP is scalable, trainable
and compatible with VAEs, and it also adopts the merits from the INCP for
uncertainty estimation. Experiments on various datasets demonstrate that
compared to the standard VAEs, our model is superior in uncertainty estimation
for the OOD data and is robust in anomaly detection tasks. The INCPVAE model
obtains reliable uncertainty estimation for OOD inputs and solves the OOD
problem in VAE models.
- Abstract(参考訳): 変分オートエンコーダ(VAE)は、ディープニューラルネットワークアーキテクチャとベイズ法から豊かな表現能力を持つ影響のある生成モデルである。
しかしながら、VAEモデルは、分布外入力(OOD)に対して、分布外入力(ID)よりも高い確率を割り当てる弱点がある。
この問題に対処するため、OOD入力の深い理解には確実な不確実性推定が重要であると考えられる。
本研究では,INCPVAEと呼ばれるVAEのエンコーダに統合可能な改良型ノイズコントラッシブ先行(INCP)を提案する。
INCPは拡張性があり、VAEと互換性があり、不確実性評価のためのINCPの利点も採用している。
各種データセットに対する実験により,標準のVAEと比較してOODデータの不確実性推定に優れ,異常検出タスクにおいて堅牢であることが示された。
INCPVAEモデルは、OOD入力に対する確実な不確実性を推定し、VAEモデルにおけるOOD問題を解く。
関連論文リスト
- Out-of-Distribution Detection with Overlap Index [22.92968284023414]
アウト・オブ・ディストリビューション(OOD)検出は、オープンな世界における機械学習モデルの展開に不可欠である。
重なり指数(OI)に基づく信頼度スコア関数を用いた新しいOOD検出手法を提案する。
我々は,OIをベースとしたOOD検出器と最先端のOOD検出器が競合することを示す。
論文 参考訳(メタデータ) (2024-12-09T03:01:47Z) - What If the Input is Expanded in OOD Detection? [77.37433624869857]
Out-of-distriion (OOD) 検出は未知のクラスからのOOD入力を特定することを目的としている。
In-distriion(ID)データと区別するために,様々なスコアリング関数を提案する。
入力空間に異なる共通の汚職を用いるという、新しい視点を導入する。
論文 参考訳(メタデータ) (2024-10-24T06:47:28Z) - Distilling the Unknown to Unveil Certainty [66.29929319664167]
標準ネットワークがトレーニングされるIDデータから逸脱するテストサンプルを特定するためには、アウト・オブ・ディストリビューション(OOD)検出が不可欠である。
本稿では,IDデータのトレーニングが可能であるか否かを問う,先駆的な学習フレームワークであるOODナレッジ蒸留について紹介する。
論文 参考訳(メタデータ) (2023-11-14T08:05:02Z) - LINe: Out-of-Distribution Detection by Leveraging Important Neurons [15.797257361788812]
本稿では,分布内データとOODデータ間のモデル出力の差を解析するための新しい側面を紹介する。
本稿では,分布検出のポストホックアウトのための新しい手法であるLINe( Leveraging Important Neurons)を提案する。
論文 参考訳(メタデータ) (2023-03-24T13:49:05Z) - Diffusion Denoising Process for Perceptron Bias in Out-of-distribution
Detection [67.49587673594276]
我々は、識別器モデルが入力の特定の特徴に対してより敏感であることを示唆する新しいパーセプトロンバイアスの仮定を導入し、過度な問題を引き起こした。
DMの拡散分解過程 (DDP) が非対称の新たな形態として機能し, 入力を高め, 過信問題を緩和するのに適していることを示す。
CIFAR10, CIFAR100, ImageNetによる実験により, 提案手法がSOTA手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-11-21T08:45:08Z) - Provably Robust Detection of Out-of-distribution Data (almost) for free [124.14121487542613]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)データに対する高い過度な予測を生成することが知られている。
本稿では,認証可能なOOD検出器を標準分類器と組み合わせてOOD認識分類器を提案する。
このようにして、我々は2つの世界のベストを達成している。OOD検出は、分布内に近いOODサンプルであっても、予測精度を損なうことなく、非操作型OODデータに対する最先端のOOD検出性能に近接する。
論文 参考訳(メタデータ) (2021-06-08T11:40:49Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Bigeminal Priors Variational auto-encoder [5.430048915427229]
変分自動エンコーダ(VAEs)は、教師なし学習における可能性に基づく生成モデルに影響を及ぼし、一般的に使用される。
本稿では,この現象に対処するための新しいモデル,すなわちBigeminal Priors Variational Auto-Encoder(BPVAE)を提案する。
BPVAEは2つのデータセットの特徴を学習し、単純なデータセットよりもトレーニングデータセットの可能性が高くなる。
論文 参考訳(メタデータ) (2020-10-05T07:10:52Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z) - Uncertainty-Based Out-of-Distribution Classification in Deep
Reinforcement Learning [17.10036674236381]
アウト・オブ・ディストリビューションデータの誤予測は、機械学習システムにおける安全性の危機的状況を引き起こす可能性がある。
我々は不確実性に基づくOOD分類のためのフレームワークUBOODを提案する。
UBOODはアンサンブルに基づく推定器と組み合わせることで,信頼性の高い分類結果が得られることを示す。
論文 参考訳(メタデータ) (2019-12-31T09:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。