論文の概要: Unsupervised Out-of-Distribution Detection by Restoring Lossy Inputs
with Variational Autoencoder
- arxiv url: http://arxiv.org/abs/2309.02084v3
- Date: Wed, 3 Jan 2024 06:21:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-04 16:44:52.652220
- Title: Unsupervised Out-of-Distribution Detection by Restoring Lossy Inputs
with Variational Autoencoder
- Title(参考訳): 変分オートエンコーダを用いた損失入力の復元による教師なし分散検出
- Authors: Zezhen Zeng, Bin Liu
- Abstract要約: OOD検出のための新しいVAEベースのスコアであるError Reduction(ER)を提案する。
ERは、トレーニングセットの損失バージョンを入力として、元のセットをターゲットとして、VAEに基づいています。
- 参考スコア(独自算出の注目度): 3.498694457257263
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep generative models have been demonstrated as problematic in the
unsupervised out-of-distribution (OOD) detection task, where they tend to
assign higher likelihoods to OOD samples. Previous studies on this issue are
usually not applicable to the Variational Autoencoder (VAE). As a popular
subclass of generative models, the VAE can be effective with a relatively
smaller model size and be more stable and faster in training and inference,
which can be more advantageous in real-world applications. In this paper, We
propose a novel VAE-based score called Error Reduction (ER) for OOD detection,
which is based on a VAE that takes a lossy version of the training set as
inputs and the original set as targets. Experiments are carried out on various
datasets to show the effectiveness of our method, we also present the effect of
design choices with ablation experiments. Our code is available at:
https://github.com/ZJLAB-AMMI/VAE4OOD.
- Abstract(参考訳): 深層生成モデルは、oodサンプルに高い確率を割り当てる傾向があるood(unsupervised out-of-distribution)検出タスクにおいて問題となっている。
この問題に関するこれまでの研究は通常、変分オートエンコーダ(VAE)には適用されない。
生成モデルの一般的なサブクラスとして、VAEは比較的小さなモデルサイズで有効であり、トレーニングや推論においてより安定で高速であり、現実世界のアプリケーションではより有利である。
本稿では, トレーニングセットの損失バージョンを入力とし, 元のセットをターゲットとするVAEに基づいて, OOD検出のためのER(Error Reduction)と呼ばれる新しいVAEベースのスコアを提案する。
本手法の有効性を示すため,様々なデータセット上で実験を行い,アブレーション実験による設計選択の効果について述べる。
私たちのコードは、https://github.com/ZJLAB-AMMI/VAE4OOD.comで利用可能です。
関連論文リスト
- Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - AUTO: Adaptive Outlier Optimization for Online Test-Time OOD Detection [81.49353397201887]
オープンソースアプリケーションに機械学習モデルをデプロイするには、アウト・オブ・ディストリビューション(OOD)検出が不可欠だ。
我々は、未ラベルのオンラインデータをテスト時に直接利用してOOD検出性能を向上させる、テスト時OOD検出と呼ばれる新しいパラダイムを導入する。
本稿では,入出力フィルタ,IDメモリバンク,意味的に一貫性のある目的からなる適応外乱最適化(AUTO)を提案する。
論文 参考訳(メタデータ) (2023-03-22T02:28:54Z) - Out-of-distribution Detection with Implicit Outlier Transformation [72.73711947366377]
外周露光(OE)は、オフ・オブ・ディストリビューション(OOD)検出において強力である。
我々は,未確認のOOD状況に対してモデルの性能を良くする,新しいOEベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-03-09T04:36:38Z) - Watermarking for Out-of-distribution Detection [76.20630986010114]
Out-of-Distribution (OOD) 検出は、よく訓練された深層モデルから抽出された表現に基づいてOODデータを識別することを目的としている。
本稿では,透かしという一般的な手法を提案する。
我々は,元データの特徴に重畳される統一パターンを学習し,ウォーターマーキング後にモデルの検出能力が大きく向上する。
論文 参考訳(メタデータ) (2022-10-27T06:12:32Z) - Training OOD Detectors in their Natural Habitats [31.565635192716712]
アウト・オブ・ディストリビューション(OOD)検出は、野生にデプロイされた機械学習モデルにとって重要である。
近年の手法では,OOD検出の改善のために補助外乱データを用いてモデルを正規化している。
我々は、自然にIDとOODの両方のサンプルで構成される野生の混合データを活用する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T15:38:39Z) - Energy-bounded Learning for Robust Models of Code [16.592638312365164]
プログラミングでは、コード表現の学習には、コード分類、コード検索、コメント生成、バグ予測など、さまざまなアプリケーションがある。
本稿では,ソースコードモデルのトレーニングプロセスにこれらのアウト・オブ・ディストリビューション・サンプルを組み込むため,エネルギー境界学習目標関数を用いて,イン・ディストリビューション・サンプルにより高いスコアを割り当て,アウト・オブ・ディストリビューション・サンプルに低いスコアを割り当てることを提案する。
論文 参考訳(メタデータ) (2021-12-20T06:28:56Z) - EARLIN: Early Out-of-Distribution Detection for Resource-efficient
Collaborative Inference [4.826988182025783]
協調推論により、リソース制約のあるエッジデバイスは、入力をサーバにアップロードすることで推論を行うことができる。
このセットアップは、成功した推論のためにコスト効率よく機能するが、モデルがトレーニングされていない入力サンプルに直面すると、非常にパフォーマンスが低下する。
我々は,事前訓練されたCNNモデルの浅い層から重要な特徴を抽出する,新しい軽量OOD検出手法を提案する。
論文 参考訳(メタデータ) (2021-06-25T18:43:23Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Bigeminal Priors Variational auto-encoder [5.430048915427229]
変分自動エンコーダ(VAEs)は、教師なし学習における可能性に基づく生成モデルに影響を及ぼし、一般的に使用される。
本稿では,この現象に対処するための新しいモデル,すなわちBigeminal Priors Variational Auto-Encoder(BPVAE)を提案する。
BPVAEは2つのデータセットの特徴を学習し、単純なデータセットよりもトレーニングデータセットの可能性が高くなる。
論文 参考訳(メタデータ) (2020-10-05T07:10:52Z) - Unsupervised Anomaly Detection with Adversarial Mirrored AutoEncoders [51.691585766702744]
本稿では,識別器のミラー化ワッサースタイン損失を利用して,よりセマンティックレベルの再構築を行う逆自動エンコーダの変種を提案する。
我々は,再建基準の代替として,異常スコアの代替尺度を提案した。
提案手法は,OOD検出ベンチマークにおける異常検出の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-03-24T08:26:58Z) - Likelihood Regret: An Out-of-Distribution Detection Score For
Variational Auto-encoder [6.767885381740952]
確率的生成モデルは、ある種のアウト・オブ・ディストリビューション・サンプルに対して高い確率を割り当てることができる。
VAEのための効率的なOODスコアであるLikelihood Regretを提案する。
論文 参考訳(メタデータ) (2020-03-06T00:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。