論文の概要: READ: Aggregating Reconstruction Error into Out-of-distribution
Detection
- arxiv url: http://arxiv.org/abs/2206.07459v1
- Date: Wed, 15 Jun 2022 11:30:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-16 14:13:01.950728
- Title: READ: Aggregating Reconstruction Error into Out-of-distribution
Detection
- Title(参考訳): READ:Aggregating Reconstruction Error into Out-of-distribution Detection
- Authors: Wenyu Jiang, Hao Cheng, Mingcai Chen, Shuai Feng, Yuxin Ge, Chongjun
Wang
- Abstract要約: ディープニューラルネットワークは異常なデータに対する過信であることが知られている。
本稿では,READ(Reconstruction Error Aggregated Detector)を提案する。
本手法は,従来のOOD検出アルゴリズムと比較して,FPR@95TPRの平均値を最大9.8%削減する。
- 参考スコア(独自算出の注目度): 5.069442437365223
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Detecting out-of-distribution (OOD) samples is crucial to the safe deployment
of a classifier in the real world. However, deep neural networks are known to
be overconfident for abnormal data. Existing works directly design score
function by mining the inconsistency from classifier for in-distribution (ID)
and OOD. In this paper, we further complement this inconsistency with
reconstruction error, based on the assumption that an autoencoder trained on ID
data can not reconstruct OOD as well as ID. We propose a novel method, READ
(Reconstruction Error Aggregated Detector), to unify inconsistencies from
classifier and autoencoder. Specifically, the reconstruction error of raw
pixels is transformed to latent space of classifier. We show that the
transformed reconstruction error bridges the semantic gap and inherits
detection performance from the original. Moreover, we propose an adjustment
strategy to alleviate the overconfidence problem of autoencoder according to a
fine-grained characterization of OOD data. Under two scenarios of pre-training
and retraining, we respectively present two variants of our method, namely
READ-MD (Mahalanobis Distance) only based on pre-trained classifier and READ-ED
(Euclidean Distance) which retrains the classifier. Our methods do not require
access to test time OOD data for fine-tuning hyperparameters. Finally, we
demonstrate the effectiveness of the proposed methods through extensive
comparisons with state-of-the-art OOD detection algorithms. On a CIFAR-10
pre-trained WideResNet, our method reduces the average FPR@95TPR by up to 9.8%
compared with previous state-of-the-art.
- Abstract(参考訳): 現実世界における分類器の安全な配置には、OOD(out-of-distriion)サンプルの検出が不可欠である。
しかし、ディープニューラルネットワークは異常なデータに対して過信的であることが知られている。
既存の作業は、in-distriion (ID) と OOD の分類器から不整合をマイニングすることでスコア関数を直接設計する。
本稿では,idデータに基づいて訓練されたオートエンコーダがoodやidを再構築できないという仮定に基づいて,この不整合と再構成誤差をさらに補う。
分類器とオートエンコーダとの矛盾を統一する新しい手法read (reconstruction error aggregated detector) を提案する。
具体的には、生画素の再構成誤差を分類器の潜在空間に変換する。
変換された再構成誤差が意味的ギャップを橋渡しし,検出性能をオリジナルから継承することを示す。
さらに,OODデータのきめ細かいキャラクタリゼーションに基づいて,オートエンコーダの過信問題を緩和するための調整戦略を提案する。
事前訓練と再訓練の2つのシナリオでは,それぞれ,事前訓練した分類器のみに基づくREAD-MD(Mahalanobis Distance)と,分類器を再訓練するREAD-ED(Euclidean Distance)の2つのバリエーションを提示する。
我々の手法は、微調整ハイパーパラメーターのためのテスト時間OODデータへのアクセスを必要としない。
最後に,提案手法の有効性を,最先端OOD検出アルゴリズムとの比較により示す。
CIFAR-10 で事前訓練した WideResNet では,従来の最先端技術と比較して平均 FPR@95TPR を 9.8% 削減する。
関連論文リスト
- Diffusion-based Layer-wise Semantic Reconstruction for Unsupervised Out-of-Distribution Detection [30.02748131967826]
教師なしのアウト・オブ・ディストリビューション(OOD)検出は、未ラベルのIn-Distribution(ID)トレーニングサンプルからのみ学習することで、ドメイン外のデータを識別することを目的としている。
現在の再構成手法は, 画素/機能空間における入力と対応する生成物間の再構成誤差を測定することで, 優れた代替手法を提供する。
拡散に基づく階層的意味再構成手法を提案する。
論文 参考訳(メタデータ) (2024-11-16T04:54:07Z) - What If the Input is Expanded in OOD Detection? [77.37433624869857]
Out-of-distriion (OOD) 検出は未知のクラスからのOOD入力を特定することを目的としている。
In-distriion(ID)データと区別するために,様々なスコアリング関数を提案する。
入力空間に異なる共通の汚職を用いるという、新しい視点を導入する。
論文 参考訳(メタデータ) (2024-10-24T06:47:28Z) - How Does Unlabeled Data Provably Help Out-of-Distribution Detection? [63.41681272937562]
in-distribution (ID) とout-of-distribution (OOD) の両データの不均一性のため、未ラベルの in-the-wild データは非自明である。
本稿では,理論的保証と実証的有効性の両方を提供する新たな学習フレームワークであるSAL(Separate And Learn)を紹介する。
論文 参考訳(メタデータ) (2024-02-05T20:36:33Z) - Spot The Odd One Out: Regularized Complete Cycle Consistent Anomaly Detector GAN [4.5123329001179275]
本研究では,GAN(Generative Adversarial Neural Network)のパワーを活用した,現実の応用における異常検出のための逆方向検出手法を提案する。
従来の手法は、あらゆる種類の異常に適用できないような、クラス単位での精度のばらつきに悩まされていた。
RCALADという手法は,この構造に新たな識別器を導入し,より効率的な学習プロセスを実現することで,この問題を解決しようとするものである。
論文 参考訳(メタデータ) (2023-04-16T13:05:39Z) - Connective Reconstruction-based Novelty Detection [3.7706789983985303]
ディープラーニングにより、説明できないサンプルを含む実世界のデータを分析できるようになった。
GANベースのアプローチは、分散フィッティングを行う能力のため、この問題に対処するために広く利用されている。
本稿では,GANモデルの制約を補うために複雑化を伴わない,シンプルで効率的な再構成手法を提案する。
論文 参考訳(メタデータ) (2022-10-25T11:09:39Z) - Rethinking Reconstruction Autoencoder-Based Out-of-Distribution
Detection [0.0]
リコンストラクションオートエンコーダに基づく手法は、入力再構成誤差を新規性対正規性の計量として用いることでこの問題に対処する。
本稿では, 意味的再構成, データの確実性分解, 正規化L2距離を導入し, 元の手法を大幅に改善する。
提案手法は,追加データや実装の困難さ,時間を要するパイプライン,さらには既知のクラスの分類精度を損なうことなく機能する。
論文 参考訳(メタデータ) (2022-03-04T09:04:55Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - Semantic Perturbations with Normalizing Flows for Improved
Generalization [62.998818375912506]
我々は、非教師付きデータ拡張を定義するために、潜在空間における摂動が利用できることを示す。
トレーニングを通して分類器に適応する潜伏性対向性摂動が最も効果的であることが判明した。
論文 参考訳(メタデータ) (2021-08-18T03:20:00Z) - Provably Robust Detection of Out-of-distribution Data (almost) for free [124.14121487542613]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)データに対する高い過度な予測を生成することが知られている。
本稿では,認証可能なOOD検出器を標準分類器と組み合わせてOOD認識分類器を提案する。
このようにして、我々は2つの世界のベストを達成している。OOD検出は、分布内に近いOODサンプルであっても、予測精度を損なうことなく、非操作型OODデータに対する最先端のOOD検出性能に近接する。
論文 参考訳(メタデータ) (2021-06-08T11:40:49Z) - Unsupervised Anomaly Detection with Adversarial Mirrored AutoEncoders [51.691585766702744]
本稿では,識別器のミラー化ワッサースタイン損失を利用して,よりセマンティックレベルの再構築を行う逆自動エンコーダの変種を提案する。
我々は,再建基準の代替として,異常スコアの代替尺度を提案した。
提案手法は,OOD検出ベンチマークにおける異常検出の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-03-24T08:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。