論文の概要: Understanding Anomaly Detection with Deep Invertible Networks through
Hierarchies of Distributions and Features
- arxiv url: http://arxiv.org/abs/2006.10848v3
- Date: Mon, 2 Nov 2020 17:27:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 09:43:22.034431
- Title: Understanding Anomaly Detection with Deep Invertible Networks through
Hierarchies of Distributions and Features
- Title(参考訳): 分布と特徴の階層化によるディープ・インバーティブル・ネットワークによる異常検出の理解
- Authors: Robin Tibor Schirrmeister, Yuxuan Zhou, Tonio Ball and Dan Zhang
- Abstract要約: 畳み込みネットワークは、任意の自然言語データセットでトレーニングされた場合、同様の低レベルの特徴分布を学習する。
inlier とoutlier の識別的特徴が高いレベルにある場合、異常検出は特に困難になる。
モデルバイアスとドメインが高レベルの差を検出する前に負の影響を除去する2つの方法を提案する。
- 参考スコア(独自算出の注目度): 4.25227087152716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep generative networks trained via maximum likelihood on a natural image
dataset like CIFAR10 often assign high likelihoods to images from datasets with
different objects (e.g., SVHN). We refine previous investigations of this
failure at anomaly detection for invertible generative networks and provide a
clear explanation of it as a combination of model bias and domain prior:
Convolutional networks learn similar low-level feature distributions when
trained on any natural image dataset and these low-level features dominate the
likelihood. Hence, when the discriminative features between inliers and
outliers are on a high-level, e.g., object shapes, anomaly detection becomes
particularly challenging. To remove the negative impact of model bias and
domain prior on detecting high-level differences, we propose two methods,
first, using the log likelihood ratios of two identical models, one trained on
the in-distribution data (e.g., CIFAR10) and the other one on a more general
distribution of images (e.g., 80 Million Tiny Images). We also derive a novel
outlier loss for the in-distribution network on samples from the more general
distribution to further improve the performance. Secondly, using a multi-scale
model like Glow, we show that low-level features are mainly captured at early
scales. Therefore, using only the likelihood contribution of the final scale
performs remarkably well for detecting high-level feature differences of the
out-of-distribution and the in-distribution. This method is especially useful
if one does not have access to a suitable general distribution. Overall, our
methods achieve strong anomaly detection performance in the unsupervised
setting, and only slightly underperform state-of-the-art classifier-based
methods in the supervised setting. Code can be found at
https://github.com/boschresearch/hierarchical_anomaly_detection.
- Abstract(参考訳): CIFAR10のような自然画像データセット上で最大限に訓練された深層生成ネットワークは、しばしば異なるオブジェクト(例えばSVHN)を持つデータセットからの画像に高い確率を割り当てる。
非可逆生成ネットワークの異常検出におけるこの障害に関する以前の調査を精査し、モデルバイアスとドメイン事前の組み合わせとして明確に説明する: 畳み込みネットワークは、任意の自然言語データセットでトレーニングされたときに、同様の低レベル特徴分布を学習し、これらの低レベル特徴が、その可能性を支配している。
したがって、インレーヤとアウトレーヤの識別的特徴が高レベルである場合、例えばオブジェクトの形状や異常検出が特に困難になる。
モデルバイアスとドメインが高レベルの差を検出する前に負の影響を除去するため、まず2つの同一モデルの対数精度比を用いて、分布内データ(例えば、CIFAR10)と、より一般的な画像(例えば、8000万ティニー画像)でトレーニングした2つの手法を提案する。
また, より一般的な分布からサンプルの分布内ネットワークに対する新たな出力損失を導出し, さらなる性能向上を図る。
次に、glowのようなマルチスケールモデルを用いて、低レベルの機能が主に初期のスケールでキャプチャされることを示す。
したがって、最終尺度の確率寄与のみを用いることで、分布域外と分布域の高レベル特徴差を検出することができる。
この方法は、適切な一般分布にアクセスできない場合に特に有用である。
本手法は,教師なし設定では強い異常検出性能を示し,教師付き設定では最先端の分類器に基づく手法ではわずかに性能が劣る。
コードはhttps://github.com/boschresearch/hierarchical_anomaly_detectionにある。
関連論文リスト
- Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - A Prototype-Based Neural Network for Image Anomaly Detection and Localization [10.830337829732915]
本稿では,画像の異常検出と局所化のためのプロトタイプベースニューラルネットワークProtoADを提案する。
まず,自然画像に事前学習したディープネットワークにより,通常の画像のパッチの特徴を抽出する。
ProtoADは、推論速度の高い最先端の手法と比較して、競争性能が向上する。
論文 参考訳(メタデータ) (2023-10-04T04:27:16Z) - CRADL: Contrastive Representations for Unsupervised Anomaly Detection
and Localization [2.8659934481869715]
医用画像における教師なし異常検出は、訓練中に異常データを必要とせず、任意の異常を検出し、位置決めすることを目的としている。
現在の最先端の手法のほとんどは、画像上で直接動作する潜在変数生成モデルを使用している。
コントラストプレテクストタスクで訓練されたエンコーダの低次元表現空間において,正規サンプルの分布を直接モデル化するCRADLを提案する。
論文 参考訳(メタデータ) (2023-01-05T16:07:49Z) - Fake It Till You Make It: Near-Distribution Novelty Detection by
Score-Based Generative Models [54.182955830194445]
既存のモデルは、いわゆる"近く分布"設定で失敗するか、劇的な低下に直面します。
本稿では, スコアに基づく生成モデルを用いて, 合成近分布異常データを生成することを提案する。
本手法は,9つのノベルティ検出ベンチマークにおいて,近分布ノベルティ検出を6%改善し,最先端のノベルティ検出を1%から5%パスする。
論文 参考訳(メタデータ) (2022-05-28T02:02:53Z) - Low-Light Image Enhancement with Normalizing Flow [92.52290821418778]
本稿では,この一対多の関係を正規化フローモデルを用いてモデル化する。
低照度画像/特徴を条件として取り、通常露光される画像の分布をガウス分布にマッピングすることを学ぶ可逆ネットワーク。
既存のベンチマークデータセットによる実験結果から,提案手法はより定量的,質的な結果を得ることができ,照度が良く,ノイズやアーティファクトが小さく,色も豊かになることがわかった。
論文 参考訳(メタデータ) (2021-09-13T12:45:08Z) - Explainable Deep Few-shot Anomaly Detection with Deviation Networks [123.46611927225963]
本稿では,弱い教師付き異常検出フレームワークを導入し,検出モデルを訓練する。
提案手法は,ラベル付き異常と事前確率を活用することにより,識別正規性を学習する。
我々のモデルはサンプル効率が高く頑健であり、クローズドセットとオープンセットの両方の設定において最先端の競合手法よりもはるかに優れている。
論文 参考訳(メタデータ) (2021-08-01T14:33:17Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - MOCCA: Multi-Layer One-Class ClassificAtion for Anomaly Detection [16.914663209964697]
我々は,Multi-Layer One-Class Classification (MOCCA) と呼ばれる異常検出問題に対するディープラーニングアプローチを提案する。
異なる深さで抽出された情報を利用して異常なデータインスタンスを検出することで、ディープニューラルネットワークのピースワイズ的性質を明示的に活用します。
本稿では,本手法が文献で利用可能な最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2020-12-09T08:32:56Z) - Multiresolution Knowledge Distillation for Anomaly Detection [10.799350080453982]
教師なし表現学習は、画像における異常検出/局所化の重要な構成要素であることが証明されている。
サンプルサイズは、従来の手法でリッチな一般化可能な表現を学ぶのに十分な大きさではないことが多い。
本稿では、ImageNetで事前訓練された各種ネットワークの「蒸留」機能を用いて、両方の問題に対処する簡易なクローンネットワークを提案する。
論文 参考訳(メタデータ) (2020-11-22T21:16:35Z) - Generalized ODIN: Detecting Out-of-distribution Image without Learning
from Out-of-distribution Data [87.61504710345528]
我々は,OoD検出性能を改善しつつ,ニューラルネットワークをOoDデータのチューニングから解放する2つの方法を提案する。
具体的には、信頼性スコアリングと修正された入力前処理法を分離することを提案する。
大規模画像データセットのさらなる解析により、セマンティックシフトと非セマンティックシフトの2種類の分布シフトが有意な差を示すことが示された。
論文 参考訳(メタデータ) (2020-02-26T04:18:25Z) - Granular Learning with Deep Generative Models using Highly Contaminated
Data [0.0]
品質問題のある実世界の画像データセット上で, 微粒な意味での異常検出のための深部生成モデルの最近の進歩を活用するためのアプローチを詳述する。
このアプローチは完全に教師なし(アノテーションは使用できない)だが、質的に画像の正確なセマンティックラベリングを提供するために示される。
論文 参考訳(メタデータ) (2020-01-06T23:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。