論文の概要: A Unified Model for Multi-class Anomaly Detection
- arxiv url: http://arxiv.org/abs/2206.03687v1
- Date: Wed, 8 Jun 2022 06:05:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-09 13:55:40.614481
- Title: A Unified Model for Multi-class Anomaly Detection
- Title(参考訳): 多クラス異常検出のための統一モデル
- Authors: Zhiyuan You, Lei Cui, Yujun Shen, Kai Yang, Xin Lu, Yu Zheng, Xinyi Le
- Abstract要約: UniADは、統一されたフレームワークで複数のクラスに対して異常検出を行う。
MVTec-ADおよびCIFAR-10データセットを用いて,本アルゴリズムの評価を行った。
- 参考スコア(独自算出の注目度): 33.534990722449066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the rapid advance of unsupervised anomaly detection, existing methods
require to train separate models for different objects. In this work, we
present UniAD that accomplishes anomaly detection for multiple classes with a
unified framework. Under such a challenging setting, popular reconstruction
networks may fall into an "identical shortcut", where both normal and anomalous
samples can be well recovered, and hence fail to spot outliers. To tackle this
obstacle, we make three improvements. First, we revisit the formulations of
fully-connected layer, convolutional layer, as well as attention layer, and
confirm the important role of query embedding (i.e., within attention layer) in
preventing the network from learning the shortcut. We therefore come up with a
layer-wise query decoder to help model the multi-class distribution. Second, we
employ a neighbor masked attention module to further avoid the information leak
from the input feature to the reconstructed output feature. Third, we propose a
feature jittering strategy that urges the model to recover the correct message
even with noisy inputs. We evaluate our algorithm on MVTec-AD and CIFAR-10
datasets, where we surpass the state-of-the-art alternatives by a sufficiently
large margin. For example, when learning a unified model for 15 categories in
MVTec-AD, we surpass the second competitor on the tasks of both anomaly
detection (from 88.1% to 96.5%) and anomaly localization (from 89.5% to 96.8%).
Code will be made publicly available.
- Abstract(参考訳): 教師なし異常検出の急速な進歩にもかかわらず、既存の手法では異なるオブジェクトの別々のモデルを訓練する必要がある。
本稿では,統一されたフレームワークで複数のクラスに対して異常検出を行うUniADを提案する。
このような困難な状況下では、一般的なレコンストラクションネットワークは、正常なサンプルと異常なサンプルの両方を適切に回収できる「特定ショートカット」に陥り、異常値を見つけることができない可能性がある。
この障害に対処するため、我々は3つの改善を行った。
まず,完全連結層,畳み込み層,および注目層の定式化を再検討し,ネットワークがショートカットを学習しないようにするためのクエリ埋め込み(すなわち注意層内)の重要性を確認する。
そこで我々は,マルチクラス分布のモデル化を支援する階層型クエリデコーダを考案した。
第2に,隣接マスク型アテンションモジュールを用いて,入力機能から再構成出力機能への情報漏洩をさらに回避する。
第3に,ノイズのある入力でも適切なメッセージを復元するようにモデルに促す機能ジッタリング戦略を提案する。
我々はMVTec-ADとCIFAR-10のデータセットでアルゴリズムを評価し、最先端の代替品を十分に大きなマージンで超えている。
例えば、MVTec-ADで15のカテゴリの統一モデルを学ぶとき、異常検出(88.1%から96.5%)と異常局所化(89.5%から96.8%)の両方のタスクにおいて、第2の競争相手を上回る。
コードは公開される予定だ。
関連論文リスト
- Attend, Distill, Detect: Attention-aware Entropy Distillation for Anomaly Detection [4.0679780034913335]
知識蒸留に基づくマルチクラスの異常検出では、低レイテンシで十分なパフォーマンスが期待できるが、1クラスのバージョンに比べて大幅に低下する。
教師と学生のネットワーク間の蒸留プロセスを改善するDCAM(Distributed Convolutional Attention Module)を提案する。
論文 参考訳(メタデータ) (2024-05-10T13:25:39Z) - Toward Multi-class Anomaly Detection: Exploring Class-aware Unified Model against Inter-class Interference [67.36605226797887]
統一型異常検出(MINT-AD)のためのマルチクラスインプリシトニューラル表現変換器を提案する。
マルチクラス分布を学習することにより、モデルが変換器デコーダのクラス対応クエリ埋め込みを生成する。
MINT-ADは、カテゴリと位置情報を特徴埋め込み空間に投影することができ、さらに分類と事前確率損失関数によって監督される。
論文 参考訳(メタデータ) (2024-03-21T08:08:31Z) - Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - Locate and Verify: A Two-Stream Network for Improved Deepfake Detection [33.50963446256726]
現在のディープフェイク検出法は一般に一般化が不十分である。
本稿では,モデルがエビデンスを抽出する潜在的領域を効果的に拡大する,革新的な2ストリームネットワークを提案する。
また、パッチレベルの偽位置アノテーションを推定するための半教師付きパッチ類似性学習戦略を提案する。
論文 参考訳(メタデータ) (2023-09-20T08:25:19Z) - LafitE: Latent Diffusion Model with Feature Editing for Unsupervised
Multi-class Anomaly Detection [12.596635603629725]
我々は,通常のデータのみにアクセス可能な場合に,複数のクラスに属するオブジェクトから異常を検出する統一モデルを開発した。
まず、生成的アプローチについて検討し、再構成のための潜伏拡散モデルについて検討する。
「拡散モデルの入力特徴空間を修正し、アイデンティティショートカットをさらに緩和する特徴編集戦略を導入する。」
論文 参考訳(メタデータ) (2023-07-16T14:41:22Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Anomaly Detection via Multi-Scale Contrasted Memory [3.0170109896527086]
マルチスケールの標準プロトタイプをトレーニング中に記憶し,異常偏差値を計算する2段階の異常検出器を新たに導入する。
CIFAR-10の誤差相対改善率を最大35%とすることにより,多種多様なオブジェクト,スタイル,局所異常に対する最先端性能を高い精度で向上させる。
論文 参考訳(メタデータ) (2022-11-16T16:58:04Z) - Self-Supervised Predictive Convolutional Attentive Block for Anomaly
Detection [97.93062818228015]
本稿では,再建に基づく機能を,新たな自己監督型予測アーキテクチャビルディングブロックに統合することを提案する。
我々のブロックは、受容領域におけるマスク領域に対する再構成誤差を最小限に抑える損失を備える。
画像やビデオの異常検出のための最先端フレームワークに組み込むことで,ブロックの汎用性を実証する。
論文 参考訳(メタデータ) (2021-11-17T13:30:31Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - CutPaste: Self-Supervised Learning for Anomaly Detection and
Localization [59.719925639875036]
通常のトレーニングデータのみを用いて異常検知器を構築するためのフレームワークを提案する。
まず、自己教師付き深層表現を学習し、学習した表現の上に生成的1クラス分類器を構築する。
MVTec異常検出データセットに関する実証研究は,提案アルゴリズムが実世界の様々な欠陥を検出可能であることを実証している。
論文 参考訳(メタデータ) (2021-04-08T19:04:55Z) - MOCCA: Multi-Layer One-Class ClassificAtion for Anomaly Detection [16.914663209964697]
我々は,Multi-Layer One-Class Classification (MOCCA) と呼ばれる異常検出問題に対するディープラーニングアプローチを提案する。
異なる深さで抽出された情報を利用して異常なデータインスタンスを検出することで、ディープニューラルネットワークのピースワイズ的性質を明示的に活用します。
本稿では,本手法が文献で利用可能な最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2020-12-09T08:32:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。