論文の概要: Structural Teacher-Student Normality Learning for Multi-Class Anomaly
Detection and Localization
- arxiv url: http://arxiv.org/abs/2402.17091v1
- Date: Tue, 27 Feb 2024 00:02:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 18:24:01.199240
- Title: Structural Teacher-Student Normality Learning for Multi-Class Anomaly
Detection and Localization
- Title(参考訳): 多クラス異常検出と局所化のための構造的教師・学生正規性学習
- Authors: Hanqiu Deng and Xingyu Li
- Abstract要約: SNL(Structure Teacher-Student Normality Learning)と呼ばれる新しいアプローチを導入する。
提案手法をMVTecADとVisAの2つの異常検出データセットで評価した。
この方法では, MVTecADが3.9%, MVTecADが1.5%, VisAが1.2%, 2.5%と, 最先端の蒸留アルゴリズムをはるかに上回っている。
- 参考スコア(独自算出の注目度): 17.543208086457234
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Visual anomaly detection is a challenging open-set task aimed at identifying
unknown anomalous patterns while modeling normal data. The knowledge
distillation paradigm has shown remarkable performance in one-class anomaly
detection by leveraging teacher-student network feature comparisons. However,
extending this paradigm to multi-class anomaly detection introduces novel
scalability challenges. In this study, we address the significant performance
degradation observed in previous teacher-student models when applied to
multi-class anomaly detection, which we identify as resulting from cross-class
interference. To tackle this issue, we introduce a novel approach known as
Structural Teacher-Student Normality Learning (SNL): (1) We propose
spatial-channel distillation and intra-&inter-affinity distillation techniques
to measure structural distance between the teacher and student networks. (2) We
introduce a central residual aggregation module (CRAM) to encapsulate the
normal representation space of the student network. We evaluate our proposed
approach on two anomaly detection datasets, MVTecAD and VisA. Our method
surpasses the state-of-the-art distillation-based algorithms by a significant
margin of 3.9% and 1.5% on MVTecAD and 1.2% and 2.5% on VisA in the multi-class
anomaly detection and localization tasks, respectively. Furthermore, our
algorithm outperforms the current state-of-the-art unified models on both
MVTecAD and VisA.
- Abstract(参考訳): 視覚異常検出は、通常のデータをモデリングしながら未知の異常パターンを特定することを目的とした、困難なオープンセットタスクである。
知識蒸留パラダイムは,教師と学生のネットワーク特徴比較を利用して,一級異常検出において顕著な性能を示した。
しかし、このパラダイムをマルチクラス異常検出に拡張することは、新しいスケーラビリティの課題をもたらす。
本研究では,従来の教師学生モデルにおいて,複数クラス間干渉による異常検出に適用した場合の有意な性能劣化について検討する。
そこで,本稿では,snl(structureal teacher-sudent normality learning)と呼ばれる新しい手法を提案する。(1)空間的チャネル蒸留法とinter-inter-affinity蒸留法を提案し,教師と学生ネットワーク間の構造的距離を計測する。
2) 学生ネットワークの正規表現空間をカプセル化する中央残余集約モジュール(CRAM)を導入する。
提案手法をMVTecADとVisAの2つの異常検出データセットで評価した。
本手法は, MVTecADが3.9%, MVTecADが1.5%, VisAが2.5%, マルチクラス異常検出とローカライゼーションタスクが2.5%であった。
さらに,本アルゴリズムは,MVTecADとVisAの両方において,現在の最先端統一モデルよりも優れている。
関連論文リスト
- Dual-Modeling Decouple Distillation for Unsupervised Anomaly Detection [15.89869857998053]
教師ネットワークへの学生ネットワークの過度な一般化は、異常の表現能力に無視できない違いをもたらす可能性がある。
既存の手法では, 生徒と教師を構造的観点から区別することで, オーバージェネリゼーションの可能性に対処する。
本稿では,非教師付き異常検出のためのDual-Modeling Deouple Distillation (DMDD)を提案する。
論文 参考訳(メタデータ) (2024-08-07T16:39:16Z) - Attend, Distill, Detect: Attention-aware Entropy Distillation for Anomaly Detection [4.0679780034913335]
知識蒸留に基づくマルチクラスの異常検出では、低レイテンシで十分なパフォーマンスが期待できるが、1クラスのバージョンに比べて大幅に低下する。
教師と学生のネットワーク間の蒸留プロセスを改善するDCAM(Distributed Convolutional Attention Module)を提案する。
論文 参考訳(メタデータ) (2024-05-10T13:25:39Z) - Toward Multi-class Anomaly Detection: Exploring Class-aware Unified Model against Inter-class Interference [67.36605226797887]
統一型異常検出(MINT-AD)のためのマルチクラスインプリシトニューラル表現変換器を提案する。
マルチクラス分布を学習することにより、モデルが変換器デコーダのクラス対応クエリ埋め込みを生成する。
MINT-ADは、カテゴリと位置情報を特徴埋め込み空間に投影することができ、さらに分類と事前確率損失関数によって監督される。
論文 参考訳(メタデータ) (2024-03-21T08:08:31Z) - Large Language Model Guided Knowledge Distillation for Time Series
Anomaly Detection [12.585365177675607]
AnomalyLLMは15のデータセットで最先端のパフォーマンスを示し、UCRデータセットの少なくとも14.5%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-01-26T09:51:07Z) - Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - Video Anomaly Detection via Spatio-Temporal Pseudo-Anomaly Generation : A Unified Approach [49.995833831087175]
本研究は,画像のマスキング領域にペンキを塗布することにより,汎用的な映像時間PAを生成する手法を提案する。
さらに,OCC設定下での現実世界の異常を検出するための単純な統合フレームワークを提案する。
提案手法は,OCC設定下での既存のPAs生成および再構築手法と同等に動作する。
論文 参考訳(メタデータ) (2023-11-27T13:14:06Z) - Unraveling the "Anomaly" in Time Series Anomaly Detection: A
Self-supervised Tri-domain Solution [89.16750999704969]
異常ラベルは時系列異常検出において従来の教師付きモデルを妨げる。
自己教師型学習のような様々なSOTA深層学習技術がこの問題に対処するために導入されている。
自己教師型3領域異常検出器(TriAD)を提案する。
論文 参考訳(メタデータ) (2023-11-19T05:37:18Z) - Open-Vocabulary Video Anomaly Detection [57.552523669351636]
監視の弱いビデオ異常検出(VAD)は、ビデオフレームが正常であるか異常であるかを識別するためにビデオレベルラベルを利用する際、顕著な性能を達成した。
近年の研究は、より現実的な、オープンセットのVADに取り組み、異常や正常なビデオから見えない異常を検出することを目的としている。
本稿ではさらに一歩前進し、未確認および未確認の異常を検知・分類するために訓練済みの大規模モデルを活用することを目的とした、オープン語彙ビデオ異常検出(OVVAD)について検討する。
論文 参考訳(メタデータ) (2023-11-13T02:54:17Z) - CL-Flow:Strengthening the Normalizing Flows by Contrastive Learning for
Better Anomaly Detection [1.951082473090397]
コントラスト学習と2D-Flowを組み合わせた自己教師付き異常検出手法を提案する。
本手法は,主流の教師なし手法と比較して,検出精度が向上し,モデルパラメータが減少し,推論速度が向上することを示す。
BTADデータセットでは,MVTecADデータセットでは画像レベルのAUROCが99.6%,BTADデータセットでは画像レベルのAUROCが96.8%であった。
論文 参考訳(メタデータ) (2023-11-12T10:07:03Z) - ADPS: Asymmetric Distillation Post-Segmentation for Image Anomaly
Detection [75.68023968735523]
知識蒸留に基づく異常検出 (KDAD) 法は, 異常領域を検出し, セグメント化するために, 教師学生のパラダイムに頼っている。
非対称蒸留ポストセグメンテーション(ADPS)と呼ばれる革新的なアプローチを提案する。
我々のADPSは、教師-学生ネットワークの入力と同じイメージの異なる形態の非対称蒸留パラダイムを採用している。
ADPSは,MVTec ADとKolektorSDD2データセットで平均精度(AP)を9%,20%向上させることを示した。
論文 参考訳(メタデータ) (2022-10-19T12:04:47Z) - Anomaly Detection via Reverse Distillation from One-Class Embedding [2.715884199292287]
教師エンコーダと生徒デコーダからなる新しいT-Sモデルを提案する。
生画像を直接受信する代わりに、学生ネットワークは教師モデルの1クラス埋め込みを入力として取り込む。
さらに、T-Sモデルにトレーニング可能な1クラスボトルネック埋め込みモジュールを導入する。
論文 参考訳(メタデータ) (2022-01-26T01:48:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。