論文の概要: Learning Multi-view Multi-class Anomaly Detection
- arxiv url: http://arxiv.org/abs/2504.21294v1
- Date: Wed, 30 Apr 2025 03:59:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 22:39:40.085307
- Title: Learning Multi-view Multi-class Anomaly Detection
- Title(参考訳): マルチビュー・マルチクラス異常検出の学習
- Authors: Qianzi Yu, Yang Cao, Yu Kang,
- Abstract要約: MVMCAD(Multi-View Multi-Class Anomaly Detection Model)を導入し、複数のビューからの情報を統合して異常を正確に識別する。
具体的には、凍結エンコーダの前にプリエンコーダの事前拡張機構を追加する半凍結エンコーダを提案する。
AAM(Anomaly Amplification Module)は、グローバルトークンのインタラクションをモデル化し、通常のリージョンを抑圧する。
- 参考スコア(独自算出の注目度): 10.199404082194947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The latest trend in anomaly detection is to train a unified model instead of training a separate model for each category. However, existing multi-class anomaly detection (MCAD) models perform poorly in multi-view scenarios because they often fail to effectively model the relationships and complementary information among different views. In this paper, we introduce a Multi-View Multi-Class Anomaly Detection model (MVMCAD), which integrates information from multiple views to accurately identify anomalies. Specifically, we propose a semi-frozen encoder, where a pre-encoder prior enhancement mechanism is added before the frozen encoder, enabling stable cross-view feature modeling and efficient adaptation for improved anomaly detection. Furthermore, we propose an Anomaly Amplification Module (AAM) that models global token interactions and suppresses normal regions to enhance anomaly signals, leading to improved detection performance in multi-view settings. Finally, we propose a Cross-Feature Loss that aligns shallow encoder features with deep decoder features and vice versa, enhancing the model's sensitivity to anomalies at different semantic levels under multi-view scenarios. Extensive experiments on the Real-IAD dataset for multi-view multi-class anomaly detection validate the effectiveness of our approach, achieving state-of-the-art performance of 91.0/88.6/82.1 and 99.1/43.9/48.2/95.2 for image-level and the pixel-level, respectively.
- Abstract(参考訳): 異常検出の最新トレンドは、各カテゴリごとに別々のモデルをトレーニングする代わりに、統一モデルをトレーニングすることだ。
しかし、既存のマルチクラス異常検出(MCAD)モデルは、しばしば異なるビュー間の関係や相補的な情報を効果的にモデル化できないため、マルチビューシナリオでは不十分である。
本稿では,複数ビューからの情報を統合して異常を正確に識別するマルチビューマルチクラス異常検出モデル(MVMCAD)を提案する。
具体的には、凍結エンコーダの前にプリエンコーダの事前拡張機構を追加する半凍結エンコーダを提案し、安定したクロスビュー特徴モデリングと、改良された異常検出のための効率的な適応を可能にする。
さらに,AAM(Anomaly Amplification Module)を提案する。このモジュールは,グローバルトークンの相互作用をモデル化し,正常領域を抑圧し,異常信号の強化を実現し,マルチビュー設定における検出性能の向上を実現する。
最後に,浅層エンコーダ機能と深層デコーダ機能とを整合させるクロスフィーチャーロスを提案する。
マルチビューマルチクラス異常検出のためのReal-IADデータセットの大規模な実験により,画像レベルと画素レベルの91.0/88.6/82.1,99.1/43.9/48.2/95.2の最先端性能が得られた。
関連論文リスト
- Multi-View Industrial Anomaly Detection with Epipolar Constrained Cross-View Fusion [15.819291772583393]
横方向核融合を導くために, エピポーラ幾何学制約付アテンションモジュールを導入する。
クロスビューアテンションの可能性をさらに高めるため,メモリバンクによる異常検出に触発された事前学習戦略を提案する。
我々のフレームワークは、最先端のマルチビュー異常検出データセットにおいて、既存の手法よりも優れていることを実証する。
論文 参考訳(メタデータ) (2025-03-14T05:02:54Z) - Robust Multi-View Learning via Representation Fusion of Sample-Level Attention and Alignment of Simulated Perturbation [61.64052577026623]
実世界のマルチビューデータセットは、しばしば不均一で不完全である。
本稿では,表現融合とアライメントを同時に行う新しいロバストMVL法(RML)を提案する。
実験では、教師なしマルチビュークラスタリング、ノイズラベル分類、およびクロスモーダルハッシュ検索のためのプラグ・アンド・プレイモジュールとして採用する。
論文 参考訳(メタデータ) (2025-03-06T07:01:08Z) - Toward Multi-class Anomaly Detection: Exploring Class-aware Unified Model against Inter-class Interference [67.36605226797887]
統一型異常検出(MINT-AD)のためのマルチクラスインプリシトニューラル表現変換器を提案する。
マルチクラス分布を学習することにより、モデルが変換器デコーダのクラス対応クエリ埋め込みを生成する。
MINT-ADは、カテゴリと位置情報を特徴埋め込み空間に投影することができ、さらに分類と事前確率損失関数によって監督される。
論文 参考訳(メタデータ) (2024-03-21T08:08:31Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Open-Vocabulary Video Anomaly Detection [57.552523669351636]
監視の弱いビデオ異常検出(VAD)は、ビデオフレームが正常であるか異常であるかを識別するためにビデオレベルラベルを利用する際、顕著な性能を達成した。
近年の研究は、より現実的な、オープンセットのVADに取り組み、異常や正常なビデオから見えない異常を検出することを目的としている。
本稿ではさらに一歩前進し、未確認および未確認の異常を検知・分類するために訓練済みの大規模モデルを活用することを目的とした、オープン語彙ビデオ異常検出(OVVAD)について検討する。
論文 参考訳(メタデータ) (2023-11-13T02:54:17Z) - mixed attention auto encoder for multi-class industrial anomaly
detection [2.8519768339207356]
単一モデルを用いたマルチクラス異常検出を実現するために,MAAE (Mixed-attention Auto Encoder) を提案する。
異なるカテゴリーの分布パターンの多様さによる性能劣化を軽減するために,空間的注意とチャネル的注意を用いた。
MAAEは、最先端の手法と比較して、ベンチマークデータセットで顕著なパフォーマンスを提供する。
論文 参考訳(メタデータ) (2023-09-22T08:17:48Z) - LafitE: Latent Diffusion Model with Feature Editing for Unsupervised
Multi-class Anomaly Detection [12.596635603629725]
我々は,通常のデータのみにアクセス可能な場合に,複数のクラスに属するオブジェクトから異常を検出する統一モデルを開発した。
まず、生成的アプローチについて検討し、再構成のための潜伏拡散モデルについて検討する。
「拡散モデルの入力特徴空間を修正し、アイデンティティショートカットをさらに緩和する特徴編集戦略を導入する。」
論文 参考訳(メタデータ) (2023-07-16T14:41:22Z) - Diversity-Measurable Anomaly Detection [106.07413438216416]
本稿では,再構成の多様性を高めるため,DMAD(Diversity-Measurable Anomaly Detection)フレームワークを提案する。
PDMは基本的に、変形を埋め込みから分離し、最終的な異常スコアをより信頼性を高める。
論文 参考訳(メタデータ) (2023-03-09T05:52:42Z) - Siamese Transition Masked Autoencoders as Uniform Unsupervised Visual
Anomaly Detector [4.33060257697635]
本稿では,様々な視覚異常検出タスクを均一に処理するための,Samese Transition Masked Autoencoders (ST-MAE) と呼ばれる新しいフレームワークを提案する。
我々の深い特徴遷移スキームは、通常のパターンを抽出する非教師付きセマンティックな自己監督タスクをもたらす。
論文 参考訳(メタデータ) (2022-11-01T09:45:49Z) - Meta-learning One-class Classifiers with Eigenvalue Solvers for
Supervised Anomaly Detection [55.888835686183995]
教師付き異常検出のためのニューラルネットワークに基づくメタラーニング手法を提案する。
提案手法は,既存の異常検出法や少数ショット学習法よりも優れた性能を実現することを実験的に実証した。
論文 参考訳(メタデータ) (2021-03-01T01:43:04Z) - Improving unsupervised anomaly localization by applying multi-scale
memories to autoencoders [14.075973859711567]
MMAE.MMAEは、教師なし学習におけるプロトタイプ機能として、対応する解像度スケールでスロットを更新する。
異常検出のために,各スケールでエンコードされた画像特徴を最も関連するプロトタイプ特徴に置き換えることで異常除去を実現する。
各種データセットに対する実験結果から,MMAEは異なるスケールで異常を除去し,複数のデータセットで良好に動作できることが確認された。
論文 参考訳(メタデータ) (2020-12-21T04:44:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。