論文の概要: Context Enhancement with Reconstruction as Sequence for Unified Unsupervised Anomaly Detection
- arxiv url: http://arxiv.org/abs/2409.06285v1
- Date: Tue, 10 Sep 2024 07:37:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-11 18:40:09.145650
- Title: Context Enhancement with Reconstruction as Sequence for Unified Unsupervised Anomaly Detection
- Title(参考訳): Unified Unsupervised Anomaly Detection におけるコンテクスト強化と再構成
- Authors: Hui-Yue Yang, Hui Chen, Lihao Liu, Zijia Lin, Kai Chen, Liejun Wang, Jungong Han, Guiguang Ding,
- Abstract要約: 非教師付き異常検出(AD)は、通常のサンプルのみを用いて堅牢な検出モデルを訓練することを目的としている。
最近の研究は、すべてのクラスに対して1つのモデルのみをトレーニングする、統一された教師なしAD設定に焦点を当てている。
本稿では,特徴再構成時の文脈対応性を高める新しいRAS法を提案する。
- 参考スコア(独自算出の注目度): 68.74469657656822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised anomaly detection (AD) aims to train robust detection models using only normal samples, while can generalize well to unseen anomalies. Recent research focuses on a unified unsupervised AD setting in which only one model is trained for all classes, i.e., n-class-one-model paradigm. Feature-reconstruction-based methods achieve state-of-the-art performance in this scenario. However, existing methods often suffer from a lack of sufficient contextual awareness, thereby compromising the quality of the reconstruction. To address this issue, we introduce a novel Reconstruction as Sequence (RAS) method, which enhances the contextual correspondence during feature reconstruction from a sequence modeling perspective. In particular, based on the transformer technique, we integrate a specialized RASFormer block into RAS. This block enables the capture of spatial relationships among different image regions and enhances sequential dependencies throughout the reconstruction process. By incorporating the RASFormer block, our RAS method achieves superior contextual awareness capabilities, leading to remarkable performance. Experimental results show that our RAS significantly outperforms competing methods, well demonstrating the effectiveness and superiority of our method. Our code is available at https://github.com/Nothingtolose9979/RAS.
- Abstract(参考訳): 非教師付き異常検出(AD)は、正常なサンプルのみを用いて堅牢な検出モデルを訓練することを目的としており、未知の異常に対してうまく一般化することができる。
最近の研究は、すべてのクラス、すなわちn-class-one-modelパラダイムに対して1つのモデルのみをトレーニングする、統一された教師なしAD設定に焦点を当てている。
特徴再構成に基づく手法は、このシナリオで最先端のパフォーマンスを達成する。
しかし、既存の手法は十分な文脈認識の欠如に悩まされ、再建の質を損なうことも多い。
この課題に対処するために、シーケンスモデリングの観点から特徴再構成時の文脈対応性を高める新しいRAS法を提案する。
特に、トランス技術に基づいて、特殊なRASFormerブロックをRASに統合する。
このブロックは、異なる画像領域間の空間的関係のキャプチャを可能にし、再構成プロセス全体を通してシーケンシャルな依存関係を高める。
RASFormerブロックを組み込むことで、当社のRAS手法は文脈認識能力に優れ、優れた性能を実現している。
実験の結果,RASは競合する手法よりも優れており,本手法の有効性と優越性は良好であることがわかった。
私たちのコードはhttps://github.com/Nothingtolose9979/RASで利用可能です。
関連論文リスト
- Feature Attenuation of Defective Representation Can Resolve Incomplete Masking on Anomaly Detection [1.0358639819750703]
教師なし異常検出(UAD)研究では、計算効率が高くスケーラブルなソリューションを開発する必要がある。
再建・塗り替えのアプローチを再考し、強みと弱みを分析して改善する。
異常再構成の特徴情報を減衰させる2つの層のみを用いるFADeR(Feature Attenuation of Defective Representation)を提案する。
論文 参考訳(メタデータ) (2024-07-05T15:44:53Z) - Learning Unified Reference Representation for Unsupervised Multi-class Anomaly Detection [38.07468257801517]
RLRと呼ばれる新しい特徴再構成に基づく異常検出フレームワークを提案する。
RLRは学習可能な参照表現を使用して、モデルに正常な特徴パターンを明示的に学習するように強制する。
15カテゴリのMVTec-ADデータセットと12カテゴリのVisAデータセットによるRLRの評価は、最先端の手法と比較して優れた性能を示している。
論文 参考訳(メタデータ) (2024-03-18T08:29:47Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Making Reconstruction-based Method Great Again for Video Anomaly
Detection [64.19326819088563]
ビデオの異常検出は重要な問題だが、難しい問題だ。
既存の再構成に基づく手法は、昔ながらの畳み込みオートエンコーダに依存している。
連続フレーム再構築のための新しいオートエンコーダモデルを提案する。
論文 参考訳(メタデータ) (2023-01-28T01:57:57Z) - Exploring Resolution and Degradation Clues as Self-supervised Signal for
Low Quality Object Detection [77.3530907443279]
劣化した低解像度画像中の物体を検出するための,新しい自己教師型フレームワークを提案する。
本手法は, 既存手法と比較して, 異変劣化状況に直面する場合に比べ, 優れた性能を示した。
論文 参考訳(メタデータ) (2022-08-05T09:36:13Z) - ReDFeat: Recoupling Detection and Description for Multimodal Feature
Learning [51.07496081296863]
我々は、相互重み付け戦略による多モーダル特徴学習の検出と記述の独立した制約を再定義する。
本研究では,大きな受容場を有し,学習可能な非最大抑制層を備える検出器を提案する。
我々は,特徴マッチングと画像登録タスクにおける特徴量を評価するために,クロス可視,赤外線,近赤外,合成開口レーダ画像ペアを含むベンチマークを構築した。
論文 参考訳(メタデータ) (2022-05-16T04:24:22Z) - Self-Supervised Predictive Convolutional Attentive Block for Anomaly
Detection [97.93062818228015]
本稿では,再建に基づく機能を,新たな自己監督型予測アーキテクチャビルディングブロックに統合することを提案する。
我々のブロックは、受容領域におけるマスク領域に対する再構成誤差を最小限に抑える損失を備える。
画像やビデオの異常検出のための最先端フレームワークに組み込むことで,ブロックの汎用性を実証する。
論文 参考訳(メタデータ) (2021-11-17T13:30:31Z) - Novelty Detection via Non-Adversarial Generative Network [47.375591404354765]
新しいデコーダ-エンコーダフレームワークが,新規検出タスクのために提案されている。
非敵対的な枠組みの下では、潜伏空間と画像再構成空間の両方が共同最適化されている。
我々のモデルは、最先端のノベルティ検出器よりも明らかな優位性を持ち、データセットの最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-02-03T01:05:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。