論文の概要: Omni-AD: Learning to Reconstruct Global and Local Features for Multi-class Anomaly Detection
- arxiv url: http://arxiv.org/abs/2503.21125v1
- Date: Thu, 27 Mar 2025 03:33:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:52:47.180626
- Title: Omni-AD: Learning to Reconstruct Global and Local Features for Multi-class Anomaly Detection
- Title(参考訳): Omni-AD:マルチクラス異常検出のためのグローバル特徴とローカル特徴を再構築する学習
- Authors: Jiajie Quan, Ao Tong, Yuxuan Cai, Xinwei He, Yulong Wang, Yang Zhou,
- Abstract要約: 私たちはOmni-ADというフレームワークを構築し、異なる粒度の通常のパターンを学び、徐々に再構築します。
公開異常検出ベンチマーク実験により,本手法はMUADの最先端手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 14.683307311332195
- License:
- Abstract: In multi-class unsupervised anomaly detection(MUAD), reconstruction-based methods learn to map input images to normal patterns to identify anomalous pixels. However, this strategy easily falls into the well-known "learning shortcut" issue when decoders fail to capture normal patterns and reconstruct both normal and abnormal samples naively. To address that, we propose to learn the input features in global and local manners, forcing the network to memorize the normal patterns more comprehensively. Specifically, we design a two-branch decoder block, named Omni-block. One branch corresponds to global feature learning, where we serialize two self-attention blocks but replace the query and (key, value) with learnable tokens, respectively, thus capturing global features of normal patterns concisely and thoroughly. The local branch comprises depth-separable convolutions, whose locality enables effective and efficient learning of local features for normal patterns. By stacking Omni-blocks, we build a framework, Omni-AD, to learn normal patterns of different granularity and reconstruct them progressively. Comprehensive experiments on public anomaly detection benchmarks show that our method outperforms state-of-the-art approaches in MUAD. Code is available at https://github.com/easyoo/Omni-AD.git.
- Abstract(参考訳): MUAD(Multi-class unsupervised anomaly detection)では、再構成に基づく手法は、入力画像を通常のパターンにマッピングし、異常画素を識別する。
しかし、この戦略は、デコーダが正常なパターンをキャプチャできず、正常なサンプルと異常なサンプルの両方を鼻で再構築できない場合に、よく知られた「学習ショートカット」問題に陥る。
そこで我々は,グローバルおよびローカルな方法で入力特徴を学習し,ネットワークに通常のパターンをより包括的に記憶させることを提案する。
具体的には,Omni-blockという2分岐デコーダブロックを設計する。
1つのブランチはグローバルな特徴学習に対応し、2つの自己注意ブロックをシリアライズするが、クエリと(キー、値)を学習可能なトークンに置き換え、通常のパターンのグローバルな特徴を簡潔かつ徹底的にキャプチャする。
局所分岐は深さ分離可能な畳み込みを含み、その局所性は通常のパターンに対する局所的特徴の効果的かつ効率的な学習を可能にする。
Omniブロックを積み重ねることで、Omni-ADというフレームワークを構築し、異なる粒度の通常のパターンを学び、徐々に再構築します。
公開異常検出ベンチマークの総合的な実験により,本手法はMUADの最先端手法よりも優れていることが示された。
コードはhttps://github.com/easyoo/Omni-AD.gitで入手できる。
関連論文リスト
- CNC: Cross-modal Normality Constraint for Unsupervised Multi-class Anomaly Detection [34.675120608542265]
本稿では,クラスに依存しない学習可能なプロンプトを利用して,デコードされた特徴を正規のテキスト表現へ導く手法を提案する。
本手法は,MVTec AD と VisA のデータセット上での競合性能を実現し,その性能を実証する。
論文 参考訳(メタデータ) (2024-12-31T08:43:44Z) - ROG$_{PL}$: Robust Open-Set Graph Learning via Region-Based Prototype
Learning [52.60434474638983]
本稿では,複雑な雑音グラフデータに対する堅牢なオープンセット学習を実現するために,ROG$_PL$という統一フレームワークを提案する。
このフレームワークは2つのモジュール、すなわちラベルの伝搬による認知と、リージョンによるオープンセットのプロトタイプ学習で構成されている。
我々の知る限り、ROG$_PL$は複雑なノイズを持つグラフデータに対して、最初の堅牢なオープンセットノード分類法である。
論文 参考訳(メタデータ) (2024-02-28T17:25:06Z) - LGN-Net: Local-Global Normality Network for Video Anomaly Detection [9.578697308678153]
ビデオ検出(VAD)は、監視されていないインテリジェントなビデオシステムにおいて、その潜在的な応用について、長年にわたって集中的に研究されてきた。
既存のVAD手法は、通常のビデオのみからなるトレーニングセットから正規性を学ぶ傾向がある。
本稿では,局所正規度とグローバル正規度を同時に学習する2分岐モデル(LG-Net)を提案する。
論文 参考訳(メタデータ) (2022-11-14T15:32:08Z) - Distilling Object Detectors With Global Knowledge [30.67375886569278]
既存の手法では、知識を各インスタンスの特徴またはそれらの関係とみなしており、これは教師モデルからのみインスタンスレベルの知識である。
より内在的なアプローチは、教師と学生検出器の2つの特徴空間における共通基底ベクトル群w.r.t.のインスタンスの表現を測定することである。
提案手法は,種々のデータセットのバックボーンを用いたオブジェクト検出器の蒸留に最適であることを示す。
論文 参考訳(メタデータ) (2022-10-17T12:44:33Z) - Style Interleaved Learning for Generalizable Person Re-identification [69.03539634477637]
DG ReIDトレーニングのための新しいスタイルインターリーブラーニング(IL)フレームワークを提案する。
従来の学習戦略とは異なり、ILには2つの前方伝播と1つの後方伝播が組み込まれている。
我々のモデルはDG ReIDの大規模ベンチマークにおいて最先端の手法を一貫して上回ることを示す。
論文 参考訳(メタデータ) (2022-07-07T07:41:32Z) - Cross-modal Local Shortest Path and Global Enhancement for
Visible-Thermal Person Re-Identification [2.294635424666456]
本稿では,局所的特徴とグローバル的特徴の同時学習に基づく2ストリームネットワークであるCM-LSP-GE(Cross-modal Local Shortest Path and Global Enhancement)モジュールを提案する。
2つの典型的なデータセットの実験結果は、我々のモデルは明らかに最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T10:27:22Z) - Adaptive Memory Networks with Self-supervised Learning for Unsupervised
Anomaly Detection [54.76993389109327]
教師なし異常検出は、通常のデータのみをトレーニングすることで、目に見えない異常を検出するモデルを構築することを目的としている。
本稿では,これらの課題に対処するために,自己教師付き学習(AMSL)を用いた適応記憶ネットワーク(Adaptive Memory Network)を提案する。
AMSLには、一般的な正規パターンを学ぶための自己教師付き学習モジュールと、リッチな特徴表現を学ぶための適応型メモリ融合モジュールが組み込まれている。
論文 参考訳(メタデータ) (2022-01-03T03:40:21Z) - Self-Supervised Predictive Convolutional Attentive Block for Anomaly
Detection [97.93062818228015]
本稿では,再建に基づく機能を,新たな自己監督型予測アーキテクチャビルディングブロックに統合することを提案する。
我々のブロックは、受容領域におけるマスク領域に対する再構成誤差を最小限に抑える損失を備える。
画像やビデオの異常検出のための最先端フレームワークに組み込むことで,ブロックの汎用性を実証する。
論文 参考訳(メタデータ) (2021-11-17T13:30:31Z) - Open-set Recognition based on the Combination of Deep Learning and
Ensemble Method for Detecting Unknown Traffic Scenarios [0.9711326718689492]
本研究では、Convolutional Neural Networks(CNN)とRandom Forest(RF)を組み合わせて、交通シナリオのオープンセット認識を提案する。
RFのアンサンブルの性質を継承することにより、極値理論と組み合わされた全ての木の投票パターンが未知のクラスを検出するのに適していることが示される。
論文 参考訳(メタデータ) (2021-05-17T06:48:15Z) - CutPaste: Self-Supervised Learning for Anomaly Detection and
Localization [59.719925639875036]
通常のトレーニングデータのみを用いて異常検知器を構築するためのフレームワークを提案する。
まず、自己教師付き深層表現を学習し、学習した表現の上に生成的1クラス分類器を構築する。
MVTec異常検出データセットに関する実証研究は,提案アルゴリズムが実世界の様々な欠陥を検出可能であることを実証している。
論文 参考訳(メタデータ) (2021-04-08T19:04:55Z) - Rethinking Generative Zero-Shot Learning: An Ensemble Learning
Perspective for Recognising Visual Patches [52.67723703088284]
我々はMPGAN(Multi-patch Generative Adversarial Nets)と呼ばれる新しいフレームワークを提案する。
MPGANは、新しい重み付き投票戦略で、ローカルパッチ機能とラベルが見えないクラスを合成する。
MPGANは最先端の手法よりもはるかに精度が高い。
論文 参考訳(メタデータ) (2020-07-27T05:49:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。