論文の概要: DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection
- arxiv url: http://arxiv.org/abs/2312.06607v1
- Date: Mon, 11 Dec 2023 18:38:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 14:34:19.118689
- Title: DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection
- Title(参考訳): DiAD:多クラス異常検出のための拡散ベースフレームワーク
- Authors: Haoyang He, Jiangning Zhang, Hongxu Chen, Xuhai Chen, Zhishan Li, Xu
Chen, Yabiao Wang, Chengjie Wang, Lei Xie
- Abstract要約: 本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
- 参考スコア(独自算出の注目度): 55.48770333927732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstruction-based approaches have achieved remarkable outcomes in anomaly
detection. The exceptional image reconstruction capabilities of recently
popular diffusion models have sparked research efforts to utilize them for
enhanced reconstruction of anomalous images. Nonetheless, these methods might
face challenges related to the preservation of image categories and pixel-wise
structural integrity in the more practical multi-class setting. To solve the
above problems, we propose a Difusion-based Anomaly Detection (DiAD) framework
for multi-class anomaly detection, which consists of a pixel-space autoencoder,
a latent-space Semantic-Guided (SG) network with a connection to the stable
diffusion's denoising network, and a feature-space pre-trained feature
extractor. Firstly, The SG network is proposed for reconstructing anomalous
regions while preserving the original image's semantic information. Secondly,
we introduce Spatial-aware Feature Fusion (SFF) block to maximize
reconstruction accuracy when dealing with extensively reconstructed areas.
Thirdly, the input and reconstructed images are processed by a pre-trained
feature extractor to generate anomaly maps based on features extracted at
different scales. Experiments on MVTec-AD and VisA datasets demonstrate the
effectiveness of our approach which surpasses the state-of-the-art methods,
e.g., achieving 96.8/52.6 and 97.2/99.0 (AUROC/AP) for localization and
detection respectively on multi-class MVTec-AD dataset. Code will be available
at https://lewandofskee.github.io/projects/diad.
- Abstract(参考訳): 再構成に基づくアプローチは異常検出において顕著な結果をもたらした。
近年普及している拡散モデルの例外的な画像再構成能力は、異常画像の再構成にそれらを活用する研究のきっかけとなった。
それでもこれらの手法は、より実用的なマルチクラス設定において、画像カテゴリの保存と画素単位の構造的整合性に関する課題に直面する可能性がある。
上記の問題を解決するために, 画素空間オートエンコーダ, 安定拡散の復調ネットワークに接続した潜在空間セマンティックガイド(SG)ネットワーク, 特徴空間事前学習特徴抽出器からなる多クラス異常検出のための拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
まず、元の画像の意味情報を保存しながら、異常領域を再構築するSGネットワークを提案する。
次に,空間認識機能融合(SFF)ブロックを導入し,広範に再構成された領域を扱う際の再構成精度を最大化する。
第3に、予め訓練された特徴抽出器により入力及び再構成された画像を処理し、異なるスケールで抽出された特徴に基づいて異常マップを生成する。
MVTec-AD データセットと VisA データセットの実験では,マルチクラス MVTec-AD データセット上でそれぞれ 96.8/52.6 と 97.2/99.0 (AUROC/AP) をローカライズし,検出するなど,最先端の手法を超えるアプローチの有効性が示されている。
コードはhttps://lewandofskee.github.io/projects/diadで入手できる。
関連論文リスト
- AEROBLADE: Training-Free Detection of Latent Diffusion Images Using
Autoencoder Reconstruction Error [17.381210011805077]
計算コストの低い高解像度画像を生成するための重要なイネーブルは、潜時拡散モデル(LDM)の開発である。
LDMは、高次元画像空間の代わりに、事前訓練されたオートエンコーダ(AE)の低次元潜時空間で復調処理を行う。
本稿では,画像と潜時空間間の画像変換に用いるAEという,LDMの固有成分を利用した新しい検出手法を提案する。
論文 参考訳(メタデータ) (2024-01-31T14:36:49Z) - ReSynthDetect: A Fundus Anomaly Detection Network with Reconstruction
and Synthetic Features [5.655822001453255]
本稿では,正常画像のモデリングのための再構成ネットワークと,基礎画像の外観に整合した合成異常を生成する異常生成器を提案する。
実験の結果,EyeQではAUROCが9%改善し,IDRiDではAUPRが17.1%改善した。
論文 参考訳(メタデータ) (2023-12-27T08:40:23Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Mutual-Guided Dynamic Network for Image Fusion [51.615598671899335]
画像融合のための新しい相互誘導動的ネットワーク(MGDN)を提案する。
5つのベンチマークデータセットによる実験結果から,提案手法は4つの画像融合タスクにおいて既存手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-24T03:50:37Z) - ReContrast: Domain-Specific Anomaly Detection via Contrastive
Reconstruction [29.370142078092375]
殆どの高度な教師なし異常検出(UAD)手法は、大規模データセットで事前訓練された冷凍エンコーダネットワークの特徴表現をモデル化することに依存している。
本稿では,事前学習した画像領域に対するバイアスを低減するために,ネットワーク全体を最適化する新しい疫学的UAD手法であるReContrastを提案する。
2つの一般的な産業欠陥検出ベンチマークと3つの医用画像UADタスクで実験を行い、現在の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-05T05:21:15Z) - Region and Spatial Aware Anomaly Detection for Fundus Images [1.8374319565577157]
本研究では,基底画像に対する地域・空間認識異常検出(ReSAD)手法を提案する。
ReSADは局所領域と長距離空間情報を取得し、通常の構造における偽陽性を減らす。
提案手法は,2つの公開ベンチマークデータセット上で,既存のファンドス画像の異常検出方法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-07T11:33:22Z) - PC-GANs: Progressive Compensation Generative Adversarial Networks for
Pan-sharpening [50.943080184828524]
空間情報とスペクトル情報の漸進的補償によりMS画像のシャープ化を行うパンシャーピングの新しい2段階モデルを提案する。
モデル全体が三重GANで構成されており、特定のアーキテクチャに基づいて、三重GANを同時に訓練できるように、共同補償損失関数が設計されている。
論文 参考訳(メタデータ) (2022-07-29T03:09:21Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [55.52743265122446]
ディープオートエンコーダは視覚領域における異常検出のタスクに使われてきた。
我々は、訓練中に識別情報を使用することが可能な自己指導型学習体制を適用することで、この問題に対処する。
MVTec ADデータセットを用いた実験では,高い検出性能と局所化性能を示した。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Self-Supervised Predictive Convolutional Attentive Block for Anomaly
Detection [97.93062818228015]
本稿では,再建に基づく機能を,新たな自己監督型予測アーキテクチャビルディングブロックに統合することを提案する。
我々のブロックは、受容領域におけるマスク領域に対する再構成誤差を最小限に抑える損失を備える。
画像やビデオの異常検出のための最先端フレームワークに組み込むことで,ブロックの汎用性を実証する。
論文 参考訳(メタデータ) (2021-11-17T13:30:31Z) - Anomaly localization by modeling perceptual features [3.04585143845864]
特徴拡張型VAEは、入力画像を画素空間や複数の異なる特徴空間で再構成することで訓練される。
MVTec異常検出およびローカライゼーションデータセットの最先端手法に対する明確な改善を実現する。
論文 参考訳(メタデータ) (2020-08-12T15:09:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。