論文の概要: DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection
- arxiv url: http://arxiv.org/abs/2312.06607v1
- Date: Mon, 11 Dec 2023 18:38:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 14:34:19.118689
- Title: DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection
- Title(参考訳): DiAD:多クラス異常検出のための拡散ベースフレームワーク
- Authors: Haoyang He, Jiangning Zhang, Hongxu Chen, Xuhai Chen, Zhishan Li, Xu
Chen, Yabiao Wang, Chengjie Wang, Lei Xie
- Abstract要約: 本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
- 参考スコア(独自算出の注目度): 55.48770333927732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstruction-based approaches have achieved remarkable outcomes in anomaly
detection. The exceptional image reconstruction capabilities of recently
popular diffusion models have sparked research efforts to utilize them for
enhanced reconstruction of anomalous images. Nonetheless, these methods might
face challenges related to the preservation of image categories and pixel-wise
structural integrity in the more practical multi-class setting. To solve the
above problems, we propose a Difusion-based Anomaly Detection (DiAD) framework
for multi-class anomaly detection, which consists of a pixel-space autoencoder,
a latent-space Semantic-Guided (SG) network with a connection to the stable
diffusion's denoising network, and a feature-space pre-trained feature
extractor. Firstly, The SG network is proposed for reconstructing anomalous
regions while preserving the original image's semantic information. Secondly,
we introduce Spatial-aware Feature Fusion (SFF) block to maximize
reconstruction accuracy when dealing with extensively reconstructed areas.
Thirdly, the input and reconstructed images are processed by a pre-trained
feature extractor to generate anomaly maps based on features extracted at
different scales. Experiments on MVTec-AD and VisA datasets demonstrate the
effectiveness of our approach which surpasses the state-of-the-art methods,
e.g., achieving 96.8/52.6 and 97.2/99.0 (AUROC/AP) for localization and
detection respectively on multi-class MVTec-AD dataset. Code will be available
at https://lewandofskee.github.io/projects/diad.
- Abstract(参考訳): 再構成に基づくアプローチは異常検出において顕著な結果をもたらした。
近年普及している拡散モデルの例外的な画像再構成能力は、異常画像の再構成にそれらを活用する研究のきっかけとなった。
それでもこれらの手法は、より実用的なマルチクラス設定において、画像カテゴリの保存と画素単位の構造的整合性に関する課題に直面する可能性がある。
上記の問題を解決するために, 画素空間オートエンコーダ, 安定拡散の復調ネットワークに接続した潜在空間セマンティックガイド(SG)ネットワーク, 特徴空間事前学習特徴抽出器からなる多クラス異常検出のための拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
まず、元の画像の意味情報を保存しながら、異常領域を再構築するSGネットワークを提案する。
次に,空間認識機能融合(SFF)ブロックを導入し,広範に再構成された領域を扱う際の再構成精度を最大化する。
第3に、予め訓練された特徴抽出器により入力及び再構成された画像を処理し、異なるスケールで抽出された特徴に基づいて異常マップを生成する。
MVTec-AD データセットと VisA データセットの実験では,マルチクラス MVTec-AD データセット上でそれぞれ 96.8/52.6 と 97.2/99.0 (AUROC/AP) をローカライズし,検出するなど,最先端の手法を超えるアプローチの有効性が示されている。
コードはhttps://lewandofskee.github.io/projects/diadで入手できる。
関連論文リスト
- LADMIM: Logical Anomaly Detection with Masked Image Modeling in Discrete Latent Space [0.0]
マスク付き画像モデリングは、画像中のマスキング領域の特徴表現を予測する自己教師付き学習技術である。
本稿では,MIMの特性を利用して論理異常を効果的に検出する手法を提案する。
提案手法をMVTecLOCOデータセット上で評価し,平均AUC 0.867。
論文 参考訳(メタデータ) (2024-10-14T07:50:56Z) - Contrasting Deepfakes Diffusion via Contrastive Learning and Global-Local Similarities [88.398085358514]
Contrastive Deepfake Embeddings (CoDE)は、ディープフェイク検出に特化した新しい埋め込み空間である。
CoDEは、グローバルローカルな類似性をさらに強化することで、対照的な学習を通じて訓練される。
論文 参考訳(メタデータ) (2024-07-29T18:00:10Z) - DA-HFNet: Progressive Fine-Grained Forgery Image Detection and Localization Based on Dual Attention [12.36906630199689]
DA-HFNet鍛造画像データセットをテキストまたは画像支援GANおよび拡散モデルで作成する。
我々のゴールは、階層的なプログレッシブネットワークを使用して、異なるスケールの偽造物を検出およびローカライゼーションするために捕獲することである。
論文 参考訳(メタデータ) (2024-06-03T16:13:33Z) - Multi-feature Reconstruction Network using Crossed-mask Restoration for Unsupervised Industrial Anomaly Detection [4.742650815342744]
産業生産における品質検査には, 教師なし異常検出が重要である。
本稿では,クロスマスク復元を用いた多機能再構成ネットワークMFRNetを提案する。
提案手法は,4つの公開データセットと1つの自作データセットにおいて,他の最先端のデータセットと高い競争力,あるいは大幅に上回っている。
論文 参考訳(メタデータ) (2024-04-20T05:13:56Z) - TransFusion -- A Transparency-Based Diffusion Model for Anomaly Detection [2.7855886538423182]
本稿では,2つのデータセットにおける最先端性能を実現する識別異常検出手法を提案する。
TransFusion は VisA と MVTec AD の両方のデータセットで、画像レベルの AUROC はそれぞれ98.5% と 99.2% である。
論文 参考訳(メタデータ) (2023-11-16T16:23:11Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Mutual-Guided Dynamic Network for Image Fusion [51.615598671899335]
画像融合のための新しい相互誘導動的ネットワーク(MGDN)を提案する。
5つのベンチマークデータセットによる実験結果から,提案手法は4つの画像融合タスクにおいて既存手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-24T03:50:37Z) - ReContrast: Domain-Specific Anomaly Detection via Contrastive
Reconstruction [29.370142078092375]
殆どの高度な教師なし異常検出(UAD)手法は、大規模データセットで事前訓練された冷凍エンコーダネットワークの特徴表現をモデル化することに依存している。
本稿では,事前学習した画像領域に対するバイアスを低減するために,ネットワーク全体を最適化する新しい疫学的UAD手法であるReContrastを提案する。
2つの一般的な産業欠陥検出ベンチマークと3つの医用画像UADタスクで実験を行い、現在の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-05T05:21:15Z) - PC-GANs: Progressive Compensation Generative Adversarial Networks for
Pan-sharpening [50.943080184828524]
空間情報とスペクトル情報の漸進的補償によりMS画像のシャープ化を行うパンシャーピングの新しい2段階モデルを提案する。
モデル全体が三重GANで構成されており、特定のアーキテクチャに基づいて、三重GANを同時に訓練できるように、共同補償損失関数が設計されている。
論文 参考訳(メタデータ) (2022-07-29T03:09:21Z) - Self-Supervised Predictive Convolutional Attentive Block for Anomaly
Detection [97.93062818228015]
本稿では,再建に基づく機能を,新たな自己監督型予測アーキテクチャビルディングブロックに統合することを提案する。
我々のブロックは、受容領域におけるマスク領域に対する再構成誤差を最小限に抑える損失を備える。
画像やビデオの異常検出のための最先端フレームワークに組み込むことで,ブロックの汎用性を実証する。
論文 参考訳(メタデータ) (2021-11-17T13:30:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。