論文の概要: Unsupervised Industrial Anomaly Detection via Pattern Generative and
Contrastive Networks
- arxiv url: http://arxiv.org/abs/2207.09792v1
- Date: Wed, 20 Jul 2022 10:09:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 12:45:27.266914
- Title: Unsupervised Industrial Anomaly Detection via Pattern Generative and
Contrastive Networks
- Title(参考訳): パターン生成・コントラストネットワークによる非教師付き産業異常検出
- Authors: Jianfeng Huang, Chenyang Li, Yimin Lin, and Shiguo Lian
- Abstract要約: 本稿では,視覚変換器を用いた教師なし異常検出ネットワークを提案する。
階層的なタスク学習と人間の経験を利用して、その解釈可能性を高めます。
従来の最先端手法を超越した99.8%のAUCを実現した。
- 参考スコア(独自算出の注目度): 8.476686092919596
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is hard to collect enough flaw images for training deep learning network
in industrial production. Therefore, existing industrial anomaly detection
methods prefer to use CNN-based unsupervised detection and localization network
to achieve this task. However, these methods always fail when there are
varieties happened in new signals since traditional end-to-end networks suffer
barriers of fitting nonlinear model in high-dimensional space. Moreover, they
have a memory library by clustering the feature of normal images essentially,
which cause it is not robust to texture change. To this end, we propose the
Vision Transformer based (VIT-based) unsupervised anomaly detection network. It
utilizes a hierarchical task learning and human experience to enhance its
interpretability. Our network consists of pattern generation and comparison
networks. Pattern generation network uses two VIT-based encoder modules to
extract the feature of two consecutive image patches, then uses VIT-based
decoder module to learn the human designed style of these features and predict
the third image patch. After this, we use the Siamese-based network to compute
the similarity of the generation image patch and original image patch. Finally,
we refine the anomaly localization by the bi-directional inference strategy.
Comparison experiments on public dataset MVTec dataset show our method achieves
99.8% AUC, which surpasses previous state-of-the-art methods. In addition, we
give a qualitative illustration on our own leather and cloth datasets. The
accurate segment results strongly prove the accuracy of our method in anomaly
detection.
- Abstract(参考訳): 工業生産におけるディープラーニングネットワークのトレーニングに十分な欠陥画像を集めるのは難しい。
そのため,既存の産業的異常検出手法では,CNNをベースとした非教師なし検出・ローカライゼーションネットワークが好まれる。
しかし、従来のエンドツーエンドネットワークは、高次元空間における非線形モデルに適合する障壁に苦しむため、新しい信号に異種が存在する場合、これらの手法は常に失敗する。
さらに、通常の画像の特徴を本質的にクラスタリングすることでメモリライブラリを持っているため、テクスチャ変更に対して堅牢ではない。
そこで本研究では,Vision Transformerをベースとした教師なし異常検出ネットワークを提案する。
階層的なタスク学習とヒューマンエクスペリエンスを使用して、その解釈性を高める。
我々のネットワークはパターン生成と比較ネットワークで構成されている。
パターン生成ネットワークは、2つのVITベースのエンコーダモジュールを使用して、2つの連続したイメージパッチの特徴を抽出し、次にVITベースのデコーダモジュールを使用してこれらの機能の人間設計スタイルを学習し、3番目のイメージパッチを予測する。
その後、siameseベースのネットワークを用いて、生成画像パッチとオリジナル画像パッチの類似度を計算する。
最後に,双方向推論戦略により異常局在を洗練する。
公開データセットMVTecデータセットの比較実験により,従来の最先端手法を上回る99.8%のAUCが得られた。
さらに、私たちは独自の皮革と布のデータセットに質的なイラストを与えます。
その結果,本手法の異常検出における精度を強く証明した。
関連論文リスト
- DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - A Prototype-Based Neural Network for Image Anomaly Detection and Localization [10.830337829732915]
本稿では,画像の異常検出と局所化のためのプロトタイプベースニューラルネットワークProtoADを提案する。
まず,自然画像に事前学習したディープネットワークにより,通常の画像のパッチの特徴を抽出する。
ProtoADは、推論速度の高い最先端の手法と比較して、競争性能が向上する。
論文 参考訳(メタデータ) (2023-10-04T04:27:16Z) - ReContrast: Domain-Specific Anomaly Detection via Contrastive
Reconstruction [29.370142078092375]
殆どの高度な教師なし異常検出(UAD)手法は、大規模データセットで事前訓練された冷凍エンコーダネットワークの特徴表現をモデル化することに依存している。
本稿では,事前学習した画像領域に対するバイアスを低減するために,ネットワーク全体を最適化する新しい疫学的UAD手法であるReContrastを提案する。
2つの一般的な産業欠陥検出ベンチマークと3つの医用画像UADタスクで実験を行い、現在の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-05T05:21:15Z) - ISSTAD: Incremental Self-Supervised Learning Based on Transformer for
Anomaly Detection and Localization [12.975540251326683]
本稿では,Transformerのバックボーンネットワークに基づく新しいアプローチを提案する。
通常の画像のみに基づいてMasked Autoencoder(MAE)モデルを訓練する。
その後の段階では、劣化した正規画像を生成するためにピクセルレベルのデータ拡張技術を適用する。
このプロセスにより、モデルは破損した領域の修復方法を学び、各ピクセルの状態を分類できる。
論文 参考訳(メタデータ) (2023-03-30T13:11:26Z) - Self-Supervised Masked Convolutional Transformer Block for Anomaly
Detection [122.4894940892536]
本稿では, 自己監督型マスク型畳み込み変圧器ブロック (SSMCTB) について述べる。
本研究では,従来の自己教師型予測畳み込み抑止ブロック(SSPCAB)を3次元マスク付き畳み込み層,チャンネルワイドアテンション用トランスフォーマー,およびハマーロスに基づく新たな自己教師型目標を用いて拡張する。
論文 参考訳(メタデータ) (2022-09-25T04:56:10Z) - CutPaste: Self-Supervised Learning for Anomaly Detection and
Localization [59.719925639875036]
通常のトレーニングデータのみを用いて異常検知器を構築するためのフレームワークを提案する。
まず、自己教師付き深層表現を学習し、学習した表現の上に生成的1クラス分類器を構築する。
MVTec異常検出データセットに関する実証研究は,提案アルゴリズムが実世界の様々な欠陥を検出可能であることを実証している。
論文 参考訳(メタデータ) (2021-04-08T19:04:55Z) - Time Series Imaging for Link Layer Anomaly Classification in Wireless
Networks [0.6015898117103068]
本稿では,無線異常検出のための画像ベース表現手法の初回解析を行う。
本稿では,正確な異常検出を可能にする新しいディープラーニングアーキテクチャを提案する。
本研究では,時系列信号から画像への変換による分類性能の向上の可能性を示す。
論文 参考訳(メタデータ) (2021-04-02T10:23:06Z) - Image Restoration by Deep Projected GSURE [115.57142046076164]
Ill-posed inverse problem は、デブロアリングや超解像など、多くの画像処理アプリケーションに現れる。
本稿では,一般化されたSteinUnbiased Risk Estimator(GSURE)の「投影変換」とCNNによる潜在画像のパラメータ化を含む損失関数の最小化に基づく,新たな画像復元フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-04T08:52:46Z) - D-Unet: A Dual-encoder U-Net for Image Splicing Forgery Detection and
Localization [108.8592577019391]
画像スプライシング偽造検出は、画像指紋によって改ざんされた領域と非改ざんされた領域を区別するグローバルバイナリ分類タスクである。
画像スプライシングフォージェリ検出のためのデュアルエンコーダU-Net(D-Unet)という,固定されていないエンコーダと固定エンコーダを用いた新しいネットワークを提案する。
D-Unetと最先端技術の比較実験において、D-Unetは画像レベルおよび画素レベルの検出において他の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-03T10:54:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。