論文の概要: CAINNFlow: Convolutional block Attention modules and Invertible Neural
Networks Flow for anomaly detection and localization tasks
- arxiv url: http://arxiv.org/abs/2206.01992v3
- Date: Wed, 8 Jun 2022 16:04:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-12 08:36:31.125312
- Title: CAINNFlow: Convolutional block Attention modules and Invertible Neural
Networks Flow for anomaly detection and localization tasks
- Title(参考訳): CAINNFlow: 異常検出とローカライゼーションタスクのための畳み込みブロック注意モジュールと可逆ニューラルネットワークフロー
- Authors: Ruiqing Yan, Fan Zhang, Mengyuan Huang and Wu Liu and Dongyu Hu and
Jinfeng Li, Qiang Liu and Jingrong Jiang and Qianjin Guo and Linghan Zheng
- Abstract要約: 本研究では, CBAMを組み込んだ複雑な関数モデルの設計を行い, 空間構造情報の保持と抽出を効果的に行うことができる。
CAINNFlowは,CNNとTransformerのバックボーンネットワークを特徴抽出器として,高度な精度と推論効率を実現する。
- 参考スコア(独自算出の注目度): 28.835943674247346
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detection of object anomalies is crucial in industrial processes, but
unsupervised anomaly detection and localization is particularly important due
to the difficulty of obtaining a large number of defective samples and the
unpredictable types of anomalies in real life. Among the existing unsupervised
anomaly detection and localization methods, the NF-based scheme has achieved
better results. However, the two subnets (complex functions) $s_{i}(u_{i})$ and
$t_{i}(u_{i})$ in NF are usually multilayer perceptrons, which need to squeeze
the input visual features from 2D flattening to 1D, destroying the spatial
location relationship in the feature map and losing the spatial structure
information. In order to retain and effectively extract spatial structure
information, we design in this study a complex function model with alternating
CBAM embedded in a stacked $3\times3$ full convolution, which is able to retain
and effectively extract spatial structure information in the normalized flow
model. Extensive experimental results on the MVTec AD dataset show that
CAINNFlow achieves advanced levels of accuracy and inference efficiency based
on CNN and Transformer backbone networks as feature extractors, and CAINNFlow
achieves a pixel-level AUC of $98.64\%$ for anomaly detection in MVTec AD.
- Abstract(参考訳): 物体の異常検出は, 産業プロセスにおいて重要であるが, 多数の欠陥サンプルの取得が困難であり, 実生活における予測不可能な種類の異常が特に重要である。
既存の教師なし異常検出およびローカライズ手法の中で、NFベースのスキームはより良い結果を得た。
しかし、nf 内の 2 つの部分ネット(複素関数) $s_{i}(u_{i})$ と $t_{i}(u_{i})$ は通常多層パーセプトロンであり、入力された視覚特徴を 2d 平面から 1d に絞り込み、特徴マップ内の空間的位置関係を破壊し、空間構造情報を失う必要がある。
本研究は,空間構造情報の保持と抽出を効果的に行うため,正規化フローモデルにおける空間構造情報の保持と抽出が可能な,3\times3$フル畳み込みに組み込んだCBAMを交互に組み込んだ複素関数モデルの設計を行う。
CAINNFlowは、MVTec ADの異常検出のために、CNNとTransformerのバックボーンネットワークを特徴抽出器として、CAINNFlowが高度な精度と推論効率を達成し、CAINNFlowは9,8.64 %のピクセルレベルのAUCを達成している。
関連論文リスト
- DA-Flow: Dual Attention Normalizing Flow for Skeleton-based Video Anomaly Detection [52.74152717667157]
本稿では,DAM(Dual Attention Module)と呼ばれる軽量モジュールを提案する。
フレームアテンション機構を使用して、最も重要なフレームを識別し、スケルトンアテンション機構を使用して、最小パラメータとフロップで固定されたパーティション間の広範な関係をキャプチャする。
論文 参考訳(メタデータ) (2024-06-05T06:18:03Z) - DeepHYDRA: Resource-Efficient Time-Series Anomaly Detection in Dynamically-Configured Systems [3.44012349879073]
我々はDeepHYDRA(Deep Hybrid DBSCAN/reduction-based Anomaly Detection)を提案する。
DBSCANと学習ベースの異常検出を組み合わせる。
大規模なデータセットと複雑なデータセットの両方において、異なるタイプの異常を確実に検出できることが示されている。
論文 参考訳(メタデータ) (2024-05-13T13:47:15Z) - Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - A Novel Self-Supervised Learning-Based Anomaly Node Detection Method
Based on an Autoencoder in Wireless Sensor Networks [4.249028315152528]
本稿では,オートエンコーダに基づく自己教師付き学習に基づく異常ノード検出手法を設計する。
本手法は,時間的WSNデータフロー特徴抽出,空間的位置特徴抽出,モーダルWSN相関特徴抽出を統合する。
実験の結果、設計法はベースラインを上回り、F1スコアは90.6%に達した。
論文 参考訳(メタデータ) (2022-12-26T01:54:02Z) - FRE: A Fast Method For Anomaly Detection And Segmentation [5.0468312081378475]
本稿では,視覚異常検出とセグメンテーション問題を解決するための原理的アプローチを提案する。
本稿では,事前学習したDNNが生み出す中間特性に対する線形統計量次元削減手法の適用について述べる。
高次元空間における原特徴と低次元縮小埋め込みの前像との差の$ell$-normのEmphfeature reconstruction error (FRE) が異常検出に極めて有効であることを示す。
論文 参考訳(メタデータ) (2022-11-23T01:03:20Z) - Defect Transformer: An Efficient Hybrid Transformer Architecture for
Surface Defect Detection [2.0999222360659604]
表面欠陥検出のための効率的なハイブリッドトランスアーキテクチャであるDefect Transformer (DefT)を提案する。
DefTはCNNとTransformerを統一モデルに組み込んで、局所的および非局所的関係を協調的にキャプチャする。
3つのデータセットの実験は、他のCNNやトランスフォーマーベースのネットワークと比較して、我々の手法の優位性と効率性を実証している。
論文 参考訳(メタデータ) (2022-07-17T23:37:48Z) - SALISA: Saliency-based Input Sampling for Efficient Video Object
Detection [58.22508131162269]
ビデオオブジェクト検出のための新しい一様SALiencyベースの入力SAmpling技術であるSALISAを提案する。
SALISAは小物体の検出を著しく改善することを示す。
論文 参考訳(メタデータ) (2022-04-05T17:59:51Z) - FastFlow: Unsupervised Anomaly Detection and Localization via 2D
Normalizing Flows [18.062328700407726]
本稿では,ResNet や Vision Transformer など,任意の機能抽出用プラグインモジュールとしてFastFlowを提案する。
トレーニングフェーズでは、FastFlowは入力された視覚的特徴を抽出可能な分布に変換することを学び、推論フェーズにおける異常を認識する可能性を得る。
提案手法は推論効率の高い異常検出において99.4%のAUCを実現する。
論文 参考訳(メタデータ) (2021-11-15T11:15:02Z) - Contextual-Bandit Anomaly Detection for IoT Data in Distributed
Hierarchical Edge Computing [65.78881372074983]
IoTデバイスは複雑なディープニューラルネットワーク(DNN)モデルにはほとんど余裕がなく、異常検出タスクをクラウドにオフロードすることは長い遅延を引き起こす。
本稿では,分散階層エッジコンピューティング(HEC)システムを対象とした適応型異常検出手法のデモと構築を行う。
提案手法は,検出タスクをクラウドにオフロードした場合と比較して,精度を犠牲にすることなく検出遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2020-04-15T06:13:33Z) - Adaptive Anomaly Detection for IoT Data in Hierarchical Edge Computing [71.86955275376604]
本稿では,階層型エッジコンピューティング(HEC)システムに対する適応型異常検出手法を提案する。
本研究では,入力データから抽出した文脈情報に基づいてモデルを選択する適応的手法を設計し,異常検出を行う。
提案手法を実際のIoTデータセットを用いて評価し,検出タスクをクラウドにオフロードするのとほぼ同じ精度を維持しながら,検出遅延を84%削減できることを実証した。
論文 参考訳(メタデータ) (2020-01-10T05:29:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。