論文の概要: Produce Once, Utilize Twice for Anomaly Detection
- arxiv url: http://arxiv.org/abs/2312.12913v1
- Date: Wed, 20 Dec 2023 10:49:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 16:06:16.607191
- Title: Produce Once, Utilize Twice for Anomaly Detection
- Title(参考訳): 異常検出に2回利用した1回生産
- Authors: Shuyuan Wang, Qi Li, Huiyuan Luo, Chengkan Lv, Zhengtao Zhang
- Abstract要約: 我々は、再構成ネットワークにおける識別情報電位を再利用することにより、精度と効率を両立させるPOUTAを導出する。
POUTAは、特別な設計をせずに、最先端の数発の異常検出方法よりも優れた性能を実現している。
- 参考スコア(独自算出の注目度): 6.501323305130114
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual anomaly detection aims at classifying and locating the regions that
deviate from the normal appearance. Embedding-based methods and
reconstruction-based methods are two main approaches for this task. However,
they are either not efficient or not precise enough for the industrial
detection. To deal with this problem, we derive POUTA (Produce Once Utilize
Twice for Anomaly detection), which improves both the accuracy and efficiency
by reusing the discriminant information potential in the reconstructive
network. We observe that the encoder and decoder representations of the
reconstructive network are able to stand for the features of the original and
reconstructed image respectively. And the discrepancies between the symmetric
reconstructive representations provides roughly accurate anomaly information.
To refine this information, a coarse-to-fine process is proposed in POUTA,
which calibrates the semantics of each discriminative layer by the high-level
representations and supervision loss. Equipped with the above modules, POUTA is
endowed with the ability to provide a more precise anomaly location than the
prior arts. Besides, the representation reusage also enables to exclude the
feature extraction process in the discriminative network, which reduces the
parameters and improves the efficiency. Extensive experiments show that, POUTA
is superior or comparable to the prior methods with even less cost.
Furthermore, POUTA also achieves better performance than the state-of-the-art
few-shot anomaly detection methods without any special design, showing that
POUTA has strong ability to learn representations inherent in the training
data.
- Abstract(参考訳): 視覚異常検出は、正常な外観から逸脱する領域を分類し、位置決めすることを目的としている。
組込み型メソッドと再構成型メソッドは、2つの主要なアプローチである。
しかし、これらは効率が良くないか、工業的な検出に十分正確ではない。
この問題に対処するために、再構成ネットワークにおける識別情報電位を再利用することにより精度と効率を向上させるPOUTA(Produce Once Utilize Twice for Anomaly Detection)を導出する。
再構成ネットワークのエンコーダとデコーダの表現は、それぞれオリジナルの画像の特徴と再構成された画像の特徴を表現可能であることを観察する。
また、対称的再構成表現の相違により、ほぼ正確な異常情報が得られる。
この情報を洗練するために,高レベル表現と監督損失によって各識別層のセマンティクスを規定する粒度から粒度までのプロセスがpoutaで提案されている。
上記のモジュールを備えており、以前の芸術よりも正確な異常な場所を提供する能力を備えている。
さらに、表現再使用により、識別ネットワークにおける特徴抽出プロセスが排除され、パラメータが減少し、効率が向上する。
大規模な実験により、POUTAはより優れているか、より低コストで以前の方法に匹敵することを示した。
さらに,POUTAは,訓練データに固有の表現を学習する能力が強いことを示すため,特別な設計をすることなく,最新の数発の異常検出手法よりも優れた性能を実現している。
関連論文リスト
- SINDER: Repairing the Singular Defects of DINOv2 [61.98878352956125]
大規模なデータセットでトレーニングされたビジョントランスフォーマーモデルは、抽出したパッチトークンにアーティファクトを表示することが多い。
本稿では,小さなデータセットのみを用いて構造欠陥を補正するスムーズなスムーズな正規化を提案する。
論文 参考訳(メタデータ) (2024-07-23T20:34:23Z) - Feature Attenuation of Defective Representation Can Resolve Incomplete Masking on Anomaly Detection [1.0358639819750703]
教師なし異常検出(UAD)研究では、計算効率が高くスケーラブルなソリューションを開発する必要がある。
再建・塗り替えのアプローチを再考し、強みと弱みを分析して改善する。
異常再構成の特徴情報を減衰させる2つの層のみを用いるFADeR(Feature Attenuation of Defective Representation)を提案する。
論文 参考訳(メタデータ) (2024-07-05T15:44:53Z) - A Recover-then-Discriminate Framework for Robust Anomaly Detection [46.32260480448735]
異常検出(AD)は近年,幅広いシナリオで広く研究され,応用されている。
実用的なアプリケーションのためにADを作成するために、達成されたものと望ましいレベルの認識精度の間にはまだギャップがある。
本稿では,ADのための新しいRecover-then-Discriminate(ReDi)フレームワークを提案する。
ReDiは、自己生成された特徴マップと選択されたインプットイメージを明示的な入力情報として取り込んで、ケース1の問題を解決する。
同時に,検索した表現と入力表現の異常な差異を高めるために,特徴レベルの識別ネットワークを提案する。
論文 参考訳(メタデータ) (2024-06-07T03:34:16Z) - A Hierarchically Feature Reconstructed Autoencoder for Unsupervised Anomaly Detection [8.512184778338806]
それは、階層的な特徴表現を抽出するための十分に訓練されたエンコーダと、これらの中間的特徴をエンコーダから再構成するデコーダで構成されている。
復号器が機能再構成に失敗すると異常を検知し、階層的特徴再構成の誤差を異常マップに集約して異常局所化を実現する。
実験の結果,提案手法はMNIST, Fashion-MNIST, CIFAR-10, MVTec異常検出データセットにおいて,最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-05-15T07:20:27Z) - Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - CL-Flow:Strengthening the Normalizing Flows by Contrastive Learning for
Better Anomaly Detection [1.951082473090397]
コントラスト学習と2D-Flowを組み合わせた自己教師付き異常検出手法を提案する。
本手法は,主流の教師なし手法と比較して,検出精度が向上し,モデルパラメータが減少し,推論速度が向上することを示す。
BTADデータセットでは,MVTecADデータセットでは画像レベルのAUROCが99.6%,BTADデータセットでは画像レベルのAUROCが96.8%であった。
論文 参考訳(メタデータ) (2023-11-12T10:07:03Z) - Benchmarking Deep Models for Salient Object Detection [67.07247772280212]
汎用SALOD(General SALient Object Detection)ベンチマークを構築し,複数のSOD手法の総合的な比較を行った。
以上の実験では、既存の損失関数は、通常いくつかの指標に特化しているが、他の指標には劣る結果が報告されている。
我々は,深層ネットワークに画素レベルと画像レベルの両方の監視信号を統合することにより,より識別的な特徴を学習するためのエッジ・アウェア・ロス(EA)を提案する。
論文 参考訳(メタデータ) (2022-02-07T03:43:16Z) - Y-GAN: Learning Dual Data Representations for Efficient Anomaly
Detection [0.0]
本稿では,Y-GANと呼ばれる新しい再構成モデルを提案する。
モデルはY字型のオートエンコーダで構成され、2つの別々の潜在空間の画像を表現している。
論文 参考訳(メタデータ) (2021-09-28T20:17:04Z) - ESAD: End-to-end Deep Semi-supervised Anomaly Detection [85.81138474858197]
正規データと異常データの間のKL偏差を計測する新たな目的関数を提案する。
提案手法は,複数のベンチマークデータセットの最先端性能を著しく上回っている。
論文 参考訳(メタデータ) (2020-12-09T08:16:35Z) - BiDet: An Efficient Binarized Object Detector [96.19708396510894]
本稿では,効率的な物体検出のためのバイナライズニューラルネットワークのBiDetを提案する。
我々のBiDetは、冗長除去による物体検出にバイナリニューラルネットワークの表現能力を完全に活用している。
我々の手法は、最先端のバイナリニューラルネットワークを大きなマージンで上回る。
論文 参考訳(メタデータ) (2020-03-09T08:16:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。