論文の概要: SimpleNet: A Simple Network for Image Anomaly Detection and Localization
- arxiv url: http://arxiv.org/abs/2303.15140v1
- Date: Mon, 27 Mar 2023 12:18:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 15:32:57.903852
- Title: SimpleNet: A Simple Network for Image Anomaly Detection and Localization
- Title(参考訳): SimpleNet:画像異常検出と位置決めのための簡易ネットワーク
- Authors: Zhikang Liu, Yiming Zhou, Yuansheng Xu, Zilei Wang
- Abstract要約: 本稿では,異常検出と局所化のためのシンプルでアプリケーションフレンドリーなネットワーク(SimpleNet)を提案する。
SimpleNetは、(1)ローカル特徴を生成する事前訓練されたフィーチャーエクストラクタ、(2)ターゲットドメインにローカル特徴を変換する浅いフィーチャーアダプタ、(3)異常特徴を偽装する単純なアノマリーフィーチャージェネレータの4つのコンポーネントから構成される。
MVTec ADベンチマークでは、SimpleNetは99.6%の異常検出AUROCを達成し、次の最高のパフォーマンスモデルと比較してエラーを55.5%削減した。
- 参考スコア(独自算出の注目度): 24.769618168122
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a simple and application-friendly network (called SimpleNet) for
detecting and localizing anomalies. SimpleNet consists of four components: (1)
a pre-trained Feature Extractor that generates local features, (2) a shallow
Feature Adapter that transfo local features towards target domain, (3) a simple
Anomaly Feature Generator that counterfeits anomaly features by adding Gaussian
noise to normal features, and (4) a binary Anomaly Discriminator that
distinguishes anomaly features from normal features. During inference, the
Anomaly Feature Generator would be discarded. Our approach is based on three
intuitions. First, transforming pre-trained features to target-oriented
features helps avoid domain bias. Second, generating synthetic anomalies in
feature space is more effective, as defects may not have much commonality in
the image space. Third, a simple discriminator is much efficient and practical.
In spite of simplicity, SimpleNet outperforms previous methods quantitatively
and qualitatively. On the MVTec AD benchmark, SimpleNet achieves an anomaly
detection AUROC of 99.6%, reducing the error by 55.5% compared to the next best
performing model. Furthermore, SimpleNet is faster than existing methods, with
a high frame rate of 77 FPS on a 3080ti GPU. Additionally, SimpleNet
demonstrates significant improvements in performance on the One-Class Novelty
Detection task. Code: https://github.com/DonaldRR/SimpleNet.
- Abstract(参考訳): 本稿では,異常検出と局所化のためのシンプルでアプリケーションフレンドリーなネットワーク(SimpleNet)を提案する。
SimpleNet は,(1) 局所特徴を生成する事前学習された特徴抽出器,(2) 対象領域に局所特徴を変換する浅層特徴適応器,(3) 正規特徴にガウスノイズを加えることによって異常特徴を偽装する単純な異常特徴生成器,(4) 異常特徴と正常特徴を区別するバイナリ異常識別器の4つのコンポーネントから構成される。
推論中、異常特徴発生器は破棄される。
私たちのアプローチは3つの直観に基づいている。
まず、トレーニング済みの機能からターゲット指向の機能に変換することは、ドメインバイアスを避けるのに役立つ。
第二に、画像空間における欠陥の共通性があまりないため、特徴空間における合成異常の生成はより効果的である。
第3に、単純な判別器は効率的で実用的です。
単純さにもかかわらず、simplenetは従来の手法を量的、質的に上回っている。
MVTec ADベンチマークでは、SimpleNetは99.6%の異常検出AUROCを達成し、次の最高のパフォーマンスモデルと比較してエラーを55.5%削減した。
さらに、SimpleNetは既存のメソッドよりも高速で、3080ti GPU上で77FPSのフレームレートを持つ。
さらにSimpleNetは、ワンクラスノベルティ検出タスクのパフォーマンスが大幅に改善されたことを示している。
コード:https://github.com/DonaldRR/SimpleNet
関連論文リスト
- Simplicity Bias via Global Convergence of Sharpness Minimization [43.658859631741024]
ラベルノイズSGDは、2層ネットワークにおける損失ゼロのモデル多様体のシャープネスを常に最小化することを示す。
また、ゼロ損失多様体上の近似定常点における損失のヘッセンのトレースの新たな性質も見いだす。
論文 参考訳(メタデータ) (2024-10-21T18:10:37Z) - Global Context Aggregation Network for Lightweight Saliency Detection of
Surface Defects [70.48554424894728]
我々は,エンコーダ・デコーダ構造上の表面欠陥を簡易に検出するためのGCANet(Global Context Aggregation Network)を開発した。
まず、軽量バックボーンの上部層に新しいトランスフォーマーエンコーダを導入し、DSA(Depth-wise Self-Attention)モジュールを通じてグローバルなコンテキスト情報をキャプチャする。
3つの公開欠陥データセットの実験結果から,提案したネットワークは,他の17の最先端手法と比較して,精度と実行効率のトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2023-09-22T06:19:11Z) - EasyNet: An Easy Network for 3D Industrial Anomaly Detection [49.26348455493123]
3D異常検出は、産業生産において、新しくて重要なコンピュータビジョンタスクである。
我々は,事前訓練されたモデルやメモリバンクを使わずに,容易に展開可能なネットワーク(EasyNet)を提案する。
実験の結果、EasyNetはトレーニング済みのモデルやメモリバンクを使わずに92.6%の異常検出AUROCを実現していることがわかった。
論文 参考訳(メタデータ) (2023-07-26T02:46:50Z) - Glance and Focus Networks for Dynamic Visual Recognition [36.26856080976052]
画像認識問題を,人間の視覚系を模倣した逐次的粗い特徴学習プロセスとして定式化する。
提案したGlance and Focus Network(GFNet)は,まず低解像度スケールで入力画像の迅速なグローバルな表現を抽出し,その後,より微細な特徴を学習するために,一連の局所的(小さな)領域に戦略的に参画する。
これは、iPhone XS Max上の高効率のMobileNet-V3の平均遅延を、精度を犠牲にすることなく1.3倍削減する。
論文 参考訳(メタデータ) (2022-01-09T14:00:56Z) - Bottleneck Transformers for Visual Recognition [97.16013761605254]
視覚タスクに自己注意を組み込んだ強力なバックボーンアーキテクチャであるBoTNetを提案する。
我々は、ImageNetベンチマークにおいて84.7%のトップ1の精度で高いパフォーマンスを達成するモデルを提案する。
私たちのシンプルで効果的なアプローチが、将来のビジョンのための自己注意モデル研究の強力なベースラインになることを期待しています。
論文 参考訳(メタデータ) (2021-01-27T18:55:27Z) - Local Grid Rendering Networks for 3D Object Detection in Point Clouds [98.02655863113154]
CNNは強力だが、全点の雲を高密度の3Dグリッドに酸化した後、点データに直接畳み込みを適用するのは計算コストがかかる。
入力点のサブセットの小さな近傍を低解像度の3Dグリッドに独立してレンダリングする,新しい,原理化されたローカルグリッドレンダリング(LGR)演算を提案する。
ScanNetとSUN RGB-Dデータセットを用いた3次元オブジェクト検出のためのLGR-Netを検証する。
論文 参考訳(メタデータ) (2020-07-04T13:57:43Z) - Pixel-in-Pixel Net: Towards Efficient Facial Landmark Detection in the
Wild [104.61677518999976]
顔のランドマークを検出するために,Pixel-in-Pixel Net(PIPNet)を提案する。
提案モデルは,熱マップ回帰に基づく新しい検出ヘッドを備える。
PIPNetのクロスドメイン一般化能力をさらに向上するため,カリキュラムによる自己学習を提案する。
論文 参考訳(メタデータ) (2020-03-08T12:23:42Z) - NETNet: Neighbor Erasing and Transferring Network for Better Single Shot
Object Detection [170.30694322460045]
我々は、ピラミッドの特徴を再設定し、スケールアウェアな特徴を探索する新しいNeighbor Erasing and Transferring(NET)メカニズムを提案する。
NETNetと呼ばれるシングルショットネットワークは、スケールアウェアなオブジェクト検出のために構築されている。
論文 参考訳(メタデータ) (2020-01-18T15:21:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。