論文の概要: DFR: Deep Feature Reconstruction for Unsupervised Anomaly Segmentation
- arxiv url: http://arxiv.org/abs/2012.07122v1
- Date: Sun, 13 Dec 2020 18:30:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-09 12:42:45.689641
- Title: DFR: Deep Feature Reconstruction for Unsupervised Anomaly Segmentation
- Title(参考訳): 教師なし異常セグメンテーションのための深部特徴再建法
- Authors: Jie Yang, Yong Shi, Zhiquan Qi
- Abstract要約: 本論文では,非監視型異常セグメンテーション手法を提案する。
画像の小さな領域や限られた領域の異常を検出し、分類することができる。
複数のベンチマークデータセットで最先端のパフォーマンスを向上する。
- 参考スコア(独自算出の注目度): 24.52418722578279
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Automatic detecting anomalous regions in images of objects or textures
without priors of the anomalies is challenging, especially when the anomalies
appear in very small areas of the images, making difficult-to-detect visual
variations, such as defects on manufacturing products. This paper proposes an
effective unsupervised anomaly segmentation approach that can detect and
segment out the anomalies in small and confined regions of images. Concretely,
we develop a multi-scale regional feature generator that can generate multiple
spatial context-aware representations from pre-trained deep convolutional
networks for every subregion of an image. The regional representations not only
describe the local characteristics of corresponding regions but also encode
their multiple spatial context information, making them discriminative and very
beneficial for anomaly detection. Leveraging these descriptive regional
features, we then design a deep yet efficient convolutional autoencoder and
detect anomalous regions within images via fast feature reconstruction. Our
method is simple yet effective and efficient. It advances the state-of-the-art
performances on several benchmark datasets and shows great potential for real
applications.
- Abstract(参考訳): 特に、画像の非常に小さな領域に異常が現れて、製造製品の欠陥などの視覚的な変化を検出できない場合、物体やテクスチャの画像における異常領域の自動検出は困難である。
本稿では,画像の小さい領域と狭い領域に異常を検出・分割できる効果的な非教師なし異常分割手法を提案する。
具体的には,画像のサブリージョン毎に,事前学習した深部畳み込みネットワークから複数の空間的コンテキスト認識表現を生成できるマルチスケールな地域特徴生成装置を開発する。
地域表現は、対応する地域の局所的な特徴を記述しているだけでなく、複数の空間的文脈情報を符号化している。
これらの記述的地域特徴を活用することで、深いが効率的な畳み込みオートエンコーダを設計し、高速な特徴再構成により画像内の異常領域を検出する。
我々の方法は単純だが効率的だ。
複数のベンチマークデータセット上での最先端のパフォーマンスを向上し、実際のアプリケーションにとって大きな可能性を示している。
関連論文リスト
- Weakly Supervised Video Anomaly Detection and Localization with Spatio-Temporal Prompts [57.01985221057047]
本稿では、事前学習された視覚言語モデル(VLM)に基づく、弱教師付きビデオ異常検出および局所化のための時間的プロンプト埋め込み(WSVADL)を学習する新しい手法を提案する。
提案手法は,WSVADLタスクの3つの公開ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-12T03:31:29Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - DQnet: Cross-Model Detail Querying for Camouflaged Object Detection [54.82390534024954]
カモフラージュされた物体検出のための畳み込みニューラルネットワーク(CNN)は、完全な対象範囲を無視しながら局所的な識別領域を活性化する傾向がある。
本稿では,CNNの内在的特性から部分的活性化が引き起こされることを論じる。
完全なオブジェクト範囲を活性化できる特徴マップを得るために,クロスモデル詳細クエリネットワーク(DQnet)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-16T06:23:58Z) - Prototypical Residual Networks for Anomaly Detection and Localization [80.5730594002466]
本稿では,PRN(Prototypeal Residual Network)というフレームワークを提案する。
PRNは、異常領域の分割マップを正確に再構築するために、異常領域と正常パターンの間の様々なスケールとサイズの特徴的残差を学習する。
異常を拡大・多様化するために,見かけの相違と外観の相違を考慮に入れた様々な異常発生戦略を提示する。
論文 参考訳(メタデータ) (2022-12-05T05:03:46Z) - Cross-Domain Local Characteristic Enhanced Deepfake Video Detection [18.430287055542315]
ディープフェイク検出はセキュリティ上の懸念から注目を集めている。
多くの検出器は、目に見えない操作を検出する際に正確な結果を得ることができない。
そこで我々は,より一般的なディープフェイクビデオ検出のための新しいパイプラインであるクロスドメインローカルフォレスティクスを提案する。
論文 参考訳(メタデータ) (2022-11-07T07:44:09Z) - PAEDID: Patch Autoencoder Based Deep Image Decomposition For Pixel-level
Defective Region Segmentation [16.519583839906904]
欠陥領域分割のための非教師パッチオートエンコーダに基づくディープ画像分解法(PAEDID)を提案する。
パッチオートエンコーダ(PAE)ネットワークにより,より深い画像として共通の背景を学習する。
提案手法を採用することにより、画像中の欠陥領域を教師なしで正確に抽出することができる。
論文 参考訳(メタデータ) (2022-03-28T02:50:06Z) - AnoViT: Unsupervised Anomaly Detection and Localization with Vision
Transformer-based Encoder-Decoder [3.31490164885582]
我々は,画像パッチ間のグローバルな関係を学習することにより,通常の情報を反映する視覚変換器を用いたエンコーダデコーダモデルAnoViTを提案する。
提案モデルは,3つのベンチマークデータセット上での畳み込みモデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-03-21T09:01:37Z) - Low-Rank Subspaces in GANs [101.48350547067628]
この研究は、GAN生成をより正確に制御できる低ランクな部分空間を導入している。
LowRankGAN は属性多様体の低次元表現を見つけることができる。
さまざまなデータセットでトレーニングされた最先端のGANモデル(StyleGAN2やBigGANなど)の実験は、私たちのLowRankGANの有効性を示しています。
論文 参考訳(メタデータ) (2021-06-08T16:16:32Z) - Anomaly localization by modeling perceptual features [3.04585143845864]
特徴拡張型VAEは、入力画像を画素空間や複数の異なる特徴空間で再構成することで訓練される。
MVTec異常検出およびローカライゼーションデータセットの最先端手法に対する明確な改善を実現する。
論文 参考訳(メタデータ) (2020-08-12T15:09:13Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。