論文の概要: Multiresolution Knowledge Distillation for Anomaly Detection
- arxiv url: http://arxiv.org/abs/2011.11108v1
- Date: Sun, 22 Nov 2020 21:16:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 12:09:35.588652
- Title: Multiresolution Knowledge Distillation for Anomaly Detection
- Title(参考訳): 異常検出のための多分解能知識蒸留
- Authors: Mohammadreza Salehi, Niousha Sadjadi, Soroosh Baselizadeh, Mohammad
Hossein Rohban, Hamid R. Rabiee
- Abstract要約: 教師なし表現学習は、画像における異常検出/局所化の重要な構成要素であることが証明されている。
サンプルサイズは、従来の手法でリッチな一般化可能な表現を学ぶのに十分な大きさではないことが多い。
本稿では、ImageNetで事前訓練された各種ネットワークの「蒸留」機能を用いて、両方の問題に対処する簡易なクローンネットワークを提案する。
- 参考スコア(独自算出の注目度): 10.799350080453982
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised representation learning has proved to be a critical component of
anomaly detection/localization in images. The challenges to learn such a
representation are two-fold. Firstly, the sample size is not often large enough
to learn a rich generalizable representation through conventional techniques.
Secondly, while only normal samples are available at training, the learned
features should be discriminative of normal and anomalous samples. Here, we
propose to use the "distillation" of features at various layers of an expert
network, pre-trained on ImageNet, into a simpler cloner network to tackle both
issues. We detect and localize anomalies using the discrepancy between the
expert and cloner networks' intermediate activation values given the input
data. We show that considering multiple intermediate hints in distillation
leads to better exploiting the expert's knowledge and more distinctive
discrepancy compared to solely utilizing the last layer activation values.
Notably, previous methods either fail in precise anomaly localization or need
expensive region-based training. In contrast, with no need for any special or
intensive training procedure, we incorporate interpretability algorithms in our
novel framework for the localization of anomalous regions. Despite the striking
contrast between some test datasets and ImageNet, we achieve competitive or
significantly superior results compared to the SOTA methods on MNIST, F-MNIST,
CIFAR-10, MVTecAD, Retinal-OCT, and two Medical datasets on both anomaly
detection and localization.
- Abstract(参考訳): 教師なし表現学習は、画像における異常検出/局所化の重要な要素であることが証明されている。
そのような表現を学ぶための課題は2つある。
まず、サンプルサイズは従来の手法でリッチな一般化可能な表現を学ぶのに十分な大きさではない。
第二に、通常のサンプルのみがトレーニングで利用できるが、学習された特徴は通常のサンプルと異常なサンプルとを区別するべきである。
本稿では、ImageNetで事前訓練された各種ネットワークの「蒸留」機能を用いて、両方の問題に対処する簡易なクローンネットワークを提案する。
入力データから専門家とクローンネットワークの中間アクティベーション値の差を利用して異常の検出と局所化を行う。
蒸留における複数の中間的ヒントを考慮すると,最終層活性化値のみを利用する場合に比べ,専門家の知識と識別上の相違点の活用性が向上することを示す。
特に、従来の手法は正確な異常な位置決めに失敗するか、高価な地域ベースの訓練を必要とする。
対照的に,特別なあるいは集中的なトレーニング手順は不要であり,異常領域の局在化のための新しい枠組みに解釈可能性アルゴリズムを組み込む。
MNIST, F-MNIST, CIFAR-10, MVTecAD, Retinal-OCTのSOTA法と, 異常検出とローカライゼーションの両方に関する2つの医学的データセットを比較し, 比較検討を行った。
関連論文リスト
- AnoPLe: Few-Shot Anomaly Detection via Bi-directional Prompt Learning with Only Normal Samples [6.260747047974035]
AnoPLeは、異常を事前に知ることなく、異常検出のために設計されたマルチモーダル・プロンプト学習手法である。
AnoPLe は MVTec-AD と VisA で 94.1% と 86.2% Image AUROC をそれぞれ記録した。
論文 参考訳(メタデータ) (2024-08-24T08:41:19Z) - Anomaly Detection by Context Contrasting [57.695202846009714]
異常検出は、標準から逸脱するサンプルを特定することに焦点を当てる。
近年の自己教師型学習の進歩は、この点において大きな可能性を秘めている。
我々はコンテキスト拡張を通じて学習するCon$を提案する。
論文 参考訳(メタデータ) (2024-05-29T07:59:06Z) - Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - A Prototype-Based Neural Network for Image Anomaly Detection and Localization [10.830337829732915]
本稿では,画像の異常検出と局所化のためのプロトタイプベースニューラルネットワークProtoADを提案する。
まず,自然画像に事前学習したディープネットワークにより,通常の画像のパッチの特徴を抽出する。
ProtoADは、推論速度の高い最先端の手法と比較して、競争性能が向上する。
論文 参考訳(メタデータ) (2023-10-04T04:27:16Z) - CRADL: Contrastive Representations for Unsupervised Anomaly Detection
and Localization [2.8659934481869715]
医用画像における教師なし異常検出は、訓練中に異常データを必要とせず、任意の異常を検出し、位置決めすることを目的としている。
現在の最先端の手法のほとんどは、画像上で直接動作する潜在変数生成モデルを使用している。
コントラストプレテクストタスクで訓練されたエンコーダの低次元表現空間において,正規サンプルの分布を直接モデル化するCRADLを提案する。
論文 参考訳(メタデータ) (2023-01-05T16:07:49Z) - Prototypical Residual Networks for Anomaly Detection and Localization [80.5730594002466]
本稿では,PRN(Prototypeal Residual Network)というフレームワークを提案する。
PRNは、異常領域の分割マップを正確に再構築するために、異常領域と正常パターンの間の様々なスケールとサイズの特徴的残差を学習する。
異常を拡大・多様化するために,見かけの相違と外観の相違を考慮に入れた様々な異常発生戦略を提示する。
論文 参考訳(メタデータ) (2022-12-05T05:03:46Z) - Hierarchical Semi-Supervised Contrastive Learning for
Contamination-Resistant Anomaly Detection [81.07346419422605]
異常検出は、通常のデータ分布から逸脱したサンプルを特定することを目的としている。
コントラスト学習は、異常の効果的な識別を可能にする表現のサンプル化に成功している。
汚染耐性異常検出のための新しい階層型半教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-24T18:49:26Z) - CutPaste: Self-Supervised Learning for Anomaly Detection and
Localization [59.719925639875036]
通常のトレーニングデータのみを用いて異常検知器を構築するためのフレームワークを提案する。
まず、自己教師付き深層表現を学習し、学習した表現の上に生成的1クラス分類器を構築する。
MVTec異常検出データセットに関する実証研究は,提案アルゴリズムが実世界の様々な欠陥を検出可能であることを実証している。
論文 参考訳(メタデータ) (2021-04-08T19:04:55Z) - MOCCA: Multi-Layer One-Class ClassificAtion for Anomaly Detection [16.914663209964697]
我々は,Multi-Layer One-Class Classification (MOCCA) と呼ばれる異常検出問題に対するディープラーニングアプローチを提案する。
異なる深さで抽出された情報を利用して異常なデータインスタンスを検出することで、ディープニューラルネットワークのピースワイズ的性質を明示的に活用します。
本稿では,本手法が文献で利用可能な最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2020-12-09T08:32:56Z) - Understanding Anomaly Detection with Deep Invertible Networks through
Hierarchies of Distributions and Features [4.25227087152716]
畳み込みネットワークは、任意の自然言語データセットでトレーニングされた場合、同様の低レベルの特徴分布を学習する。
inlier とoutlier の識別的特徴が高いレベルにある場合、異常検出は特に困難になる。
モデルバイアスとドメインが高レベルの差を検出する前に負の影響を除去する2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-18T20:56:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。