論文の概要: Anomaly Detection via Multi-Scale Contrasted Memory
- arxiv url: http://arxiv.org/abs/2211.09041v1
- Date: Wed, 16 Nov 2022 16:58:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 15:50:13.961614
- Title: Anomaly Detection via Multi-Scale Contrasted Memory
- Title(参考訳): マルチスケールコントラストメモリによる異常検出
- Authors: Loic Jezequel, Ngoc-Son Vu, Jean Beaudet, Aymeric Histace
- Abstract要約: マルチスケールの標準プロトタイプをトレーニング中に記憶し,異常偏差値を計算する2段階の異常検出器を新たに導入する。
CIFAR-10の誤差相対改善率を最大35%とすることにより,多種多様なオブジェクト,スタイル,局所異常に対する最先端性能を高い精度で向上させる。
- 参考スコア(独自算出の注目度): 3.0170109896527086
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep anomaly detection (AD) aims to provide robust and efficient classifiers
for one-class and unbalanced settings. However current AD models still struggle
on edge-case normal samples and are often unable to keep high performance over
different scales of anomalies. Moreover, there currently does not exist a
unified framework efficiently covering both one-class and unbalanced learnings.
In the light of these limitations, we introduce a new two-stage anomaly
detector which memorizes during training multi-scale normal prototypes to
compute an anomaly deviation score. First, we simultaneously learn
representations and memory modules on multiple scales using a novel
memory-augmented contrastive learning. Then, we train an anomaly distance
detector on the spatial deviation maps between prototypes and observations. Our
model highly improves the state-of-the-art performance on a wide range of
object, style and local anomalies with up to 35\% error relative improvement on
CIFAR-10. It is also the first model to keep high performance across the
one-class and unbalanced settings.
- Abstract(参考訳): Deep Anomaly Detection (AD)は、1クラスとアンバランスの設定に対して堅牢で効率的な分類器を提供することを目的としている。
しかしながら、現在のADモデルは、エッジケースの通常のサンプルに苦戦しており、しばしば異なるスケールの異常に対してハイパフォーマンスを維持することができない。
さらに、現在、一級学習と不均衡学習の両方を効率的にカバーする統一フレームワークは存在しない。
これらの限界に照らして,多段階正規プロトタイプの学習中に記憶し,異常偏差スコアを求める2段階の異常検出器を提案する。
まず,新しい記憶提示型コントラスト学習を用いて,複数のスケールで表現とメモリモジュールを同時に学習する。
次に,プロトタイプと観測の間の空間偏差マップについて異常距離検出器を訓練する。
CIFAR-10の誤差相対改善を最大35倍の精度で行うことにより,多種多様なオブジェクト,スタイル,局所異常に対する最先端性能を向上する。
また、1クラスとアンバランスな設定でハイパフォーマンスを維持する最初のモデルでもある。
関連論文リスト
- FUN-AD: Fully Unsupervised Learning for Anomaly Detection with Noisy Training Data [1.0650780147044159]
ラベルなしおよび潜在的に汚染されたトレーニングデータを用いた完全教師なし異常検出のための新しい学習ベースアプローチを提案する。
本手法は, 2つの観測結果から, 正常試料間の対特徴距離が, 異常試料や異種試料間の対特徴距離よりも平均的に小さい可能性が示唆され, 互いに近接する2つの特徴対が等質な対である可能性が示唆された。
本研究は, 近接する近傍距離が信頼度の高いサンプルと異常を区別できることを示す最初の観測結果に基づいて, 反復的に再構成されたメモリバンクを用いた擬似ラベル方式を提案する。
論文 参考訳(メタデータ) (2024-11-25T05:51:38Z) - Multiple Descents in Unsupervised Learning: The Role of Noise, Domain Shift and Anomalies [14.399035468023161]
教師なし学習における二重の子孫の存在について検討するが、これはほとんど注目されず、まだ完全には理解されていない領域である。
我々は、合成データと実データを用いて、様々なアプリケーションに対してモデルワイド、エポックワイド、サンプルワイドの二重降下を識別する。
論文 参考訳(メタデータ) (2024-06-17T16:24:23Z) - Attend, Distill, Detect: Attention-aware Entropy Distillation for Anomaly Detection [4.0679780034913335]
知識蒸留に基づくマルチクラスの異常検出では、低レイテンシで十分なパフォーマンスが期待できるが、1クラスのバージョンに比べて大幅に低下する。
教師と学生のネットワーク間の蒸留プロセスを改善するDCAM(Distributed Convolutional Attention Module)を提案する。
論文 参考訳(メタデータ) (2024-05-10T13:25:39Z) - Continuous Memory Representation for Anomaly Detection [24.58611060347548]
CRADは「連続的」メモリ内の正常な特徴を表現するための新しい異常検出手法である。
MVTec ADデータセットを用いた評価では、CRADは、マルチクラス統一異常検出におけるエラーの65.0%を削減し、従来の最先端手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2024-02-28T12:38:44Z) - Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - LARA: A Light and Anti-overfitting Retraining Approach for Unsupervised
Time Series Anomaly Detection [49.52429991848581]
深部変分自動エンコーダに基づく時系列異常検出手法(VAE)のための光・反オーバーフィット学習手法(LARA)を提案する。
本研究の目的は,1) 再学習過程を凸問題として定式化し, 過度に収束できること,2) 履歴データを保存せずに活用するルミネートブロックを設計すること,3) 潜在ベクトルと再構成データの微調整を行うと, 線形形成が基底真実と微調整されたブロックとの誤りを最小に調整できることを数学的に証明することである。
論文 参考訳(メタデータ) (2023-10-09T12:36:16Z) - A Unified Model for Multi-class Anomaly Detection [33.534990722449066]
UniADは、統一されたフレームワークで複数のクラスに対して異常検出を行う。
MVTec-ADおよびCIFAR-10データセットを用いて,本アルゴリズムの評価を行った。
論文 参考訳(メタデータ) (2022-06-08T06:05:09Z) - Adaptive Memory Networks with Self-supervised Learning for Unsupervised
Anomaly Detection [54.76993389109327]
教師なし異常検出は、通常のデータのみをトレーニングすることで、目に見えない異常を検出するモデルを構築することを目的としている。
本稿では,これらの課題に対処するために,自己教師付き学習(AMSL)を用いた適応記憶ネットワーク(Adaptive Memory Network)を提案する。
AMSLには、一般的な正規パターンを学ぶための自己教師付き学習モジュールと、リッチな特徴表現を学ぶための適応型メモリ融合モジュールが組み込まれている。
論文 参考訳(メタデータ) (2022-01-03T03:40:21Z) - Explainable Deep Few-shot Anomaly Detection with Deviation Networks [123.46611927225963]
本稿では,弱い教師付き異常検出フレームワークを導入し,検出モデルを訓練する。
提案手法は,ラベル付き異常と事前確率を活用することにより,識別正規性を学習する。
我々のモデルはサンプル効率が高く頑健であり、クローズドセットとオープンセットの両方の設定において最先端の競合手法よりもはるかに優れている。
論文 参考訳(メタデータ) (2021-08-01T14:33:17Z) - Discriminative-Generative Dual Memory Video Anomaly Detection [81.09977516403411]
近年,ビデオ異常検出(VAD)には,トレーニングプロセス中に通常のデータに代えて,いくつかの異常を使おうと試みている。
本稿では,いくつかの異常を生かしてデータの不均衡を解決するために,識別生成型デュアルメモリ(dream)異常検出モデルを提案する。
論文 参考訳(メタデータ) (2021-04-29T15:49:01Z) - Unsupervised Anomaly Detection with Adversarial Mirrored AutoEncoders [51.691585766702744]
本稿では,識別器のミラー化ワッサースタイン損失を利用して,よりセマンティックレベルの再構築を行う逆自動エンコーダの変種を提案する。
我々は,再建基準の代替として,異常スコアの代替尺度を提案した。
提案手法は,OOD検出ベンチマークにおける異常検出の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-03-24T08:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。