論文の概要: Multi-Normal Prototypes Learning for Weakly Supervised Anomaly Detection
- arxiv url: http://arxiv.org/abs/2408.14498v2
- Date: Sat, 30 Nov 2024 12:43:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-03 16:56:30.176778
- Title: Multi-Normal Prototypes Learning for Weakly Supervised Anomaly Detection
- Title(参考訳): 弱教師付き異常検出のためのマルチノードプロトタイプ学習
- Authors: Zhijin Dong, Hongzhi Liu, Boyuan Ren, Weimin Xiong, Zhonghai Wu,
- Abstract要約: 異常検出は様々な領域において重要な課題である。
既存の手法のほとんどは、単一の中央プロトタイプを中心とした通常のサンプルデータクラスタを前提としています。
ラベル付き異常を効率的に扱える新しい異常検出フレームワークを提案する。
- 参考スコア(独自算出の注目度): 9.4765288592895
- License:
- Abstract: Anomaly detection is a crucial task in various domains. Most of the existing methods assume the normal sample data clusters around a single central prototype while the real data may consist of multiple categories or subgroups. In addition, existing methods always assume all unlabeled samples are normal while some of them are inevitably being anomalies. To address these issues, we propose a novel anomaly detection framework that can efficiently work with limited labeled anomalies. Specifically, we assume the normal sample data may consist of multiple subgroups, and propose to learn multi-normal prototypes to represent them with deep embedding clustering and contrastive learning. Additionally, we propose a method to estimate the likelihood of each unlabeled sample being normal during model training, which can help to learn more efficient data encoder and normal prototypes for anomaly detection. Extensive experiments on various datasets demonstrate the superior performance of our method compared to state-of-the-art methods.
- Abstract(参考訳): 異常検出は様々な領域において重要な課題である。
既存の手法のほとんどは、単一の中央プロトタイプの周りの通常のサンプルデータクラスタを仮定する一方、実際のデータは複数のカテゴリまたはサブグループから構成される可能性がある。
加えて、既存のメソッドは常にすべてのラベルのないサンプルが正常であると仮定し、そのうちのいくつかは必然的に異常である。
これらの問題に対処するために,ラベル付き異常を効率的に扱える新しい異常検出フレームワークを提案する。
具体的には、サンプルデータは複数のサブグループから構成される可能性があると仮定し、より深い埋め込みクラスタリングと対照的な学習でそれらを表現するための多正規プロトタイプを学習することを提案する。
さらに,本研究では,モデルトレーニング中に,各未ラベル標本が正常である確率を推定する手法を提案し,より効率的なデータエンコーダと異常検出用標準プロトタイプの学習を支援する。
各種データセットに対する大規模な実験は,最先端手法と比較して,提案手法の優れた性能を示す。
関連論文リスト
- Fine-grained Abnormality Prompt Learning for Zero-shot Anomaly Detection [88.34095233600719]
FAPromptは、より正確なZSADのためにきめ細かい異常プロンプトを学習するために設計された新しいフレームワークである。
画像レベルおよび画素レベルのZSADタスクにおいて、最先端の手法を少なくとも3%-5%のAUC/APで大幅に上回っている。
論文 参考訳(メタデータ) (2024-10-14T08:41:31Z) - Anomaly Detection by Context Contrasting [57.695202846009714]
異常検出は、標準から逸脱するサンプルを特定することに焦点を当てる。
近年の自己教師型学習の進歩は、この点において大きな可能性を秘めている。
我々はコンテキスト拡張を通じて学習するCon$を提案する。
論文 参考訳(メタデータ) (2024-05-29T07:59:06Z) - ARC: A Generalist Graph Anomaly Detector with In-Context Learning [62.202323209244]
ARCは汎用的なGADアプローチであり、一対一のGADモデルで様々なグラフデータセットの異常を検出することができる。
ARCはコンテキスト内学習を備えており、ターゲットデータセットからデータセット固有のパターンを直接抽出することができる。
各種領域からの複数のベンチマークデータセットに対する大規模な実験は、ARCの優れた異常検出性能、効率、一般化性を示す。
論文 参考訳(メタデータ) (2024-05-27T02:42:33Z) - Toward Generalist Anomaly Detection via In-context Residual Learning with Few-shot Sample Prompts [25.629973843455495]
Generalist Anomaly Detection (GAD)は、ターゲットデータにさらなるトレーニングを加えることなく、さまざまなアプリケーションドメインからさまざまなデータセットの異常を検出するために一般化可能な、単一の検出モデルをトレーニングすることを目的としている。
InCTRLと呼ばれるGADのための文脈内残差学習モデルを学習する新しい手法を提案する。
InCTRLは最高のパフォーマーであり、最先端の競合手法を著しく上回っている。
論文 参考訳(メタデータ) (2024-03-11T08:07:46Z) - Active anomaly detection based on deep one-class classification [9.904380236739398]
我々は,Deep SVDDにおけるアクティブラーニングの2つの重要な課題,すなわちクエリ戦略と半教師付きラーニング手法に対処する。
まず、単に異常を識別するのではなく、適応境界に従って不確実なサンプルを選択する。
第2に、ラベル付き正規データと異常データの両方を効果的に組み込むために、一級分類モデルの訓練にノイズコントラスト推定を適用した。
論文 参考訳(メタデータ) (2023-09-18T03:56:45Z) - A Generic Machine Learning Framework for Fully-Unsupervised Anomaly
Detection with Contaminated Data [0.0]
本稿では,ADタスクに対する汚染されたトレーニングデータの完全教師なし改善のためのフレームワークを提案する。
このフレームワークは汎用的であり、任意の残差ベースの機械学習モデルに適用することができる。
本研究は, 改質を伴わない汚染データを用いた学習において, ナイーブなアプローチよりも明らかに優れていることを示す。
論文 参考訳(メタデータ) (2023-08-25T12:47:59Z) - Few-shot Deep Representation Learning based on Information Bottleneck
Principle [0.0]
標準異常検出問題では、サンプルが正規データの単一ソースから生成されたと仮定して、教師なしの設定で検出モデルを訓練する。
実際には、通常データは複数のクラスから構成されることが多いが、このような設定では、大規模ラベル付きデータを持たない通常のクラス間の相違点において、通常のインスタンスと異常を区別する学習が大きな課題となっている。
本研究では,通常のクラスからサンプルを少数用意することで,この課題を克服しようと試みるが,これは過度にコストがかかるものではない。
論文 参考訳(メタデータ) (2021-11-25T07:15:12Z) - Explainable Deep Few-shot Anomaly Detection with Deviation Networks [123.46611927225963]
本稿では,弱い教師付き異常検出フレームワークを導入し,検出モデルを訓練する。
提案手法は,ラベル付き異常と事前確率を活用することにより,識別正規性を学習する。
我々のモデルはサンプル効率が高く頑健であり、クローズドセットとオープンセットの両方の設定において最先端の競合手法よりもはるかに優れている。
論文 参考訳(メタデータ) (2021-08-01T14:33:17Z) - Self-Trained One-class Classification for Unsupervised Anomaly Detection [56.35424872736276]
異常検出(AD)は、製造から医療まで、さまざまな分野に応用されている。
本研究は、トレーニングデータ全体がラベル付けされておらず、正規サンプルと異常サンプルの両方を含む可能性のある、教師なしAD問題に焦点を当てる。
この問題に対処するため,データリファインメントによる堅牢な一級分類フレームワークを構築した。
本手法は6.3AUCと12.5AUCの平均精度で最先端の1クラス分類法より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-11T01:36:08Z) - Toward Deep Supervised Anomaly Detection: Reinforcement Learning from
Partially Labeled Anomaly Data [150.9270911031327]
本稿では,一部のラベル付き異常事例と大規模ラベルなしデータセットを用いた異常検出の問題点について考察する。
既存の関連手法は、通常、一連の異常にまたがらない限られた異常例にのみ適合するか、ラベルのないデータから教師なしの学習を進めるかのいずれかである。
そこで本研究では,ラベル付きおよびラベルなし両方の異常の検出をエンドツーエンドに最適化する,深層強化学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-15T03:05:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。