論文の概要: Deep Contrastive One-Class Time Series Anomaly Detection
- arxiv url: http://arxiv.org/abs/2207.01472v3
- Date: Sun, 16 Apr 2023 08:57:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 00:34:26.281320
- Title: Deep Contrastive One-Class Time Series Anomaly Detection
- Title(参考訳): 深部コントラスト1級時系列異常検出
- Authors: Rui Wang, Chongwei Liu, Xudong Mou, Kai Gao, Xiaohui Guo, Pin Liu,
Tianyu Wo, Xudong Liu
- Abstract要約: 時系列の逆1クラス異常検出法(COCA)を著者らにより提案する。
元の表現と再構成された表現を、正対の負サンプルのないCL、すなわち「シーケンスコントラスト」として扱う。
- 参考スコア(独自算出の注目度): 15.27593816198766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The accumulation of time-series data and the absence of labels make
time-series Anomaly Detection (AD) a self-supervised deep learning task.
Single-normality-assumption-based methods, which reveal only a certain aspect
of the whole normality, are incapable of tasks involved with a large number of
anomalies. Specifically, Contrastive Learning (CL) methods distance negative
pairs, many of which consist of both normal samples, thus reducing the AD
performance. Existing multi-normality-assumption-based methods are usually
two-staged, firstly pre-training through certain tasks whose target may differ
from AD, limiting their performance. To overcome the shortcomings, a deep
Contrastive One-Class Anomaly detection method of time series (COCA) is
proposed by authors, following the normality assumptions of CL and one-class
classification. It treats the original and reconstructed representations as the
positive pair of negative-sample-free CL, namely "sequence contrast". Next,
invariance terms and variance terms compose a contrastive one-class loss
function in which the loss of the assumptions is optimized by invariance terms
simultaneously and the "hypersphere collapse" is prevented by variance terms.
In addition, extensive experiments on two real-world time-series datasets show
the superior performance of the proposed method achieves state-of-the-art.
- Abstract(参考訳): 時系列データの蓄積とラベルの欠如により、時系列異常検出(AD)は自己教師型ディープラーニングタスクとなる。
正規性の特定の側面のみを明らかにする単一正規性推定法は、多数の異常を伴うタスクが不可能である。
特に、Contrastive Learning (CL) は2つのサンプルからなる負のペア間距離を計算し、AD性能を低下させる。
既存の多正規性推定に基づく手法は通常2段階であり、まずADと異なるタスクを事前訓練し、性能を制限している。
この欠点を克服するために、CLと1クラス分類の正規性仮定に従って、COCA(Contrastive One-class Anomaly Detection of Time Series)の深層コントラスト検出法を提案する。
元の表現と再構成された表現を、正の正の負サンプルのないCL、すなわち「シーケンスコントラスト」として扱う。
次に、不変項と分散項は、仮定の損失を同時に不変項によって最適化し、分散項によって「超球崩壊」が防止される対照的な一級損失関数を構成する。
さらに,2つの実世界の時系列データセットに対する広範な実験により,提案手法の優れた性能が得られた。
関連論文リスト
- FUN-AD: Fully Unsupervised Learning for Anomaly Detection with Noisy Training Data [1.0650780147044159]
ラベルなしおよび潜在的に汚染されたトレーニングデータを用いた完全教師なし異常検出のための新しい学習ベースアプローチを提案する。
本手法は, 2つの観測結果から, 正常試料間の対特徴距離が, 異常試料や異種試料間の対特徴距離よりも平均的に小さい可能性が示唆され, 互いに近接する2つの特徴対が等質な対である可能性が示唆された。
本研究は, 近接する近傍距離が信頼度の高いサンプルと異常を区別できることを示す最初の観測結果に基づいて, 反復的に再構成されたメモリバンクを用いた擬似ラベル方式を提案する。
論文 参考訳(メタデータ) (2024-11-25T05:51:38Z) - Fine-grained Abnormality Prompt Learning for Zero-shot Anomaly Detection [88.34095233600719]
FAPromptは、より正確なZSADのためにきめ細かい異常プロンプトを学習するために設計された新しいフレームワークである。
画像レベルおよび画素レベルのZSADタスクにおいて、最先端の手法を少なくとも3%-5%のAUC/APで大幅に上回っている。
論文 参考訳(メタデータ) (2024-10-14T08:41:31Z) - Anomaly Detection by Context Contrasting [57.695202846009714]
異常検出は、標準から逸脱するサンプルを特定することに焦点を当てる。
近年の自己教師型学習の進歩は、この点において大きな可能性を秘めている。
我々はコンテキスト拡張を通じて学習するCon$を提案する。
論文 参考訳(メタデータ) (2024-05-29T07:59:06Z) - CARLA: Self-supervised Contrastive Representation Learning for Time Series Anomaly Detection [53.83593870825628]
時系列異常検出(TSAD)の主な課題は、多くの実生活シナリオにおいてラベル付きデータの欠如である。
既存の異常検出手法の多くは、教師なしの方法で非ラベル時系列の正常な振る舞いを学習することに焦点を当てている。
本稿では,時系列異常検出のためのエンドツーエンドの自己教師型コントラアスティブ表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-18T04:45:56Z) - Prediction Error-based Classification for Class-Incremental Learning [39.91805363069707]
予測誤差に基づく分類(PEC)を導入する
PECは、そのクラスのデータに基づいて、凍結ランダムニューラルネットワークの出力を複製するために訓練されたモデルの予測誤差を測定して、クラススコアを算出する。
PECは、サンプル効率、チューニングの容易さ、データを一度に1つのクラスに提示しても有効性など、いくつかの実用的な利点を提供している。
論文 参考訳(メタデータ) (2023-05-30T07:43:35Z) - Time-series Anomaly Detection via Contextual Discriminative Contrastive
Learning [0.0]
一級分類法は、異常検出タスクに一般的に使用される。
本稿では,DeepSVDDの損失関数に着想を得た新しい手法を提案する。
我々は,我々のアプローチと,将来有望な自己教師型学習異常検出手法であるNeutral ADによる決定論的コントラスト損失を組み合わせた。
論文 参考訳(メタデータ) (2023-04-16T21:36:19Z) - Hierarchical Semi-Supervised Contrastive Learning for
Contamination-Resistant Anomaly Detection [81.07346419422605]
異常検出は、通常のデータ分布から逸脱したサンプルを特定することを目的としている。
コントラスト学習は、異常の効果的な識別を可能にする表現のサンプル化に成功している。
汚染耐性異常検出のための新しい階層型半教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-24T18:49:26Z) - Anomaly Transformer: Time Series Anomaly Detection with Association
Discrepancy [68.86835407617778]
Anomaly Transformerは、6つの教師なし時系列異常検出ベンチマークで最先端のパフォーマンスを達成する。
Anomaly Transformerは、6つの教師なし時系列異常検出ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-10-06T10:33:55Z) - Explainable Deep Few-shot Anomaly Detection with Deviation Networks [123.46611927225963]
本稿では,弱い教師付き異常検出フレームワークを導入し,検出モデルを訓練する。
提案手法は,ラベル付き異常と事前確率を活用することにより,識別正規性を学習する。
我々のモデルはサンプル効率が高く頑健であり、クローズドセットとオープンセットの両方の設定において最先端の競合手法よりもはるかに優れている。
論文 参考訳(メタデータ) (2021-08-01T14:33:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。