論文の概要: Deep Contrastive One-Class Time Series Anomaly Detection
- arxiv url: http://arxiv.org/abs/2207.01472v1
- Date: Mon, 4 Jul 2022 15:08:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-05 13:01:38.597411
- Title: Deep Contrastive One-Class Time Series Anomaly Detection
- Title(参考訳): 深部コントラスト1級時系列異常検出
- Authors: Rui Wang, Chongwei Liu, Xudong Mou, Xiaohui Guo, Kai Gao, Pin Liu,
Tianyu Wo, Xudong Liu
- Abstract要約: 本稿では,時系列の深部コントラスト型1クラス異常検出手法を提案する。
これは、対照的学習の正規性仮定と一級分類を組み合わせたものである。
4つの実世界の時系列データセットを用いて行った実験は,提案手法の優れた性能を示す。
- 参考スコア(独自算出の注目度): 15.27593816198766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The accumulation of time series data and the absence of labels make
time-series Anomaly Detection (AD) a self-supervised deep learning task.
Single-assumption-based methods may only touch on a certain aspect of the whole
normality, not sufficient to detect various anomalies. Among them, contrastive
learning methods adopted for AD always choose negative pairs that are both
normal to push away, which is objecting to AD tasks' purpose. Existing
multi-assumption-based methods are usually two-staged, firstly applying a
pre-training process whose target may differ from AD, so the performance is
limited by the pre-trained representations. This paper proposes a deep
Contrastive One-Class Anomaly detection method of time series (COCA), which
combines the normality assumptions of contrastive learning and one-class
classification. The key idea is to treat the representation and reconstructed
representation as the positive pair of negative-samples-free contrastive
learning, and we name it sequence contrast. Then we apply a contrastive
one-class loss function composed of invariance and variance terms, the former
optimizing loss of the two assumptions simultaneously, and the latter
preventing hypersphere collapse. Extensive experiments conducted on four
real-world time-series datasets show the superior performance of the proposed
method achieves state-of-the-art. The code is publicly available at
https://github.com/ruiking04/COCA.
- Abstract(参考訳): 時系列データの蓄積とラベルの欠如により、時系列異常検出(AD)は自己教師型ディープラーニングタスクとなる。
単一推定に基づく手法は、正常性の特定の側面にのみ触れることができ、様々な異常を検出するには不十分である。
その中でも、ADに採用されている対照的な学習手法は、ADタスクの目的に反する、押すのが普通である負のペアを常に選択する。
既存のマルチassumptionベースのメソッドは通常2段階であり、まずターゲットがadと異なる可能性のある事前トレーニングプロセスを適用する。
本稿では, 比較学習の正規性仮定と一クラス分類を組み合わせた, 時系列の深部コントラスト的一クラス異常検出手法を提案する。
重要なアイデアは、表現と再構成された表現を負のサンプルフリーなコントラスト学習の正のペアとして扱うことである。
次に、不変項と分散項からなる対照的な1クラス損失関数と、2つの仮定を同時に最適化する前者の損失、後者は超球崩壊を防ぐ。
4つの実世界の時系列データセットで行った大規模な実験により,提案手法の優れた性能が得られた。
コードはhttps://github.com/ruiking04/COCAで公開されている。
関連論文リスト
- FUN-AD: Fully Unsupervised Learning for Anomaly Detection with Noisy Training Data [1.0650780147044159]
ラベルなしおよび潜在的に汚染されたトレーニングデータを用いた完全教師なし異常検出のための新しい学習ベースアプローチを提案する。
本手法は, 2つの観測結果から, 正常試料間の対特徴距離が, 異常試料や異種試料間の対特徴距離よりも平均的に小さい可能性が示唆され, 互いに近接する2つの特徴対が等質な対である可能性が示唆された。
本研究は, 近接する近傍距離が信頼度の高いサンプルと異常を区別できることを示す最初の観測結果に基づいて, 反復的に再構成されたメモリバンクを用いた擬似ラベル方式を提案する。
論文 参考訳(メタデータ) (2024-11-25T05:51:38Z) - Fine-grained Abnormality Prompt Learning for Zero-shot Anomaly Detection [88.34095233600719]
FAPromptは、より正確なZSADのためにきめ細かい異常プロンプトを学習するために設計された新しいフレームワークである。
画像レベルおよび画素レベルのZSADタスクにおいて、最先端の手法を少なくとも3%-5%のAUC/APで大幅に上回っている。
論文 参考訳(メタデータ) (2024-10-14T08:41:31Z) - Anomaly Detection by Context Contrasting [57.695202846009714]
異常検出は、標準から逸脱するサンプルを特定することに焦点を当てる。
近年の自己教師型学習の進歩は、この点において大きな可能性を秘めている。
我々はコンテキスト拡張を通じて学習するCon$を提案する。
論文 参考訳(メタデータ) (2024-05-29T07:59:06Z) - CARLA: Self-supervised Contrastive Representation Learning for Time Series Anomaly Detection [53.83593870825628]
時系列異常検出(TSAD)の主な課題は、多くの実生活シナリオにおいてラベル付きデータの欠如である。
既存の異常検出手法の多くは、教師なしの方法で非ラベル時系列の正常な振る舞いを学習することに焦点を当てている。
本稿では,時系列異常検出のためのエンドツーエンドの自己教師型コントラアスティブ表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-18T04:45:56Z) - Prediction Error-based Classification for Class-Incremental Learning [39.91805363069707]
予測誤差に基づく分類(PEC)を導入する
PECは、そのクラスのデータに基づいて、凍結ランダムニューラルネットワークの出力を複製するために訓練されたモデルの予測誤差を測定して、クラススコアを算出する。
PECは、サンプル効率、チューニングの容易さ、データを一度に1つのクラスに提示しても有効性など、いくつかの実用的な利点を提供している。
論文 参考訳(メタデータ) (2023-05-30T07:43:35Z) - Time-series Anomaly Detection via Contextual Discriminative Contrastive
Learning [0.0]
一級分類法は、異常検出タスクに一般的に使用される。
本稿では,DeepSVDDの損失関数に着想を得た新しい手法を提案する。
我々は,我々のアプローチと,将来有望な自己教師型学習異常検出手法であるNeutral ADによる決定論的コントラスト損失を組み合わせた。
論文 参考訳(メタデータ) (2023-04-16T21:36:19Z) - Hierarchical Semi-Supervised Contrastive Learning for
Contamination-Resistant Anomaly Detection [81.07346419422605]
異常検出は、通常のデータ分布から逸脱したサンプルを特定することを目的としている。
コントラスト学習は、異常の効果的な識別を可能にする表現のサンプル化に成功している。
汚染耐性異常検出のための新しい階層型半教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-24T18:49:26Z) - Anomaly Transformer: Time Series Anomaly Detection with Association
Discrepancy [68.86835407617778]
Anomaly Transformerは、6つの教師なし時系列異常検出ベンチマークで最先端のパフォーマンスを達成する。
Anomaly Transformerは、6つの教師なし時系列異常検出ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-10-06T10:33:55Z) - Explainable Deep Few-shot Anomaly Detection with Deviation Networks [123.46611927225963]
本稿では,弱い教師付き異常検出フレームワークを導入し,検出モデルを訓練する。
提案手法は,ラベル付き異常と事前確率を活用することにより,識別正規性を学習する。
我々のモデルはサンプル効率が高く頑健であり、クローズドセットとオープンセットの両方の設定において最先端の競合手法よりもはるかに優れている。
論文 参考訳(メタデータ) (2021-08-01T14:33:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。