論文の概要: Deep Contrastive One-Class Time Series Anomaly Detection
- arxiv url: http://arxiv.org/abs/2207.01472v1
- Date: Mon, 4 Jul 2022 15:08:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-05 13:01:38.597411
- Title: Deep Contrastive One-Class Time Series Anomaly Detection
- Title(参考訳): 深部コントラスト1級時系列異常検出
- Authors: Rui Wang, Chongwei Liu, Xudong Mou, Xiaohui Guo, Kai Gao, Pin Liu,
Tianyu Wo, Xudong Liu
- Abstract要約: 本稿では,時系列の深部コントラスト型1クラス異常検出手法を提案する。
これは、対照的学習の正規性仮定と一級分類を組み合わせたものである。
4つの実世界の時系列データセットを用いて行った実験は,提案手法の優れた性能を示す。
- 参考スコア(独自算出の注目度): 15.27593816198766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The accumulation of time series data and the absence of labels make
time-series Anomaly Detection (AD) a self-supervised deep learning task.
Single-assumption-based methods may only touch on a certain aspect of the whole
normality, not sufficient to detect various anomalies. Among them, contrastive
learning methods adopted for AD always choose negative pairs that are both
normal to push away, which is objecting to AD tasks' purpose. Existing
multi-assumption-based methods are usually two-staged, firstly applying a
pre-training process whose target may differ from AD, so the performance is
limited by the pre-trained representations. This paper proposes a deep
Contrastive One-Class Anomaly detection method of time series (COCA), which
combines the normality assumptions of contrastive learning and one-class
classification. The key idea is to treat the representation and reconstructed
representation as the positive pair of negative-samples-free contrastive
learning, and we name it sequence contrast. Then we apply a contrastive
one-class loss function composed of invariance and variance terms, the former
optimizing loss of the two assumptions simultaneously, and the latter
preventing hypersphere collapse. Extensive experiments conducted on four
real-world time-series datasets show the superior performance of the proposed
method achieves state-of-the-art. The code is publicly available at
https://github.com/ruiking04/COCA.
- Abstract(参考訳): 時系列データの蓄積とラベルの欠如により、時系列異常検出(AD)は自己教師型ディープラーニングタスクとなる。
単一推定に基づく手法は、正常性の特定の側面にのみ触れることができ、様々な異常を検出するには不十分である。
その中でも、ADに採用されている対照的な学習手法は、ADタスクの目的に反する、押すのが普通である負のペアを常に選択する。
既存のマルチassumptionベースのメソッドは通常2段階であり、まずターゲットがadと異なる可能性のある事前トレーニングプロセスを適用する。
本稿では, 比較学習の正規性仮定と一クラス分類を組み合わせた, 時系列の深部コントラスト的一クラス異常検出手法を提案する。
重要なアイデアは、表現と再構成された表現を負のサンプルフリーなコントラスト学習の正のペアとして扱うことである。
次に、不変項と分散項からなる対照的な1クラス損失関数と、2つの仮定を同時に最適化する前者の損失、後者は超球崩壊を防ぐ。
4つの実世界の時系列データセットで行った大規模な実験により,提案手法の優れた性能が得られた。
コードはhttps://github.com/ruiking04/COCAで公開されている。
関連論文リスト
- Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Open-Set Multivariate Time-Series Anomaly Detection [8.010966370223985]
本論文は,TSAD問題に対する新しいアプローチを提供するための最初の試みである。
限られた種類の異常からラベル付きされた少数の異常がトレーニングフェーズで見え、テストフェーズで見えるクラスと見えないクラスの両方を検出することを目的としている。
3つの実世界のデータセットに対する大規模な実験は、我々のアプローチが様々な実験環境下で既存の手法を超えることを一貫して示している。
論文 参考訳(メタデータ) (2023-10-18T19:55:11Z) - CARLA: Self-supervised Contrastive Representation Learning for Time
Series Anomaly Detection [57.75766902905591]
時系列異常検出(TAD)の主な課題は、多くの実生活シナリオにおいてラベル付きデータの欠如である。
既存の異常検出手法の多くは、教師なしの方法で非ラベル時系列の正常な振る舞いを学習することに焦点を当てている。
本稿では,時系列異常検出のためのエンドツーエンドの自己教師型コントラアスティブ表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-18T04:45:56Z) - Prediction Error-based Classification for Class-Incremental Learning [39.91805363069707]
予測誤差に基づく分類(PEC)を導入する
PECは、そのクラスのデータに基づいて、凍結ランダムニューラルネットワークの出力を複製するために訓練されたモデルの予測誤差を測定して、クラススコアを算出する。
PECは、サンプル効率、チューニングの容易さ、データを一度に1つのクラスに提示しても有効性など、いくつかの実用的な利点を提供している。
論文 参考訳(メタデータ) (2023-05-30T07:43:35Z) - Time-series Anomaly Detection via Contextual Discriminative Contrastive
Learning [0.0]
一級分類法は、異常検出タスクに一般的に使用される。
本稿では,DeepSVDDの損失関数に着想を得た新しい手法を提案する。
我々は,我々のアプローチと,将来有望な自己教師型学習異常検出手法であるNeutral ADによる決定論的コントラスト損失を組み合わせた。
論文 参考訳(メタデータ) (2023-04-16T21:36:19Z) - Hierarchical Semi-Supervised Contrastive Learning for
Contamination-Resistant Anomaly Detection [81.07346419422605]
異常検出は、通常のデータ分布から逸脱したサンプルを特定することを目的としている。
コントラスト学習は、異常の効果的な識別を可能にする表現のサンプル化に成功している。
汚染耐性異常検出のための新しい階層型半教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-24T18:49:26Z) - Fine-grained Temporal Contrastive Learning for Weakly-supervised
Temporal Action Localization [87.47977407022492]
本稿では,シーケンス・ツー・シーケンスの区別を文脈的に比較することで学習が,弱い教師付き行動の局所化に不可欠な帰納的バイアスをもたらすことを論じる。
微分可能な動的プログラミングの定式化の下では、FSD(Fen-fine Sequence Distance)とLCS(Longest Common Subsequence)の2つの相補的コントラストが設計されている。
提案手法は,2つのベンチマークにおいて最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-03-31T05:13:50Z) - Anomaly Transformer: Time Series Anomaly Detection with Association
Discrepancy [68.86835407617778]
Anomaly Transformerは、6つの教師なし時系列異常検出ベンチマークで最先端のパフォーマンスを達成する。
Anomaly Transformerは、6つの教師なし時系列異常検出ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-10-06T10:33:55Z) - Explainable Deep Few-shot Anomaly Detection with Deviation Networks [123.46611927225963]
本稿では,弱い教師付き異常検出フレームワークを導入し,検出モデルを訓練する。
提案手法は,ラベル付き異常と事前確率を活用することにより,識別正規性を学習する。
我々のモデルはサンプル効率が高く頑健であり、クローズドセットとオープンセットの両方の設定において最先端の競合手法よりもはるかに優れている。
論文 参考訳(メタデータ) (2021-08-01T14:33:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。