論文の概要: Deep Contrastive One-Class Time Series Anomaly Detection
- arxiv url: http://arxiv.org/abs/2207.01472v3
- Date: Sun, 16 Apr 2023 08:57:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 00:34:26.281320
- Title: Deep Contrastive One-Class Time Series Anomaly Detection
- Title(参考訳): 深部コントラスト1級時系列異常検出
- Authors: Rui Wang, Chongwei Liu, Xudong Mou, Kai Gao, Xiaohui Guo, Pin Liu,
Tianyu Wo, Xudong Liu
- Abstract要約: 時系列の逆1クラス異常検出法(COCA)を著者らにより提案する。
元の表現と再構成された表現を、正対の負サンプルのないCL、すなわち「シーケンスコントラスト」として扱う。
- 参考スコア(独自算出の注目度): 15.27593816198766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The accumulation of time-series data and the absence of labels make
time-series Anomaly Detection (AD) a self-supervised deep learning task.
Single-normality-assumption-based methods, which reveal only a certain aspect
of the whole normality, are incapable of tasks involved with a large number of
anomalies. Specifically, Contrastive Learning (CL) methods distance negative
pairs, many of which consist of both normal samples, thus reducing the AD
performance. Existing multi-normality-assumption-based methods are usually
two-staged, firstly pre-training through certain tasks whose target may differ
from AD, limiting their performance. To overcome the shortcomings, a deep
Contrastive One-Class Anomaly detection method of time series (COCA) is
proposed by authors, following the normality assumptions of CL and one-class
classification. It treats the original and reconstructed representations as the
positive pair of negative-sample-free CL, namely "sequence contrast". Next,
invariance terms and variance terms compose a contrastive one-class loss
function in which the loss of the assumptions is optimized by invariance terms
simultaneously and the "hypersphere collapse" is prevented by variance terms.
In addition, extensive experiments on two real-world time-series datasets show
the superior performance of the proposed method achieves state-of-the-art.
- Abstract(参考訳): 時系列データの蓄積とラベルの欠如により、時系列異常検出(AD)は自己教師型ディープラーニングタスクとなる。
正規性の特定の側面のみを明らかにする単一正規性推定法は、多数の異常を伴うタスクが不可能である。
特に、Contrastive Learning (CL) は2つのサンプルからなる負のペア間距離を計算し、AD性能を低下させる。
既存の多正規性推定に基づく手法は通常2段階であり、まずADと異なるタスクを事前訓練し、性能を制限している。
この欠点を克服するために、CLと1クラス分類の正規性仮定に従って、COCA(Contrastive One-class Anomaly Detection of Time Series)の深層コントラスト検出法を提案する。
元の表現と再構成された表現を、正の正の負サンプルのないCL、すなわち「シーケンスコントラスト」として扱う。
次に、不変項と分散項は、仮定の損失を同時に不変項によって最適化し、分散項によって「超球崩壊」が防止される対照的な一級損失関数を構成する。
さらに,2つの実世界の時系列データセットに対する広範な実験により,提案手法の優れた性能が得られた。
関連論文リスト
- Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Open-Set Multivariate Time-Series Anomaly Detection [8.010966370223985]
本論文は,TSAD問題に対する新しいアプローチを提供するための最初の試みである。
限られた種類の異常からラベル付きされた少数の異常がトレーニングフェーズで見え、テストフェーズで見えるクラスと見えないクラスの両方を検出することを目的としている。
3つの実世界のデータセットに対する大規模な実験は、我々のアプローチが様々な実験環境下で既存の手法を超えることを一貫して示している。
論文 参考訳(メタデータ) (2023-10-18T19:55:11Z) - CARLA: Self-supervised Contrastive Representation Learning for Time
Series Anomaly Detection [57.75766902905591]
時系列異常検出(TAD)の主な課題は、多くの実生活シナリオにおいてラベル付きデータの欠如である。
既存の異常検出手法の多くは、教師なしの方法で非ラベル時系列の正常な振る舞いを学習することに焦点を当てている。
本稿では,時系列異常検出のためのエンドツーエンドの自己教師型コントラアスティブ表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-18T04:45:56Z) - Prediction Error-based Classification for Class-Incremental Learning [39.91805363069707]
予測誤差に基づく分類(PEC)を導入する
PECは、そのクラスのデータに基づいて、凍結ランダムニューラルネットワークの出力を複製するために訓練されたモデルの予測誤差を測定して、クラススコアを算出する。
PECは、サンプル効率、チューニングの容易さ、データを一度に1つのクラスに提示しても有効性など、いくつかの実用的な利点を提供している。
論文 参考訳(メタデータ) (2023-05-30T07:43:35Z) - Time-series Anomaly Detection via Contextual Discriminative Contrastive
Learning [0.0]
一級分類法は、異常検出タスクに一般的に使用される。
本稿では,DeepSVDDの損失関数に着想を得た新しい手法を提案する。
我々は,我々のアプローチと,将来有望な自己教師型学習異常検出手法であるNeutral ADによる決定論的コントラスト損失を組み合わせた。
論文 参考訳(メタデータ) (2023-04-16T21:36:19Z) - Hierarchical Semi-Supervised Contrastive Learning for
Contamination-Resistant Anomaly Detection [81.07346419422605]
異常検出は、通常のデータ分布から逸脱したサンプルを特定することを目的としている。
コントラスト学習は、異常の効果的な識別を可能にする表現のサンプル化に成功している。
汚染耐性異常検出のための新しい階層型半教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-24T18:49:26Z) - Fine-grained Temporal Contrastive Learning for Weakly-supervised
Temporal Action Localization [87.47977407022492]
本稿では,シーケンス・ツー・シーケンスの区別を文脈的に比較することで学習が,弱い教師付き行動の局所化に不可欠な帰納的バイアスをもたらすことを論じる。
微分可能な動的プログラミングの定式化の下では、FSD(Fen-fine Sequence Distance)とLCS(Longest Common Subsequence)の2つの相補的コントラストが設計されている。
提案手法は,2つのベンチマークにおいて最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-03-31T05:13:50Z) - Anomaly Transformer: Time Series Anomaly Detection with Association
Discrepancy [68.86835407617778]
Anomaly Transformerは、6つの教師なし時系列異常検出ベンチマークで最先端のパフォーマンスを達成する。
Anomaly Transformerは、6つの教師なし時系列異常検出ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-10-06T10:33:55Z) - Explainable Deep Few-shot Anomaly Detection with Deviation Networks [123.46611927225963]
本稿では,弱い教師付き異常検出フレームワークを導入し,検出モデルを訓練する。
提案手法は,ラベル付き異常と事前確率を活用することにより,識別正規性を学習する。
我々のモデルはサンプル効率が高く頑健であり、クローズドセットとオープンセットの両方の設定において最先端の競合手法よりもはるかに優れている。
論文 参考訳(メタデータ) (2021-08-01T14:33:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。