論文の概要: LARA: A Light and Anti-overfitting Retraining Approach for Unsupervised
Time Series Anomaly Detection
- arxiv url: http://arxiv.org/abs/2310.05668v4
- Date: Fri, 23 Feb 2024 05:58:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 17:56:49.416122
- Title: LARA: A Light and Anti-overfitting Retraining Approach for Unsupervised
Time Series Anomaly Detection
- Title(参考訳): lara: 教師なし時系列異常検出のための軽量・オーバーフィット再訓練手法
- Authors: Feiyi Chen, Zhen Qin, Yingying Zhang, Shuiguang Deng, Yi Xiao,
Guansong Pang and Qingsong Wen
- Abstract要約: 深部変分自動エンコーダに基づく時系列異常検出手法(VAE)のための光・反オーバーフィット学習手法(LARA)を提案する。
本研究の目的は,1) 再学習過程を凸問題として定式化し, 過度に収束できること,2) 履歴データを保存せずに活用するルミネートブロックを設計すること,3) 潜在ベクトルと再構成データの微調整を行うと, 線形形成が基底真実と微調整されたブロックとの誤りを最小に調整できることを数学的に証明することである。
- 参考スコア(独自算出の注目度): 49.52429991848581
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Most of current anomaly detection models assume that the normal pattern
remains same all the time. However, the normal patterns of Web services change
dramatically and frequently. The model trained on old-distribution data is
outdated after such changes. Retraining the whole model every time is
expensive. Besides, at the beginning of normal pattern changes, there is not
enough observation data from the new distribution. Retraining a large neural
network model with limited data is vulnerable to overfitting. Thus, we propose
a Light and Anti-overfitting Retraining Approach (LARA) for deep variational
auto-encoder based time series anomaly detection methods (VAEs). This work aims
to make three novel contributions: 1) the retraining process is formulated as a
convex problem and can converge at a fast rate as well as prevent overfitting;
2) designing a ruminate block, which leverages the historical data without the
need to store them; 3) mathematically proving that when fine-tuning the latent
vector and reconstructed data, the linear formations can achieve the least
adjusting errors between the ground truths and the fine-tuned ones.
Moreover, we have performed many experiments to verify that retraining LARA
with even 43 time slots of data from new distribution can result in its
competitive F1 Score in comparison with the state-of-the-art anomaly detection
models trained with sufficient data. Besides, we verify its light overhead.
- Abstract(参考訳): 現在の異常検出モデルのほとんどは、通常のパターンは常に同じであると仮定している。
しかし、Webサービスの通常のパターンは劇的に変化します。
古い分散データでトレーニングされたモデルは、そのような変更の後に時代遅れになる。
モデル全体を毎回トレーニングするのは高価です。
また、通常のパターン変化の開始時点では、新しい分布からの観測データが不十分である。
限られたデータで大規模なニューラルネットワークモデルをトレーニングすることは、オーバーフィッティングに弱い。
そこで本研究では,深部変分オートエンコーダに基づく時系列異常検出法 (vaes) のための軽量・過給再訓練法 (lara) を提案する。
この作品は3つの新しい貢献を目指しています
1) 再訓練プロセスは凸問題として定式化され, 高速で収束し, 過度な適合を防止することができる。
2) 履歴データを保存せずに活用するラミネートブロックの設計
3) 潜在ベクトルと再構成データの微調整を行う場合, 線形生成は基底真理と微調整データとの間の誤差を最小に抑えることができることを数学的に証明する。
さらに,新しい分布から43のタイムスロットを持つLARAの再学習が,その競合するF1スコアを,十分なデータで訓練された最先端の異常検出モデルと比較する上で有効であることを示すために,多くの実験を行った。
また、光のオーバーヘッドも確認する。
関連論文リスト
- Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - MAD: Self-Supervised Masked Anomaly Detection Task for Multivariate Time
Series [14.236092062538653]
Masked Anomaly Detection (MAD) は多変量時系列異常検出のための汎用的な自己教師型学習タスクである。
入力の一部をランダムにマスキングしてモデルをトレーニングすることで、MADは従来の左から右への次のステップ予測(NSP)タスクよりも改善される。
実験の結果,MADは従来のNSP法よりも優れた異常検出率が得られることが示された。
論文 参考訳(メタデータ) (2022-05-04T14:55:42Z) - Deep Generative model with Hierarchical Latent Factors for Time Series
Anomaly Detection [40.21502451136054]
本研究は、時系列異常検出のための新しい生成モデルであるDGHLを提示する。
トップダウンの畳み込みネットワークは、新しい階層的な潜在空間を時系列ウィンドウにマッピングし、時間ダイナミクスを利用して情報を効率的にエンコードする。
提案手法は,4つのベンチマーク・データセットにおいて,現在の最先端モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-02-15T17:19:44Z) - Monte Carlo EM for Deep Time Series Anomaly Detection [6.312089019297173]
時系列データは、しばしば外れ値や他の種類の異常によって破壊される。
異常検出と予測への最近のアプローチは、トレーニングデータの異常の割合が無視できるほど小さいと仮定している。
本稿では,既存の時系列モデルを拡張して,トレーニングデータの異常を明示的に考慮する手法を提案する。
論文 参考訳(メタデータ) (2021-12-29T07:52:36Z) - Deep Visual Anomaly detection with Negative Learning [18.79849041106952]
本稿では、異常検出の強化に負の学習概念を用いる、負の学習を伴う異常検出(ADNL)を提案する。
その考え方は、与えられた少数の異常例を用いて生成モデルの再構成能力を制限することである。
このようにして、ネットワークは通常のデータを再構築することを学ぶだけでなく、異常の可能性のある分布から遠く離れた正規分布を囲む。
論文 参考訳(メタデータ) (2021-05-24T01:48:44Z) - CutPaste: Self-Supervised Learning for Anomaly Detection and
Localization [59.719925639875036]
通常のトレーニングデータのみを用いて異常検知器を構築するためのフレームワークを提案する。
まず、自己教師付き深層表現を学習し、学習した表現の上に生成的1クラス分類器を構築する。
MVTec異常検出データセットに関する実証研究は,提案アルゴリズムが実世界の様々な欠陥を検出可能であることを実証している。
論文 参考訳(メタデータ) (2021-04-08T19:04:55Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - NVAE-GAN Based Approach for Unsupervised Time Series Anomaly Detection [19.726089445453734]
時系列異常検出は、多くの業界で一般的だが難しい課題である。
実世界から収集されたノイズデータから,時系列の異常を高精度に検出することは困難である。
我々は異常検出モデルを提案する:時系列から画像VAE (T2IVAE)
論文 参考訳(メタデータ) (2021-01-08T08:35:15Z) - Variational Bayesian Unlearning [54.26984662139516]
本研究では, ベイズモデルの学習を, 消去する訓練データの小さな部分集合から, ほぼ非学習する問題について検討する。
消去されたデータから完全に学習されていないデータと、過去の信念を完全に忘れていないデータとをトレードオフする証拠を最小化するのと等価であることを示す。
VI を用いたモデルトレーニングでは、完全なデータから近似した(正確には)後続の信念しか得られず、未学習をさらに困難にしている。
論文 参考訳(メタデータ) (2020-10-24T11:53:00Z) - TadGAN: Time Series Anomaly Detection Using Generative Adversarial
Networks [73.01104041298031]
TadGANは、GAN(Generative Adversarial Networks)上に構築された教師なしの異常検出手法である。
時系列の時間相関を捉えるために,ジェネレータと批評家のベースモデルとしてLSTMリカレントニューラルネットワークを用いる。
提案手法の性能と一般化性を示すため,いくつかの異常スコアリング手法を検証し,最も適した手法を報告する。
論文 参考訳(メタデータ) (2020-09-16T15:52:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。