論文の概要: Detecting Anomalies within Time Series using Local Neural
Transformations
- arxiv url: http://arxiv.org/abs/2202.03944v1
- Date: Tue, 8 Feb 2022 15:51:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 14:13:09.903363
- Title: Detecting Anomalies within Time Series using Local Neural
Transformations
- Title(参考訳): 局所ニューラルトランスフォーメーションを用いた時系列内異常の検出
- Authors: Tim Schneider, Chen Qiu, Marius Kloft, Decky Aspandi Latif, Steffen
Staab, Stephan Mandt, Maja Rudolph
- Abstract要約: 局所ニューラルトランスフォーメーション(Local Neural Transformations, LNT)は、データから時系列の局所変換を学ぶ方法である。
LNTは各タイムステップ毎に異常スコアを生成し、したがって時系列内の異常を検出するために使用できる。
我々の実験は,LNTがLibriSpeechデータセットから音声セグメントの異常を見つけ,サイバー物理システムへの割り込みを従来よりもより正確に検出できることを実証した。
- 参考スコア(独自算出の注目度): 30.668488830909936
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop a new method to detect anomalies within time series, which is
essential in many application domains, reaching from self-driving cars,
finance, and marketing to medical diagnosis and epidemiology. The method is
based on self-supervised deep learning that has played a key role in
facilitating deep anomaly detection on images, where powerful image
transformations are available. However, such transformations are widely
unavailable for time series. Addressing this, we develop Local Neural
Transformations(LNT), a method learning local transformations of time series
from data. The method produces an anomaly score for each time step and thus can
be used to detect anomalies within time series. We prove in a theoretical
analysis that our novel training objective is more suitable for transformation
learning than previous deep Anomaly detection(AD) methods. Our experiments
demonstrate that LNT can find anomalies in speech segments from the LibriSpeech
data set and better detect interruptions to cyber-physical systems than
previous work. Visualization of the learned transformations gives insight into
the type of transformations that LNT learns.
- Abstract(参考訳): 我々は,自動車,金融,マーケティングから医療診断,疫学に至るまで,多くのアプリケーション領域において不可欠な時系列内の異常を検出する新しい手法を開発した。
この手法は、強力な画像変換が可能な画像の深い異常検出を促進する上で重要な役割を果たした自己教師型ディープラーニングに基づいている。
しかし、このような変換は時系列では広く利用できない。
そこで我々は,データから時系列の局所変換を学習する手法であるLocal Neural Transformations(LNT)を開発した。
本手法は,各時間ステップ毎に異常スコアを生成し,時系列内の異常を検出する。
従来の深部異常検出(ad)法よりも,新しい学習目標が変換学習に適していることが理論的に証明された。
我々の実験は,LNTがLibriSpeechデータセットから音声セグメントの異常を見つけ,サイバー物理システムへの割り込みを従来よりもより正確に検出できることを実証した。
学習した変換の可視化は、LNTが学習する変換のタイプに関する洞察を与える。
関連論文リスト
- State-Space Modeling in Long Sequence Processing: A Survey on Recurrence in the Transformer Era [59.279784235147254]
このサーベイは、シーケンシャルなデータ処理の反復モデルに基づく最新のアプローチの詳細な概要を提供する。
新たなイメージは、標準のバックプロパゲーション・オブ・タイムから外れた学習アルゴリズムによって構成される、新しいルートを考える余地があることを示唆している。
論文 参考訳(メタデータ) (2024-06-13T12:51:22Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Graph Spatiotemporal Process for Multivariate Time Series Anomaly
Detection with Missing Values [67.76168547245237]
本稿では,グラフ時間過程と異常スコアラを用いて異常を検出するGST-Proという新しいフレームワークを提案する。
実験結果から,GST-Pro法は時系列データ中の異常を効果的に検出し,最先端の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-11T10:10:16Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Do Deep Neural Networks Contribute to Multivariate Time Series Anomaly
Detection? [12.419938668514042]
従来の機械学習とディープニューラルネットワークを用いた16種類の異常検出性能について検討した。
16の手法のそれぞれの性能を解析・比較することにより,他の手法よりも優れた手法群が存在しないことを示す。
論文 参考訳(メタデータ) (2022-04-04T16:32:49Z) - Time-Series Anomaly Detection with Implicit Neural Representation [0.38073142980733]
Inlicit Neural Representation-based Anomaly Detection (INRAD)を提案する。
入力に時間がかかり、その時点で対応する値を出力する単純な多層パーセプトロンを訓練する。
そして,その表現誤りを異常検出のための異常スコアとして利用する。
論文 参考訳(メタデータ) (2022-01-28T06:17:24Z) - Neural Contextual Anomaly Detection for Time Series [7.523820334642732]
本稿では,時系列における異常検出のためのフレームワークであるNeural Contextual Anomaly Detection (NCAD)を紹介する。
NCADは教師なし設定から教師なし設定までシームレスにスケールする。
我々は,提案手法が最先端の性能を得るための標準ベンチマークデータセットを実証的に実証した。
論文 参考訳(メタデータ) (2021-07-16T04:33:53Z) - Neural Transformation Learning for Deep Anomaly Detection Beyond Images [24.451389236365152]
学習可能な変換を伴う異常検出のための単純なエンドツーエンドの手順を提示する。
重要なアイデアは、変換されたデータを意味空間に埋め込むことで、変換されたデータは、まだ変換されていない形式に似ています。
この手法はドメイン固有の変換を学習し、以前の作業よりも正確に異常を検出する。
論文 参考訳(メタデータ) (2021-03-30T15:38:18Z) - Self-Supervised Out-of-Distribution Detection in Brain CT Scans [46.78055929759839]
本稿では,異常検出のための自己教師付き学習手法を提案する。
私たちのアーキテクチャは、主に、1)再構成と2)幾何学的変換を予測する2つの部分で構成されています。
試験時間において、幾何変換予測器は、幾何変換と予測との誤差を計算することにより、異常スコアを割り当てることができる。
論文 参考訳(メタデータ) (2020-11-10T22:21:48Z) - TadGAN: Time Series Anomaly Detection Using Generative Adversarial
Networks [73.01104041298031]
TadGANは、GAN(Generative Adversarial Networks)上に構築された教師なしの異常検出手法である。
時系列の時間相関を捉えるために,ジェネレータと批評家のベースモデルとしてLSTMリカレントニューラルネットワークを用いる。
提案手法の性能と一般化性を示すため,いくつかの異常スコアリング手法を検証し,最も適した手法を報告する。
論文 参考訳(メタデータ) (2020-09-16T15:52:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。