論文の概要、ライセンス

# (参考訳) Smoothness-Induction Sequential Variational Auto-Encoderによる時系列異常検出 [全文訳有]

Anomaly Detection of Time Series with Smoothness-Inducing Sequential Variational Auto-Encoder ( http://arxiv.org/abs/2102.01331v1 )

ライセンス: CC BY 4.0
Longyuan Li, Junchi Yan, Haiyang Wang, and Yaohui Jin(参考訳) ディープジェネレーションモデルは、潜在表現の学習と時系列の複雑な依存性のモデリングにおけるその効果を実証している。 本稿では,多次元時系列のロバストな推定と異常検出のためのスムースネス誘導逐次変分自動エンコーダ(SISVAE)モデルを提案する。 我々のモデルは変分オートエンコーダ(VAE)に基づいており、そのバックボーンはリカレントニューラルネットワークによって実行され、生成モデルと推論モデルの両方において時系列の潜時構造をキャプチャする。 具体的には,各タイムスタンプの平均と分散をフレキシブルニューラルネットワークでパラメータ化することで,既存のマルコフモデルで一般的である一定ノイズを仮定せずに動作可能な非定常モデルを実現する。 しかし、そのような柔軟性はモデルに異常を生じさせる可能性がある。 また,検出作業の便益となるロバストな密度推定を実現するため,推定よりもスムーズな事前推定法を提案する。 提案された先行作業は、非平滑な再構築でペナルティを課す正規化として機能する。 本モデルは,新しい確率勾配変動ベイズ推定器を用いて効率よく学習する。 特に, 異常検出の判定基準として, 再構成確率と再構成誤差の2つを検討した。 合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。

Deep generative models have demonstrated their effectiveness in learning latent representation and modeling complex dependencies of time series. In this paper, we present a Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) model for robust estimation and anomaly detection of multi-dimensional time series. Our model is based on Variational Auto-Encoder (VAE), and its backbone is fulfilled by a Recurrent Neural Network to capture latent temporal structures of time series for both generative model and inference model. Specifically, our model parameterizes mean and variance for each time-stamp with flexible neural networks, resulting in a non-stationary model that can work without the assumption of constant noise as commonly made by existing Markov models. However, such a flexibility may cause the model fragile to anomalies. To achieve robust density estimation which can also benefit detection tasks, we propose a smoothness-inducing prior over possible estimations. The proposed prior works as a regularizer that places penalty at non-smooth reconstructions. Our model is learned efficiently with a novel stochastic gradient variational Bayes estimator. In particular, we study two decision criteria for anomaly detection: reconstruction probability and reconstruction error. We show the effectiveness of our model on both synthetic datasets and public real-world benchmarks.
公開日: Tue, 2 Feb 2021 06:15:15 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. JOURNAL OF LATEX CLASS FILES, VOL。 0.78
14, NO. 8, AUGUST 2018 14、いいえ。 8 AUGUST 2018 0.66
1 Anomaly Detection of Time Series with 1 時系列の異常検出 0.70
Smoothness-Inducing Sequential Variational Smoothness-Inducing Sequential Variational 0.78
Auto-Encoder Longyuan Li, Junchi Yan, Member, IEEE,, Haiyang Wang, and Yaohui Jin Member, IEEE, オートエンコーダ Longyuan Li, Junchi Yan, Member, IEEE, Haiyang Wang, Yaohui Jin Member, IEEE 0.68
1 2 0 2 b e F 2 1 2 0 2 b e F 2 0.85
] G L . ] G L。 0.79
s c [ 1 v 1 3 3 1 0 sc [ 1 v 1 3 3 1 0 0.68
. 2 0 1 2 : v i X r a . 2 0 1 2 : v i X r a 0.85
Abstract—Deep generative models have demonstrated their effectiveness in learning latent representation and modeling complex dependencies of time series. 概要-ディープジェネレーションモデルは、潜在表現の学習と時系列の複雑な依存性のモデリングにおけるその効果を実証している。
訳抜け防止モード: 抽象 — 深層生成モデルは、その効果を実証した 潜在表現の学習と時系列の複雑な依存関係のモデリング。
0.68
In this paper, we present a Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) model for robust estimation and anomaly detection of multi-dimensional time series. 本稿では,多次元時系列のロバストな推定と異常検出のためのスムースネス誘導逐次変分自動エンコーダ(SISVAE)モデルを提案する。 0.82
Our model is based on Variational Auto-Encoder (VAE), and its backbone is fulfilled by a Recurrent Neural Network to capture latent temporal structures of time series for both generative model and inference model. 我々のモデルは変分オートエンコーダ(VAE)に基づいており、そのバックボーンはリカレントニューラルネットワークによって実行され、生成モデルと推論モデルの両方において時系列の潜時構造をキャプチャする。
訳抜け防止モード: 我々のモデルは変分オートエンコーダ(VAE)に基づいている。 バックボーンはリカレントニューラルネットワークによって実現されます 時系列の潜在時間構造を 生成モデルと推論モデルの両方で捉えます
0.84
Specifically, our model parameterizes mean and variance for each timestamp with flexible neural networks, resulting in a non-stationary model that can work without the assumption of constant noise as commonly made by existing Markov models. 具体的には、フレキシブルニューラルネットワークを用いて、各タイムスタンプの平均と分散をパラメータ化することにより、既存のマルコフモデルのように定常ノイズを仮定せずに動作可能な非定常モデルを実現する。 0.73
However, such a flexibility may cause the model fragile to anomalies. しかし、そのような柔軟性はモデルに異常を生じさせる可能性がある。 0.62
To achieve robust density estimation which can also benefit detection tasks, we propose a smoothness-inducing prior over possible estimations. また,検出作業の便益となるロバストな密度推定を実現するため,推定よりもスムーズな事前推定法を提案する。 0.65
The proposed prior works as a regularizer that places penalty at non-smooth reconstructions. 提案された先行作業は、非平滑な再構築でペナルティを課す正規化として機能する。 0.50
Our model is learned efficiently with a novel stochastic gradient variational Bayes estimator. 本モデルは,新しい確率勾配変動ベイズ推定器を用いて効率よく学習する。 0.68
In particular, we study two decision criteria for anomaly detection: reconstruction probability and reconstruction error. 特に, 異常検出の判定基準として, 再構成確率と再構成誤差の2つを検討した。 0.67
We show the effectiveness of our model on both synthetic datasets and public real-world benchmarks. 合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。 0.62
Index Terms—Anomaly Detection, Time Series, Deep Generative Model, Variational Auto-Encoder, Recurrent Neural Network Anomaly Detection, Time Series, Deep Generative Model, Variational Auto-Encoder, Recurrent Neural Network 0.85
I. INTRODUCTION Time series anomaly detection is an important and challenging problem, and it has been studied over decades across wide application domains, including intelligence transportation [1], health care [2], KPI monitoring [3], web intrusion detection [4], environmental monitoring [5], and fault diagnosis [6], malware detection [7] etc. 私。 導入 時系列異常検出は重要かつ困難な問題であり、インテリジェンス輸送[1]、ヘルスケア[2]、KPI監視[3]、Web侵入検出[4]、環境監視[5]、故障診断[6]、マルウェア検出[7]など、幅広いアプリケーション領域にわたって研究されています。
訳抜け防止モード: 私。 導入 時系列異常検出は重要かつ困難な問題である。 広範囲のアプリケーション領域で何十年も研究されてきました 情報輸送[1] 医療[2] KPIモニタリング [3 ], Web 侵入検出 [4 ] 環境モニタリング [5] と障害診断 [6] マルウェア検出[7]など。
0.63
Such a broad application is also reflected in the diversity of formulations and models to time series anomaly detection. このような広い応用は、時系列異常検出への定式化およびモデルの多様性にも反映される。 0.78
In contrast to anomaly detection on static data, one widely accepted idea is that the temporal continuity plays a key role in all formulations, and unusual changes in the time series data are detected and used to model anomalies. 静的データにおける異常検出とは対照的に、時間的連続性が全ての定式化において重要な役割を担い、時系列データの異常な変化を検出して異常をモデル化するという考えが広く受け入れられている。 0.75
For multi-dimensional correlated time series data, the correlations make the problem further complex, which highlights the need for robust and flexible models. 多次元相関時系列データの場合、相関関係は問題をさらに複雑にし、堅牢で柔軟なモデルの必要性を強調します。 0.76
L.Li, H.Wang and Y. Jin are with State Key Lab of Advanced Optical Communication System and Network, and MoE Key Lab of Artificial Intelligence, AI Institute, Shanghai Jiao Tong University, Shanghai, 200240, P.R. L.Li, H.Wang, Y. Jin は、高度な光通信システムとネットワークの State Key Lab と、MoE Key Lab of Artificial Intelligence, AI Institute, Shanghai Jiao Tong University, Shanghai, 200240, P.R と共にいる。 0.86
China. J. Yan is with Department of Computer Science and Engineering, and MoE Key Lab of Artificial Intelligence, AI Institute, Shanghai Jiao Tong University, Shanghai, 200240, P.R. 中国。 J. Yan は、上海・江東大学人工知能研究所、MoE Key Lab of Artificial Intelligence, Shanghai Jiao Tong University, Shanghai, 200240, P.R のコンピュータサイエンス・エンジニアリング部門に所属している。 0.76
China. Email: {jeffli, yanjunchi, 0103050180, jinyh}@sjtu.edu.cn Junchi Yan and Yaohui Jin are the corresponding authors. 中国。 メール:{jeffli, yanjunchi, 0103050180, jinyh}@sjtu.edu.cn Junchi Yan, Yaohui Jinが対応する著者です。 0.79
Consider a matrix X ∈ RM×T for a time series corpus that consists of M correlated streams with T time steps for each stream. m の相関ストリームと各ストリームの t の時間ステップからなる時系列コーパスに対して行列 x ∈ rm×t を考える。 0.75
On one hand, there are generally three scenarios of time series anomaly detection depending on the availability of training data and anomaly labels: supervised, semi-supervised and unsupervised [8]. 一方で、トレーニングデータと異常ラベルの可用性に応じて、時系列異常検出のシナリオは3つある:教師なし、半教師なし、教師なし [8]。
訳抜け防止モード: 一方で、トレーニングデータの可用性に応じて、時系列異常検出のシナリオは一般的に3つある。 そして、異常ラベル(supervised, semi--supervised and unsupervised [8])。
0.74
Anomaly detection tasks without clean1 data or anomaly labels also referred to as unsupervised detection. クリーン1データや異常ラベルのない異常検出タスクは、教師なし検出とも呼ばれる。 0.69
Unsupervised methods have their advantages that no anomaly labels is needed, which is cost-saving, and they can enjoy better flexibility when the anomaly pattern drifts over time. 監視されていないメソッドには、コスト節約である異常ラベルを必要としないという利点があり、異常パターンが時間の経過とともに漂うと、柔軟性が向上します。 0.57
On the other hand, time series anomaly detection can be in general divided into two settings: i) subsequence or whole sequence level anomaly whereby a subsequence xm,t1:t2 is labeled as an anomaly; ii) point level anomaly for which a measurement xm,t at time t in sequence m is treated as an anomaly. 一方、時系列異常検出は、一般に2つの設定に分けることができる:i)サブシーケンスxm,t1:t2が異常としてラベル付けされるサブシーケンスまたは全シーケンスレベルの異常;ii)シーケンスmにおける時間tにおける測定xm,tが異常として扱われる点レベルの異常。 0.87
The former scenario is usually more challenging than the latter. 前者のシナリオは通常後者よりも挑戦的です。 0.76
For more comprehensive surveys, readers are referred to [9], [10], [11]. より包括的な調査では、読者は[9]、[10]、[11]を参照しています。 0.78
Technique and methodology to address the above two settings are rather different, and we focus on the popular pointwise anomaly detection for multi-dimensional time series in this paper, which has received wide attention in literature [12], [13], [5]. 上記の2つの設定に対処する手法と手法は異なっており,本論文では,文学[12],[13],[5]で広く注目を集めている多次元時系列の点方向異常検出に注目する。 0.79
In some cases, sequence or subsequence level anomaly detection can be generalized from point level model. 場合によっては、点レベルモデルからシーケンスまたはサブシーケンスレベルの異常検出を一般化することができる。 0.72
In addition, many practical applications require point level detection results as abnormal signal can quickly disappear in the time series especially when the sampling rate is low. また, サンプリング率が低い場合, 異常信号が時系列で急速に消失する可能性があるため, 実用的応用には点レベル検出結果が必要である。 0.77
We leave it for future work for generalizing our model to more macro-level anomaly detection tasks. モデルをマクロレベルの異常検出タスクに一般化するための今後の作業に任せます。 0.70
On the other hand, as a lack of labeled anomalies necessitates the use of unsupervised approaches, we focus on unsupervised detection model for its practical applicability. 一方,ラベル付き異常の欠如は教師なし手法の利用を必要とするため,教師なし検出モデルの適用性に注目する。 0.60
This also aligns with the rising trend of adopting unsupervised learning algorithms for anomaly detection such as one-class SVM [14], GMM [15], tDCGAN [7], VAE [3], and VRNN [16]. また,一級SVM [14], GMM [15], tDCGAN [7], VAE [3], VRNN [16]などの異常検出に教師なし学習アルゴリズムを採用する傾向が強まっている。
訳抜け防止モード: これはまた、1-class SVM [14 ]のような異常検出に教師なし学習アルゴリズムを採用する傾向の高まりとも一致している。 GMM [ 15 ], tDCGAN [ 7 ], VAE [ 3 ] そして、VRNN [16]。
0.84
Different from general time series modeling aiming to fit with the data curve, anomaly detection often need to recover ‘normal’ patterns robustly in the presence of anomalies. データ曲線に適合することを目的とした一般的な時系列モデリングとは異なり、異常検出はしばしば異常の存在下で「正常」パターンを堅牢に回復する必要がある。 0.74
This is challenging since the model is optimized to fit all data points. モデルはすべてのデータポイントに合わせて最適化されているため、これは困難です。 0.65
Previous works [17], [18] show that inductive bias is crucial for generalization when learning deep generative models. 前作 [17], [18] は、深い生成モデルを学ぶ場合、帰納バイアスが一般化に重要であることを示している。
訳抜け防止モード: 前回の作品[17], [18]は 帰納的バイアスは深層生成モデルを学ぶときに一般化に不可欠である。
0.74
Motivated by previous works, we seek to take a Bayesian approach. 過去の作品に触発され、ベイズ的アプローチを追求する。 0.54
Specifically, we devise a temporal smoothness prior which can be coherently incorporated in the Sequential 具体的には、Sequentialにコヒーレントに組み込むことができる時間的平滑性を事前に考案する。 0.63
1We use ‘clean’ to describe time series data contain only normal patterns 1 通常のパターンのみを含む時系列データを記述するのに 'clean' を使う 0.74
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. JOURNAL OF LATEX CLASS FILES, VOL。 0.78
14, NO. 8, AUGUST 2018 14、いいえ。 8 AUGUST 2018 0.66
2 Variational Auto-Encoder learning procedure, under the wellestablished probabilistic framework. 2 確立された確率的枠組みの下での変分自動エンコーダ学習手順。 0.73
As such, the learning of latent space can be more focused on the ‘normal’ pattern rather than blindly minimizing the reconstruction error between the raw signal and the generated one by the latent variables. このように、潜在空間の学習は、潜在変数によって生信号と生成された信号の間の再構成誤差を盲目的に最小化するのではなく、‘通常の’パターンに焦点を合わせることができる。 0.63
Based on the learned generation model, the anomalies can be detected via a certain criterion by comparison of the reconstructed signal and the raw data point. 学習した生成モデルに基づいて、再構成信号と生データ点との比較により、一定の基準により異常を検出することができる。 0.78
II. RELATED WORK This paper is devoted to unsupervised point level anomaly detection for multi-dimensional time series. II。 関連作業 本稿では,多次元時系列に対する教師なし点レベルの異常検出に着目する。 0.68
We review mostly related work by roughly dividing them into two groups: deterministic models and probabilistic methods. 決定論的モデルと確率的手法の2つのグループに大まかに分割し,その有効性を概説する。 0.67
Deterministic models. From the optimization perspective, classical approaches often introduce additional regularization term to account for temporal smoothness. 決定論的モデル。 最適化の観点から、古典的アプローチはしばしば時間的平滑性を考慮するために追加正規化用語を導入する。 0.64
The extra regularization enables trade-off between fitness and smoothness, making the model less sensitive to anomalies associated with the training data [19], [20]. 余分な正規化により、フィットネスと滑らかさのトレードオフが可能になり、トレーニングデータ [19], [20] に関連する異常に対するモデルの感受性が低下する。 0.69
Representative works include time series de-trending [21], and its extension for multi-dimensional correlated time series [22]. 代表的な作品には、[21]の時系列と、[22]の多次元相関時系列の拡張がある。 0.67
These methods tend to learn the general trend of time series. これらの手法は時系列の一般的な傾向を学習する傾向がある。 0.63
However, they often pay less attention to the stochastic nature of time series, as such the modeling capabilities are degraded when the data are noisy and anomaly-contaminated . しかし, 時系列の確率的性質にはあまり注意を払わず, データのノイズや異常が原因で, モデリング能力は劣化する。 0.69
Probabilistic models. In these methods, the core idea is to learn the marginal likelihood pθ (x) of the data generation process. 確率モデル。 これらの手法では、データ生成プロセスの限界確率 pθ (x) を学ぶことが核となる。 0.71
Then the anomalies are detected by thresholding reconstruction probability, using the techniques e.g. そして、例えば、しきい値再構成確率を用いて異常を検出する。 0.73
Hidden Markov Models [23], [24] and Matrix Factorizations [25], [26]. 隠れマルコフモデル [23], [24]および行列分解 [25], [26]。 0.57
However, generative models are often computationally restricted to a simple linear model with conjugate probability distributions, due to the intractable integral of marginal like- しかしながら、生成モデルはしばしば、限界的類似の可算積分により、共役確率分布を持つ単純な線形モデルに計算的に制限される。
訳抜け防止モード: しかし、生成モデルはしばしば共役確率分布を持つ単純な線形モデルに計算的に制限される。 限界点の可算積分による-
0.89
lihood pθ (x) = (cid:82) pθ (z)pθ (x|z)dz. lihood pθ (x) = (cid:82) pθ (z)pθ (x|z)dz. 0.87
Moreover, limited by the また、制限されている。 0.56
potential intractability, the noise is often assumed constant, making them unsuitable for non-stationary time series. 潜在的な誘引性、ノイズはしばしば一定であると仮定され、非定常時系列には適さない。 0.60
assumed to obey i.i.d. Although this approach mitigates the artifact, while the temporal structure is still not well modeled. i. i. d. このアプローチはアーティファクトを緩和するが、時間構造はまだ十分にモデル化されていない。 0.51
Alternatively, researchers seek to use a deterministic Recurrent Neural Network (RNN) [29] to produce hidden states, then the latent variable is conditioned on the RNN hidden states and the previous latent variables, such that the temporal structure is captured. あるいは、研究者は決定論的リカレントニューラルネットワーク(rnn)[29]を使用して隠れ状態を生成し、その後、潜在変数は、時間構造がキャプチャされるように、rnn隠れ状態と以前の潜在変数で条件付けされる。 0.76
The resulting models include VRNN [16], STORN [30], which can be viewed as sequential versions of VAE. 得られたモデルにはVRNN [16]、STORN [30]があり、VAEのシーケンシャルバージョンと見ることができる。 0.75
However, these models essentially hardly consider the presence of anomalies in their objective functions. しかし、これらのモデルは本質的に目的関数における異常の存在をほとんど考慮しない。 0.68
In this paper, we propose a Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) model for learning multidimensional correlated time series data. 本稿では,多次元相関時系列データを学習するためのSmoothness-Inducing Sequential Variational Auto-Encoder (SISVAE)モデルを提案する。 0.83
In particular, we are focused on point level anomaly detection which can be naturally handled by our model. 特に,モデルによって自然に処理可能な点レベルの異常検出に注目する。 0.71
The technical highlights of the paper are as follows: i) We devise a Bayesian technique to incorporate the smoothness prior to the learning of deep generative model for multi-dimensional time series anomaly detection. i) 多次元時系列異常検出のための深部生成モデルの学習に先立って, 滑らかさを取り入れたベイズ的手法を考案した。 0.54
Such a design to our best knowledge, has not been studied in literature and it inherits merits for the efficiency of the classical optimization model and the uncertainty modeling capability by the deep generative models. このような設計は、文献では研究されておらず、古典最適化モデルの効率性と深い生成モデルによる不確実性モデリング能力のメリットを継承しています。 0.84
Specifically, the proposed variational smoothness regularizer encourages both smooth mean and variance transitions over time. 特に, 変分スムーズ性正規化器は, 時間とともに, 平均および変分遷移を円滑に促進する。 0.57
The resulting objective, with the network can be learned by standard backpropagation. ネットワークで得られた目標は、標準的なバックプロパゲーションによって学べる。 0.65
ii) Different from Markov models that depend on constant noise assumption, our model parameterizes mean and variance individually for each time-stamp using neural networks. 二 一定のノイズ仮定に依存するマルコフモデルと異なり、ニューラルネットワークを用いて各タイムスタンプの平均及び分散を個別にパラメータ化する。 0.78
This enables the dynamic anomaly detection thresholds adaption according to estimated data noise. これにより、推定データノイズに応じて動的異常検出しきい値の適応が可能になる。 0.67
This feature is important as the variance of time series may vary over time. この特徴は、時系列のばらつきが時間とともに変化するので重要である。 0.68
iii) We perform extensive empirical evaluations on both synthetic datasets and several real-world benchmarks, showing that our model consistently outperforms the state-of-the-art competing models. 三 合成データセットと実世界のベンチマークの両方で広範な実験的な評価を行い、我々のモデルは最先端の競合モデルより一貫して優れていることを示す。 0.61
We also study two decision criteria for performing anomaly detection tasks on a trained SISVAE model: reconstruction probability and reconstruction error. また,トレーニングされたSISVAEモデル上で異常検出タスクを行うための2つの決定基準について検討した。
訳抜け防止モード: 判定基準も2つ検討しています 訓練されたsisvaeモデル上で異常検出タスクを実行する リコンストラクション確率とリコンストラクション誤差
0.68
Recently, the work [27] proposes the Stochastic Gradient Variational Bayes (SGVB) estimator and Auto-encoded Variational Bayes (AEVB) algorithm. 最近、 研究[27]は確率勾配変動ベイズ(SGVB)推定器と自動符号化変動ベイズ(AEVB)アルゴリズムを提案する。 0.71
One popular technique under this framework is Variational Auto-Encoder (VAE). このフレームワークで一般的なテクニックは、変分自動エンコーダ(VAE)である。 0.56
By using neural network for parameterizing a flexible inference model qφ(z|x) to approximate posterior pθ (z|x), along with the reparameterization trick, the lower bound L of marginal likelihood is differentiable. フレキシブルな推論モデルqφ(z|x)をパラメータ化するためにニューラルネットワークを使用することで、再パラメータ化トリックと共に後端pθ(z|x)を近似する。 0.73
In consequence, the model can be effectively trained. その結果、モデルを効果的に訓練することができる。 0.70
To a certain extent, the AEVB algorithm liberates the limitations when devising complex probabilistic generative models, especially for deep generative models. ある程度は、AEVBアルゴリズムは複雑な確率的生成モデル、特に深い生成モデルを開発する際の制限を解放する。 0.79
One step further, by taking advantage of the AEVB algorithm, recent studies have introduced deep generative models for anomaly detection. さらに、AEVBアルゴリズムを利用して、最近の研究では、異常検出のための深い生成モデルを導入している。 0.71
The work [28] uses Variational AutoEncoder (VAE) [27] for anomaly detection on non-sequential datasets. この作業 [28] は、非シーケンシャルデータセットの異常検出に Variational AutoEncoder (VAE) [27] を使用している。 0.77
However, vanilla VAE makes i.i.d assumption among data points x = {x(i)}N i=1, which is unrealistic for realworld time series data. しかし、vanilla vae はデータポイント x = {x(i)}n i=1 の中で i.i.d を仮定し、実世界の時系列データには非現実的である。 0.67
To solve this problem, the very recent approach [3] further extends vanilla VAE by preprocessing the raw data with sliding windows, and the windows are この問題を解決するため、ごく最近のアプローチ[3]では、生データをスライディングウィンドウで前処理し、バニラVAEをさらに拡張している。 0.75
III. PRELIMINARIES III。 プレリミナリス 0.61
Before devotion to the technical details of our proposed model, some preliminaries are described as background to facilitate the presentation of our main method. 提案モデルの技術的詳細にこだわる前に,本手法の提示を容易にする背景として,いくつかの予備案を述べる。 0.76
A. Problem Formulation Due to different reasons such as faulty sensors or extreme events, the real-world time series data are often contaminated with anomalies. A。 問題定式化 異常センサーや極端な事象などの様々な理由で、実世界の時系列データはしばしば異常によって汚染される。 0.73
Consider we have time series data x1:T = (x1, xt, . 時系列データ x1:T = (x1, xt, .) を考える。 0.83
. . , xt) contaminated with anomalies, and each xt ∈ RM (indicating T -dimensional time series) is modeled by: . . , xt) が異常で汚染され, 各 xt ∈ RM (T-次元時系列の表示) は次のようにモデル化される。 0.80
xt = f (t) + t + It (cid:12) et xt = f (t) + st + it (cid:12) et 0.96
(1) where f (t) is the true signal, t is non-stationary noise of observations, I is a M×T binary matrix, which is the indicator matrix of anomalies. 1) f (t) が真の信号であるとき、t は観測の非定常ノイズであり、I は M×T のバイナリ行列であり、これは異常の指標行列である。 0.80
The value Im,t = 1 when there is an anomaly at observation xm,t, and et is the anomaly vector, and (cid:12) is element-wise multiplication. 観測xm,tに異常がある場合のIm,t = 1であり、etは異常ベクトルであり、(cid:12)は要素方向の乗算である。 0.79
Our goal is to recover the true signal f (t) and detect anomaly I from x1:T . 我々の目標は、真の信号 f (t) を復元し、x1:T から異常 I を検出することである。 0.70
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. JOURNAL OF LATEX CLASS FILES, VOL。 0.78
14, NO. 8, AUGUST 2018 14、いいえ。 8 AUGUST 2018 0.66
3 (a) multi-dimensional time series with anomalies 3 (a)異常のある多次元時系列 0.87
(b) density estimation (shaded area) (b)密度推定(シェード領域) 0.81
(c) anomaly detection (with red circle) (c)異常検知(赤い円で) 0.78
Fig. 1. Procedure illustration of the proposed model: (a) Input multi-dimensional (here 4-dim) time series for anomaly detection. フィギュア。 1. 提案モデルの手順図:(a)異常検出のための入力多次元(ここで4次元)時系列。 0.72
(b) Time-varying probability density function estimation using the proposed model – shaded region denote variance levels. (b) 提案モデルを用いた時間変動確率密度関数推定 – 日陰領域は分散レベルを示す。 0.89
(c) Anomalies (red circle) detection by thresholding. (c) しきい値による異常(赤い円)の検出。 0.81
GLOSSARY FOR THE TERMS USED IN THE PAPER AND THEIR INTERPRETATION. 論文で使われる用語とその解釈のための用語集。 0.50
TABLE I Terms latent variable model テーブルI 用語 潜在変数モデル 0.60
AEVB algorithm generative model inference model reparameterization AEVBアルゴリズム生成モデルモデル再パラメータ化 0.84
trick latent state トリック latent‐state 0.70
latent temporal dependencies trending prior 先行する潜在時間依存 0.59
non-linear transitions non-linear emission probability 非線形遷移 非線形 排出確率 0.75
smoothness prior non-stationary noise 平滑化前 非定常ノイズ 0.67
anomaly score Symbol 異常スコア シンボル 0.70
pθ (x, z) = pθ (x|z)p(z) pθ (x, z) = pθ (x|z)p(z) 0.94
(cid:2)qφ(z|x)|pθ (z|x)(cid:3) (cid:2)qφ(z|x)|pθ(z|x)(cid:3) 0.68
minφ DKL pθ (x|z) qφ(z|x)  ∼ p() minφ DKL pθ (x|z) qφ(z|x) が成立する。 0.86
z = gφ(, x), z = gφ(\, x) である。 0.92
zt p(z1:T ) p(zt) zt p(z1:T ) p(zt) 0.89
p(zt|z<t) p(xt|zt) p(zt|z<t) p(xt|zt) 0.86
p(f ) t A p(f) うーん。 A 0.70
Meaning Description of the data generating process involving unobserved random variable z. 意味 観測されていないランダム変数 z を含むデータ生成プロセスの記述。 0.70
Use a pair of encoder and decoder to learn a complex deep latent variable model. 複雑な深層潜伏変数モデルを学ぶために、エンコーダとデコーダのペアを使用する。 0.72
A probabilistic mapping from latent variable z to observation x, also called decoder. 潜在変数 z から観測 x への確率写像(decoder)とも呼ばれる。 0.78
An approximation to the intractable true posterior pθ (z|x), also called encoder. 難解な真の後方 pθ (z|x) への近似はエンコーダとも呼ばれる。 0.71
Using a deterministic variable to express random variable z = gφ(, x), where  is an auxiliary variable with independent marginal p(). 確率変数 z = gφ(n, x) を表す決定論的変数(英語版)(deterministic variable)を用いる。
訳抜け防止モード: 決定論的変数を使用して、ランダム変数 z = gφ() を表わす x ) は、独立な有理数 p(o ) を持つ補助変数である。
0.75
latent variable associate with observation xt. 潜時変数は観測xtと関連付ける。 0.60
Latent variables are not independent but exhibits some kinds of structure, such as 1st-order Markov chain. 潜在変数は独立ではないが、1次マルコフ連鎖のようなある種の構造を示す。 0.70
A time-varying prior distribution for latent state. 潜時状態の時間変化前の分布。 0.68
Non-linear relationship between latent space and past latent states. 潜時空間と過去の潜時状態の非線形関係 0.67
It is linear for Kalman filter and Hidden Markov Models. カルマンフィルタと隠れマルコフモデルに対して線型である。 0.65
Nonlinear relationship between latent space and observation. 潜在空間と観測の間の非線形関係。 0.78
It is linear for Kalman filter and Hidden Markov Models. カルマンフィルタと隠れマルコフモデルに対して線型である。 0.65
A generic contextual constraint on the true signal based on human knowledge is the smoothness. 人間の知識に基づく真の信号に対する一般的な文脈制約は滑らかさである。 0.77
The noise model varies over time, in many currently used models, only the mean of Gaussian is modeled with dynamics, while the variance is often set to be constant Score assigned by the model for each observation, higher score indicates higher probability of anomaly. ノイズモデルは時間とともに変化し、現在使われている多くのモデルではガウス平均のみが力学でモデル化されるのに対し、分散は各観測でモデルによって割り当てられた定数スコアに設定され、より高いスコアは異常の確率が高いことを示す。 0.76
B. Smoothness Prior Modeling B. Smoothness Prior Modeling 0.98
For the unsupervised learning problem, 教師なし学習問題について 0.54
to recover true signal f (t) from anomaly-contaminated data, it is important to impose inductive bias or prior knowledge to the model as suggested in [17], [18]. 異常汚染データから真の信号f(t)を復元するには,[17],[18]で示唆されるように,モデルに帰納バイアスや事前知識を課すことが重要である。 0.84
For time series modeling, we first introduce smoothness prior modeling of time series as described in [31]. 時系列モデリングでは,まず[31]に記述された時系列の滑らかさ事前モデリングを導入する。 0.80
Consider the time series y1:T (for convenience, we deal with the uni-variate case), it is assumed to consist of the sum of a function f and observation noise : y1:T の時系列を考える(便宜上、一様変量の場合を扱う)、関数 f の和と観測ノイズの和から成り立つと仮定される。
訳抜け防止モード: 時系列 y1 : T ( 利便性のため) を考える。 私たちはユニに対処します -変動の場合)と仮定される 関数 f の総和と観測ノイズ ...
0.78
yt = f (t) + t yt = f (t) + yt 0.84
(2) where f ∈ F is an unknown smooth function, and  ∼ N (0, σ2). 2) ここで f ∈ f は未知な滑らかな函数であり、 σ は n (0, σ2) である。 0.82
The problem is to estimate f from the observations. 問題は観測からfを推定することである。 0.73
A common approach is to use a parametric model such as polynomial regression or neural network to approximate f. The quality of estimation is dependent upon the appropriateness of the assumed model class. 一般的なアプローチは、多項式回帰やニューラルネットワークなどのパラメトリックモデルを使用してfを近似することである。
訳抜け防止モード: 一般的なアプローチは、多項式回帰やニューラルネットワークのようなパラメトリックモデルを使用することである。 推定の質は、想定モデルクラスの適切性に依存します。
0.80
The idea is to balance a tradeoff of goodness-of-fit to the data, and a smoothness criterion. その考え方は、データに対する適合性のトレードオフと、スムーズさの基準をバランスさせることだ。 0.60
The solution is to minimize the objective with an appropriately chosen smoothness trade-off parameter λ: 解決策は、適切に選択された滑らかさトレードオフパラメータ λ: で目的を最小化することである。 0.62
(cid:88)(cid:8)(yt − f (t))2 + λ(∇kf (t)))2(cid:9) (3) where ∇k is a k-th order differential constraint on the solution f, with ∇f (t) = ft − ft−1, ∇2 = ∇(∇(f (t))), etc. (cid:88)(cid:8)(yt − f (t))2 + λ(\kf (t)))2(cid:9) (3) ここで sk は解 f 上の k-次微分制約であり、 sf (t) = ft − ft−1, s2 = s(f(t))) などである。 0.84
min f The solution can be solved from a Bayesian perspective: consider a homoscedastic (variance is constant over time) time series yt ∼ N (f (t), σ2) with constant variance σ2. 分 f この解はベイジアンの視点から解くことができる: 一定分散 σ2 を持つホモスケジスティック (分散は時間とともに一定である) 時系列 yt × N (f (t), σ2) を考える。 0.73
The (cid:33) solution becomes maximizing: (cid:33) ソリューションは最大化します。 0.67
(cid:33) (cid:32) (cid:33) (cid:32) 0.78
(cid:32) L(f ) = exp (cid:32) L(f ) = exp 0.82
− 1 2σ2 (yt − f (t))2 − 1 2σ2 (yt − f (t))2 0.82
exp − λ 2σ2 exp − λ 2σ2 0.82
T(cid:88) t=1 T(cid:88) t=1 0.71
T(cid:88) t=1 T(cid:88) t=1 0.71
(∇kf (t))2 (4) (kf (t))2 (4) 0.83
Its Bayesian interpretation can be written by: そのベイズ解釈は次のように書くことができる。 0.51
π(f|y, λ, σ2, k) ∝ p(y|σ2, f )π(f|λ, σ2, k) π(f|y, λ, σ2, k) ^ p(y|σ2, f )π(f|λ, σ2, k) 0.87
(5) where π(f|λ, σ2, k) is the prior distribution of f, and p(y|σ2, f ) and π(f|y, λ, σ2, k) is the posterior of f. (5) ここで π(f|λ, σ2, k) は f の先行分布であり、p(y|σ2, f ) と π(f|y, λ, σ2, k) は f の後方分布である。 0.85
is data distribution conditioned on σ2 σ2 上のデータ分布は 0.88
C. Deep Generative Models and SGVB Estimator C. Deep Generative ModelsとSGVB Estimator 0.94
Consider a dataset x = {x(i)}N データセット x = {x(i)}N を考える。 0.82
i=1 consisting of N i.i.d data points x(i). i=1は、Ni.dデータポイントx(i)からなる。 0.70
From a latent variable modeling perspective, we assume the data are generated by some random processes that capture the variations in the observed variables x. 潜在変数モデリングの観点からは、データは観測された変数 x の変動を捉えるランダムなプロセスによって生成されると仮定する。 0.83
Thus we have the integral of marginal likelihood: したがって 限界的可能性の積分が得られます 0.54
pθ (x) = pθ (z)pθ (x|z)dz pθ (x) = pθ(z)pθ(x|z)dz 0.91
(6) (cid:90) (6) (cid:90) 0.82
unobservable true signalnoisy observation with outliers 外れ値による観測不可能な真の信号ノイズ 0.47
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. JOURNAL OF LATEX CLASS FILES, VOL。 0.78
14, NO. 8, AUGUST 2018 14、いいえ。 8 AUGUST 2018 0.66
4 where θ is generative model parameters, and pθ (z) is the prior distribution over latent variable z, and pθ (x|z) is the conditional distribution that generates data x. Variational Auto-Encoder (VAE) [27] models the conditional probability pθ (x|z) with a neural network as a flexible approximator. 4 因果的変数 z に対して p* (z) が先行分布であり、p* (x|z) はデータ x を生成する条件分布である。可変オートエンコーダ (VAE) [27] は、ニューラルネットワークを柔軟な近似子として条件確率 p* (x|z) をモデル化する。 0.80
However, introducing a complex non-linear mapping for the generation process from z to x results in intractable inference of posterior pθ (z|x). しかし、z から x への生成過程に対する複素非線形写像の導入は、後方 pθ (z|x) の難解な推論をもたらす。 0.70
Hence VAE uses a variational approximation qφ(z|x) of the posterior, i.e. したがって、VAEは後部の変分近似 qφ(z|x) を用いる。 0.81
the evidence lower bound (ELBO) of the marginal likelihood as written by: L(θ, φ; x) = −DKL (qφ(z|x)(cid:107)pθ (z)) + Eqφ(z|x)[log pθ (x|z)] (7) where the first R.H.S. L(θ, φ; x) = −DKL (qφ(z|x)(cid:107)pθ (z)) + Eqφ(z|x)[log pθ (x|z)] (7) ここでは、最初のR.H.Sが成立する。 0.78
term is the Kullback-Leibler divergence between two probability distributions Q and P , and φ denotes variational parameters. 項は2つの確率分布 Q と P の間のクルバック・リーバーの発散であり、φ は変分パラメータを表す。 0.74
The generative model and inference model are trained jointly by maximizing the ELBO w.r.t their parameters. 生成モデルと推論モデルは、ELBOw.r.tのパラメータを最大化することによって共同で訓練される。 0.59
The KL-divergence DKL(qφ(z|x)(cid:107)pθ (z)) of Eq. KL-発散 DKL(qφ(z|x)(cid:107)pθ(z)) は Eq の成り立つ。 0.73
7 can often be integrated analytically. 7 はしばしば解析的に統合できる。 0.78
However, the gradient of the second term is problematic because latent variable z ∼ qφ(z|x) is stochastic which blocks backpropagation. しかし、第2項の勾配は、潜在変数 z が確率的であり、バックプロパゲーションをブロックするため問題となる。 0.62
The Stochastic Gradient Variational Bayes (SGVB) [32] expresses the random variable z as a deterministic variable z = gφ(, x), where  is an auxiliary variable with independent marginal distribution p(). 確率勾配変動ベイズ (Stochastic Gradient Variational Bayes, SGVB) [32] は、ランダム変数 z を決定論的変数 z = gφ(\, x) として表現する。
訳抜け防止モード: 確率勾配変動ベイズ (Stochastic Gradient Variational Bayes, SGVB ) [ 32 ] は、ランダム変数 z を決定論的変数 z = gφ() として表現する。 x ) は、独立な余剰分布 p(o ) を持つ補助変数である。
0.83
Then we have the SGVB estimator ˜L(θ, φ; x) (cid:39) L(θ, φ; x) of the lower bound: 次に、下界の SGVB 推定器 (θ, φ; x) (cid:39) L(θ, φ; x) を得る。 0.67
˜L(θ, φ; x) = −DKL (qφ(z|x)(cid:107)pθ )) + log pθ (x|z)  ∼ p() X) = −DKL (qφ(z|x)(cid:107)p* ) + log p* (x|z) = −DKL (qφ(z|x)(cid:107)p* )) 0.67
z = gφ(, x) z = gφ(\, x) である。 0.84
where and (8) どこに そして (8) 0.75
Learning is performed by optimizing the SVGB estimator with backpropagation. SVGB推定器をバックプロパゲーションで最適化することにより学習を行う。 0.58
VAE [27] uses centered isotropic multivariate Gaussian pθ (z) = N (z; 0, I) as prior of latent variable z. vae [27] は、潜在変数 z の前の中心等方性多変量ガウス pθ (z) = n (z; 0, i) を用いる。 0.74
The variational approximate posterior qφ(z|x) is a multivariate Gaussian with diagonal covariance matrix: N (µ, diag(σ2)), and its mean µ and variance σ2 are parameterized by a neural network. 変分近似 qφ(z|x) は対角共分散行列 N (μ, diag(σ2)) を持つ多変量ガウスであり、その平均 μ と分散 σ2 はニューラルネットワークによってパラメータ化される。 0.82
For pθ (x|z), a Bernoulli distribution for binary data or multivariate Gaussian distribution (as adopted in our model) for continuous data is often used. pθ (x|z) の場合、バイナリデータに対するベルヌーイ分布や連続データに対する多変量ガウス分布(このモデルで採用された)がよく用いられる。 0.76
We present IV. ご紹介します IV。 0.62
THE PROPOSED MODEL the proposed Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) model for multidimensional time series point anomaly detection. The ProPOSED MODEL the proposed Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) model for multidimensional time point anomaly detection。 0.93
We first describe how the Sequential VAE can be employed for time series density estimation, which involves a generative model and inference model to learn the latent variable for data points. まず,データポイントの潜在変数を学習するための生成モデルと推論モデルを含む時系列密度推定にシーケンシャルvaeをどのように利用できるかを説明する。 0.82
Then we devise a smooth prior under the Bayesian framework which leads to a smoothness-induced sequential VAE model. 次に、ベイズフレームワークの下で滑らかな先行を考案し、円滑性誘発の連続的なVAEモデルをもたらす。 0.51
We show the model can be used to detect the anomaly either by absolute reconstruction loss or reconstruction probability. 本手法は, 絶対的再構成損失または再構成確率によって異常を検出できることを示す。 0.73
A. Sequential VAE as Density Estimator of Time Series 時系列密度推定器としてのA. Sequential VAE 0.76
For time series modeling, many prior publications have extended VAE in a sequential manner [33], [34], [16], [35]. 時系列モデリングでは、多くの先行刊行物がVAEを連続的に[33], [34], [16], [35]に拡張している。 0.82
The main idea is to use a deterministic Recurrent Neural Network (RNN) as a backbone, represented by the sequence of RNN hidden states. 主なアイデアは、RNN隠れ状態の順序で表されるバックボーンとして決定論的リカレントニューラルネットワーク(RNN)を使用することである。 0.83
At each timestamp, the RNN hidden state is conditioned on the previous observation xt−1 and stochastic latent variable zt−1, such that the model is able to capture sequential features from time series data. 各タイムスタンプにおいて、RNN の非表示状態は以前の観測 xt−1 と確率的潜時変数 zt−1 で調整され、モデルが時系列データから逐次的特徴を捕捉することができる。 0.74
Let x1:T = (x1, xt, . x1:T = (x1, xt, ) とする。 0.76
. . , xt) denote a multidimensional time series, such as observation data collected by multiple sensors of T time slots. . . , xt)はT時間スロットの複数のセンサによって収集された観測データなどの多次元時系列を表す。 0.82
Our goal is to learn the data distribution of the training time series p(x1:T ). 私たちの目標は、トレーニング時系列p(x1:t )のデータ分布を学ぶことです。 0.83
The model is composed of two parts, the generative model and the inference model. モデルは生成モデルと推論モデルという2つの部分から構成される。 0.84
pθ (x1:T|z1:T ) of the following factorization: 以下の因子化の pθ (x1:T|z1:T ) 0.81
1) Generative model: We specify the generative model 1)生成モデル:生成モデルを指定する 0.78
T(cid:89) pθ (xt|z≤t, x<t)pθ (zt|x<t, z<t) T(cid:89) pθ(xt|z≤t, x<t)pθ(zt|x<t, z<t) 0.83
(9) pθ (x≤T , z≤T ) = The first factor of R.H.S of Eq. (9) pθ (x≤T , z≤T ) = Eq の R.H.S の第一因子。 0.77
9 pθ (xt|z≤t, x<t) is the conditional likelihood of a data point given all previous data and latent states. 9 pθ (xt|z≤t, x<t) は、過去のデータと潜在状態が与えられたデータ点の条件付き確率である。 0.76
We notate ˆxt as the random variable for the reconstructed data distribution of observation xt, we have: 観測 xt の再構成されたデータ分布の確率変数として、xt を表記する。 0.75
t=1 x,t)(cid:1) , p(ˆx|zt) ∼ N(cid:0)µx,t, diag(σ2 (cid:1) t=1 x,t(cid:1) , p(\x|zt) , N(cid:0)μx,t, diag(σ2 (cid:1) 0.72
(cid:0)ϕz θ (zt), ht−1 (cid:0)φz θ (zt), ht−1 0.85
where [µx,t, σx,t] = ϕdec ここで [μx,t, σx,t] = φdec 0.81
θ (10) where µx,t and σx,t denote the sufficient statistic parameters of the generated data distribution, and θ is the parameter set of the mapping function ϕdec. θ (10) μx,t と σx,t は生成されたデータ分布の十分統計パラメータを表し、θ は写像関数 φdec のパラメータ集合である。 0.85
In this multivariate Gaussian case, they denote mean and variance respectively. この多変量ガウスの場合、それらはそれぞれ平均と分散を表す。 0.67
The hidden states are updated with the recurrence equation using gated recurrent unit. 隠れ状態はゲート再帰単位を用いて再帰方程式で更新される。 0.75
The second factor pθ (zt|x<t, z<t) is the prior of latent state, depending on previous RNN hidden state ht−1: 第2の因子 pθ (zt|x<t, z<t) は、以前のRNN隠蔽状態 ht−1 に依存する潜伏状態の先行である。 0.75
zt ∼ N(cid:0)µ0,t, diag(σ2 0,t)(cid:1) , zt > N(cid:0)μ0,t, diag(σ2 0,t)(cid:1) 0.80
prior where [µ0,t, σ0,t] = ϕ θ 前者は[μ0,t, σ0,t] = φ θ 0.82
(ht−1) where µ0,t and σ0,t are sufficient statistic parameters of the prior. (ht−1) μ0,t と σ0,t は前者の十分統計パラメータである。 0.82
By introducing temporal structure into the prior distribution of the latent variable, the representation power is enhanced. 潜在変数の先行分布に時間構造を導入することにより、表現力を高める。 0.65
The hidden states are updated with the recurrence equation using gated recurrent unit (GRU) [36]: 隠蔽状態は、ゲートリカレントユニット(GRU)[36]を用いて繰り返し方程式で更新される。 0.73
(cid:0)ϕz (cid:1) (cid:0)φz (cid:1) 0.76
ht = fθ θ (zt), ht−1 ht = fθ θ (zt), ht−1 0.96
(11) (12) The GRU transition equations of our recurrence model are: (11) (12) 我々の再発モデルのGRU遷移方程式は次のとおりである。 0.78
θ (zt)] yt = [ϕz rt = σ(Wryt + Urht−1 + br) st = σ(Wsyt + Usht−1 + br) ˜ht = tanh(Wh + rt(Uhht−1) + bh) ht = (1 − st) ˜ht + stht−1 θ (zt)] yt = [φz rt = σ(wryt + urht−1 + br) st = σ(wsyt + usht−1 + br) sht = tanh(wh + rt(uhht−1) + bh) ht = (1 − st) stht−1 0.84
(13) where W∗, U∗, b∗ are model parameters of GRU in SISVAE model, and σ is the sigmoid function. (13) W∗, U∗, b∗ は SISVAE モデルにおける GRU のモデルパラメータであり、σ はシグモイド函数である。 0.86
In equations (10) to (12), prior θ (zt) ϕ θ are feature extractors of observed data xt and latent variable zt respectively, which are also realized by networks. 方程式 (10) と (12) では、以前の θ (zt) φ θ は観測データ xt と潜在変数 zt の特徴抽出器であり、ネットワークによっても実現されている。 0.80
are realized by networks. ネットワークによって実現されます 0.60
ϕx θ (xt) and ϕz φx θ (xt) および φz 0.87
and ϕdec θ 2) Inference model: We use variational inference to learn an approximate posterior over latent variables conditioned on the given data, which means we need to construct an approximating distribution qφ parameterized by φ. そしてφdec θ 2) 推論モデル: 変動推論を用いて, 与えられたデータに条件づけられた近似後続変数を学習し, φ でパラメータ化された近似分布 qφ を構成する必要がある。 0.87
We train the generative model using Auto-Encoding Variable Bayes (AEVB) algorithm [27]: 自動符号化可変ベイズ(AEVB)アルゴリズムを用いて生成モデルを訓練する[27]。 0.85
(cid:20) (cid:20) (cid:20) (cid:20) 0.78
max θ,φ E p(x1:T ) max θ, φ E p(x1:T ) 0.90
Eqφ log pθ (x1:T , z1:T ) qφ(z1:T|x1:T ) Eqφ ログ pθ (x1:T , z1:T ) qφ(z1:T|x1:T ) 0.78
(14) (cid:21)(cid:21) (14) (cid:21)(cid:21) 0.80
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. JOURNAL OF LATEX CLASS FILES, VOL。 0.78
14, NO. 8, AUGUST 2018 14、いいえ。 8 AUGUST 2018 0.66
5 (a) inference model qφ(z|x) 5 (a)推論モデルqφ(z|x) 0.82
(b) generative model pθ (x|z) b)生成モデルpθ(x|z) 0.91
Fig. 2. Graphical illustration of the proposed SISVAE model. フィギュア。 2. 提案されたSISVAEモデルのグラフィックイラスト。 0.66
Circle nodes are random variables, and diamond node are deterministic variables. 円ノードはランダム変数であり、ダイヤモンドノードは決定論的変数である。 0.71
Gray nodes are observable, and white nodes are unobservable. グレーノードは観測可能であり、ホワイトノードは観測不可能である。 0.57
Black solid lines are the backbone recurrent neural network, as shown in Eq. 黒ソリッドラインは、Eqに示すように、バックボーンのリカレントニューラルネットワークです。 0.74
12. a) Network structure of inference model qφ(z|x), red solid lines are the inference step as shown in Eq. 12.a) 推論モデル qφ(z|x) のネットワーク構造、赤固線は、Eq に示す推論ステップである。 0.83
16, and black dotted lines are the transition prior as shown in Eq.11. 16 と黒い点線は eq.11 で示される遷移の前兆である。 0.78
b) Network structure of generative model pθ (x|z), blue solid lines are generation step in Eq. b) 生成モデルpθ(x|z)のネットワーク構造, 青色の固体線はEqにおける生成ステップである。 0.78
10. We construct a qφ distribution of the following factorization: 10. 以下の因子分解の qφ 分布を構築する。 0.81
T(cid:89) The approximate posterior of latent variable zt depends on T(cid:89) 潜在変数 zt の近似後位は依存する 0.78
xt and ht−1: qφ(z≤T|x≤T ) = xt と ht−1 qφ(z≤T|x≤T ) = 0.71
t=1 qφ(zt|x≤t, z<t) z,t)(cid:1) , p(zt|xt) ∼ N(cid:0)µz,t, diag(σ2 (cid:1) t=1 qφ(zt|x≤t, z<t) z,t(cid:1) , p(zt|xt) , N(cid:0)μz,t, diag(σ2 (cid:1) 0.71
(cid:0)ϕx θ (xt), ht−1 (cid:0)φx θ (xt), ht−1 0.85
where [µz,t, σz,t] = ϕenc ここで [μz,t, σz,t] = φenc 0.79
φ (15) (16) φ (15) (16) 0.85
where µz,t, σz,t denote the mean and variance of the approximate posterior, and ϕenc φ is approximated by a neural network. ここで μz,t,σz,t は近似後方の平均と分散を示し、φenc φ はニューラルネットワークによって近似される。 0.77
B. Anomaly Detection with Sequential VAE B。 シーケンスVAEによる異常検出 0.74
As discussed before, we seek to devise suitable inductive bias for anomaly detection of time series in the sequential VAE framework. 前述したように、シーケンシャルvaeフレームワークにおける時系列の異常検出に適した帰納的バイアスを考案する。 0.75
To this end, we begin with the factorization of the existing loss function. この目的のために、我々は既存の損失関数の分解から始める。 0.73
Specifically, we substitute the numerator and denominator in Eq. 具体的には、Eq の数値と分母を代入します。 0.62
14 with Eq. 9 and Eq. 14、Eq。 9およびEq。 0.76
15 respectively, the objective of Sequential VAE becomes: (cid:124) (cid:125) DKL(qφ(zt|x≤t, z<t)(cid:107)pθ (zt|x<t, z<t)) 15 の次数 VAE の目的は次のようになる: (cid:124) (cid:125) DKL(qφ(zt|x≤t, z<t)(cid:107)pθ (zt|x<t, z<t)) 0.76
˜LSAE = (cid:123)(cid:122) ~LSAE= (cid:123)(cid:122) 0.78
(cid:26) T(cid:88) (cid:124) (cid:125) + log pθ (xt|z≤t, x<t) (cid:26) T(cid:88) (cid:124) (cid:125) + log pθ (xt|z≤t, x<t) 0.78
(cid:123)(cid:122) (cid:123)(cid:122) 0.75
t=1 reconstruction loss (cid:27) t=1 復興の損失 (cid:27) 0.68
inference loss (17) The first term is the loss of inference model, which can be viewed as a regularizer, encouraging the model to learn disentangled feature by putting a prior over latent variable [37]. 推論損失 (17) 第1の用語は推論モデルの損失であり、これは正規化と見なすことができ、事前の潜在変数 [37] を配置することで、モデルに不連続な特徴を学ぶように促す。 0.75
The second term is the reconstruction loss of the generative model. 第二の項は生成モデルの再構成損失である。 0.81
Suppose xm,t = fm(t) + m,t + em,t is an anomaly, and its associated reconstruction distribution is ˆxm,t = N (µm,t, σm,t). xm,t = fm(t) + sm,t + em,t が異常であり、関連する再構成分布は sxm,t = N (μm,t, σm,t) であるとする。 0.86
The generative model tries to reconstruct the contaminated xm,t, rather than the true signal fm(t), otherwise the reconstruct loss, which is the negative log likelihood −pθ (xm,t|ˆxm,t) will be high. 生成モデルは、真の信号 fm(t) ではなく汚染された xm,t を再構成しようとするが、そうでなければその再構成損失は負の対数 −pθ (xm,t|\xm,t) が高くなる。 0.74
To minimize the objective loss function from the data with anomalies, the model will either learn a biased mean µm,t, or an overestimated variance σm,t. 異常のあるデータから目的損失関数を最小化するために、モデルはバイアス付き平均 μm,t または過大評価された分散 σm,t を学ぶ。 0.85
As a result, the Sequential VAE can be vulnerable to anomalies. その結果、Sequential VAEは異常に対して脆弱である可能性があります。 0.68
to the accumulative difference of signal(cid:80)T 信号(cid:80)Tの累積差について 0.73
To address account for such a bias caused by the anomalies, one natural idea is to induce smoothness prior to the generative model. 異常によるそのようなバイアスを考慮に入れるには、生成モデルに先立って滑らかさを誘導するのが自然な考えである。 0.74
Recall in Section III-B, the smoothness criterion refers t=1 ∇ft. セクションIII-Bでリコール、滑らか度基準はt=1 ftを示します。 0.51
One might be tempted to simply add such a smoothness regularization to the objective. 目的にそのような滑らかな正規化を単に付け加える誘惑があるかもしれない。 0.62
However, since the Sequential VAE is under probabilistic framework, such a forced combination is not mathematically coherent. しかし、Sequential VAEは確率的枠組みにあるので、そのような強制的な組み合わせは数学的には一貫性がない。 0.59
However, the classical approach treat observation as deterministic variable, however, in sequential VAE, we treat each observation xt as a random variable, and we estimate the probability distribution for each observation p(xt) ∼ N (µt, diag(σ)2 t ), such that the classical regularizer failed to work in probabilistic framework, which calls for more comprehensive method. しかし、古典的アプローチは観測を決定論的変数として扱うが、逐次VAEでは各観測xtをランダム変数として扱い、古典的正規化器がより包括的な方法を要求する確率的枠組みで動作できないように、各観測p(xt) ^ N(μt, diag(σ)2 t )の確率分布を推定する。 0.86
We extend the smoothness regularization to probabilistic framework, by following the common assumption that the probability density function over time would vary smoothly over time. 時間とともに確率密度関数が滑らかに変化するという共通の仮定に従うことにより、平滑性正規化を確率的枠組みに拡張する。 0.74
Among all possible reconstructed series ˆx1:T ∈ X , the true signal should have a smooth transition of distribution. すべての再構成可能な級数 >x1:T ∈ X の中で、真の信号は分布の滑らかな遷移を持つべきである。 0.64
To construct a valid regularizer, we need to measure the smoothness of a time-varying probability distribution. 有効な正規化器を構築するためには、時変確率分布の滑らかさを測定する必要がある。 0.70
For two consecutive data points of a single time series: xm,t−1 and xm,t, associated with reconstructions pθ (ˆxm,t−1) and pθ (ˆxm,t). xm,t−1 と xm,t の2つの連続したデータポイントに対して、再構成 pθ (xm,t−1) と pθ (xm,t) が関連付けられる。 0.75
Let d(·,·) to be a distance metric between two distributions, we propose accumulative transition cost of timevarying probability distributions: d(・・・)を2つの分布間の距離計量とすると、時間変動確率分布の累積遷移コストを提案する。 0.86
Lsmooth = T(cid:88) Lsmooth = T(cid:88) 0.85
M(cid:88) t=1 M(cid:88) t=1 0.71
m=1 d (pθ (ˆxm,t−1), pθ (ˆxm,t)) m=1 d (pθ (-xm,t−1), pθ (-xm,t) 0.75
(18) In this paper, we choose KL-divergence as the distance metric between distributions. (18) 本稿では,分布間の距離指標としてKL-divergenceを選択する。 0.79
For Isotropic Gaussian case in this paper, the transition cost of two Normal distributions is: 本論文の等方性ガウスの場合、2つの正規分布の移行コストは次のとおりです。 0.65
DKL (N (µm,t−1, σm,t−1)|N (µm,t, σm,t)) m,t−1 + (µm,t−1 − µm,t)2 DKL (N (μm,t−1, σm,t−1)|N (μm,t, σm,t)) m,t−1 + (μm,t−1 − μm,t)2 0.84
σ2 + = log σ2 + 対訳 ログ 0.69
2σ2 m,t σm,t σm,t−1 2σ2 m.t. σm,t σm,t−1 0.69
− 1 2 (19) − 1 2 (19) 0.85
The final objective involves: 1) encoding loss for inference model; 2) expected reconstruction error for generative model; 3) the proposed variational smoothness reguarlizer. 最終的な目標は,1) 推論モデルの符号化損失,2) 生成モデルの予測再構成誤差,3) 提案する変動平滑化レギュレータである。 0.78
We apply stochastic gradient variational Bayes (SGVB) 確率勾配変動ベイズ(SGVB)を適用する。 0.66
.................... .p(zt−1)p(zt)p(zt+1)zt−1ztzt+1ht−1htht+1xt−1xtxt+1..................z t−1ztzt+1ht−1htht+1ˆxt−1ˆxtˆxt+1...p(zt+1) .................... .p(zt−1)p(zt)p(zt+1)zt−1ztzt+1ht−1htht+1xt−1xtxt+1............zt−1ztzt+1ht−1htht+1\xt+1...p(zt+1) 0.28
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. JOURNAL OF LATEX CLASS FILES, VOL。 0.78
14, NO. 8, AUGUST 2018 14、いいえ。 8 AUGUST 2018 0.66
6 Algorithm 1: Auto-Encoded Variational Bayes algorithm for learning Smoothness Inducing Sequential Variational Auto-Encoder for Time Series (SISVAE). 6 アルゴリズム1:Smoothness Inducing Sequential Variational Auto-Encoder for Time Series (SISVAE)を学習するための自動符号化変分ベイズアルゴリズム。 0.83
Input: Time series matrix X ∈ RM×T Input: λ for smoothness, W and s for sliding windows Split time series into chunks D = {Xd}1:D,X ∈ RM×W Randomly initialize θ, φ; Initialize h0 = 0; while not converged do 入力: 時系列行列 x ∈ rm×t input: λ for smoothness, w and s for sliding windows split time series into chunks d = {xd}1:d,x ∈ rm×w randomly initialize θ, φ; initialize h0 = 0; but not convergeed do 0.78
Sample a mini-batch of P chunks from dataset D; for each chunk in parallel do データセットDからPチャンクのミニバッチをサンプリングします。 0.45
for t = 1 to W do t = 1 から W に対して 0.90
xt = X:,t;  ∼ N (0, I)//random sampling; [µz,t, σz,t] = ϕenc zt = µz,t + σz,t (cid:12)  // reparam trick; prior [µ0,t, σ0,t] = ϕ θ [µx,t, σx,t] = ϕdec θ (ϕz ht = fθ (ϕz xt = x:,t; σ0,t)//random sampling; [μz,t, σz,t] = φenc zt = μz,t + σz,t (cid:12) ] // reparam trick; prior [μ0,t, σ0,t] = φ θ [μx,t, σx,t] = φdec θ ( φz ht = fθ ( φz) 0.96
θ (xt), ht−1)//encoding; (ht−1)//prior; θ (zt), ht−1)//decoding; ht−1)//encoding; (ht−1)//prior; (zt)、ht−1)//decoding。 0.83
θ (zt), ht−1)//recurrence; θ (zt), ht−1)//recurrence 0.86
φ (ϕx φ (複数形 φs) 0.51
end end Compute gradient ∇θL and ∇φL with z≤W ; Update parameters θ and φ; 終わり 計算勾配 z≤W の値 θ と φL; 更新パラメータ θ と φ; 0.79
end return θ, φ end return θ, φ 0.85
(cid:123)(cid:122) (cid:123)(cid:122) 0.75
inference loss t=1 (cid:123)(cid:122) 推論損失 t=1 (cid:123)(cid:122) 0.67
estimator to approximate the expected reconstruction error qφ(z≤T |x≤T )[log pθ (xt|z≤t, x<t)]. 予測再構成誤差 qφ(z≤T |x≤T )[log pθ (xt|z≤t, x<t)] を近似する推定器。 0.72
The learning objective is: E (cid:110) − DKL(qφ(zt|x≤t, z<t)(cid:107)pθ (zt|x<t, z<t)) LSISV AE = (cid:125) E (cid:110) − DKL(qφ(zt|x≤t, z<t)(cid:107)pθ (zt|x<t, z<t)) LSISV AE = (cid:125) 0.84
T(cid:88) (cid:124) (cid:124) (cid:125) + log pθ (xt|z≤t, x<t) (cid:124) (cid:125) + λ DKL(pθ (ˆxt−1|z≤t−1, x<t−1)(cid:107)pθ (ˆxt|z≤t, x<t)) (20) where zt = µz,t + σz,t (cid:12)  and  ∼ N (0, I), and λ is a smoothness regularization hyper-parameter. T(cid:88) (cid:124) (cid:124) (cid:125) + log p* (xt|z≤t, x<t) (cid:124) (cid:125) + λ DKL(p, x<t−1, x<t−1) (cid:107)p ) (20) ここで zt = μz,t + σz,t (cid:12) と λ は平滑化正規化超パラメータである。 0.90
We set pθ (ˆxt|z≤t−1, x<t−1) = pθ (ˆxt|z≤t, x<t) when t = 1. t = 1 のとき、pθ (\xt|z≤t−1, x<t−1) = pθ (\xt|z≤t, x<t) とする。 0.63
C. Training reconstruction loss C.トレーニング 復興の損失 0.74
smoothness loss (cid:123)(cid:122) 滑らかさの喪失 (cid:123)(cid:122) 0.66
(cid:111) 1) Preparing dataset: Ideally, we could train SISVAE with a whole time series as input, and the model outputs the whole reconstruction. (cid:111) 1)データセットの準備:理想的には、全時間系列を入力としてSISVAEを訓練することができ、モデルは全体の再構築を出力します。
訳抜け防止モード: (cid:111) 1 ) データセットの準備 SISVAEを全時間連続でトレーニングできるのが理想的です。 そしてモデルは全体の再建を出力します。
0.79
However, in many real applications, the time series is typically very long. しかし、多くの実際のアプリケーションでは、時系列は通常非常に長いです。 0.79
The objective function Eq. 20 of our model is summed sequentially over time, such that computing the gradient of it requires back propagation over time [38]. 目的関数Eq。 私たちのモデルの20は時系列で集計され、勾配を計算するには時間とともに逆伝播が必要になります [38]。 0.63
Researches [39] observe that RNNs are hard to train when sequence length is over 200, the model may face the problem of vanishing gradients and exploding gradients, which is also undesirable for anomaly detection tasks. 研究[39]は、RNNはシーケンス長が200を超えると訓練が困難であり、モデルはグラデーションの消失とグラデーションの爆発の問題に直面している可能性があることを観察します。 0.78
To solve this problem, we divide the long time series into short chunks, using sliding windows technique. この問題を解決するために,スライディングウインドウ手法を用いて長い時系列を短いチャンクに分割する。 0.77
We apply Fig. 適用します フィギュア。 0.50
3. When the variance of data varies over time, absolute reconstruction error may fail to detect some anomalies. 3. データのばらつきが経時的に変化すると、絶対再構成エラーが異常を検出できないことがあります。 0.73
SUMMARY OF DIFFERENT TIME SERIES ANOMALY DETECTION MODELS. 異なる時間系列異常検出モードの要約。 0.46
NOTE THE TRIANGLE FOR DONUT DENOTES THE OBJECTIVE ROBUSTNESS ドーナツの三角形は客観的な頑健さを表します 0.38
TABLE II IS INCORPORATED INDIRECTLY BY CONSIDERING THE LABELS OF テーブルII ラベルを考慮し、間接的に統合する 0.40
ANOMALIES IN THE OBJECTIVE WHILE OUR METHOD FULFILLS THIS 我々の方法がこれを満たす間、目的の異常 0.45
PURPOSE BY USING THE (SMOOTH) TRENDING PRIOR. 事前に(スムース)トレンドを使用することによる目的。 0.33
latent temporal dependencies non-linear emission probability non-linear latent transitions trending prior multi-dimensional non-stationary variance long sequence objective robustness 多次元非定常分散長周期目的ロバストネスの傾向を示す潜時的非線形発光確率非線形潜時遷移 0.77
– – – –    – – – – –    – 0.85
Traditional Models ARMA LDS (cid:88)   (cid:88) (cid:88)    伝統モデルARMA LDS (cid:88) (cid:88) (cid:88) 0.83
Deep Latent Variable Models Donut SISVAE-p Deep Latent Variable Models Donut SISVAE-p 0.92
STORN  (cid:88)    (cid:88) (cid:88) ∇ ストルン 88) (88) (88) (88) (88) 88) (88) 0.46
(cid:88) (cid:88) (cid:88)  (cid:88) (cid:88)   (cid:88) (cid:88) (cid:88) (cid:88) (cid:88) 0.84
(cid:88) (cid:88) (cid:88) (cid:88) (cid:88) (cid:88) (cid:88) (cid:88) (cid:88) (cid:88) (cid:88) (cid:88) (cid:88) (cid:88) (cid:88) (cid:88) 0.72
a sliding windows to the time series, which slides over multiple time series synchronously. 時系列へのスライドウィンドウ。複数の時系列を同期的にスライドする。 0.71
The sliding windows is controlled by two parameters: window size W and step size s. Specifically, for each dataset X ∈ RM×T , we have: スライドウィンドウは、ウィンドウサイズ W とステップサイズ s の 2 つのパラメータで制御されます。
訳抜け防止モード: スライドウィンドウは、ウィンドウサイズ W とステップサイズ s の 2 つのパラメータで制御されます。 我々には
0.55
X1 := XM,1:1+W X2 := XM,1+s:1+s+W X1 := XM,1:1+W X2 := XM,1+s:1+s+W 0.39
... (21) Xd := XM,1+(d−1)∗s:1+(d−1)∗s+W ... (21) Xd := XM,1+(d−1)∗s:1+(d−1)∗s+W 0.68
where X ∈ RM×W , each X is a short time series chunk with length W, putting together, we have: ここで X ∈ RM×W は、各 X は長さ W の短時間級数チャンクであり、まとめると、次のようになります。
訳抜け防止モード: ここで X ∈ RM×W は、各 X は長さ W の短時間系列チャンクであり、まとめられる。 我々には
0.87
(22) where D is the whole dataset. (22) ここでdはデータセット全体です。 0.83
Each item is a short time series chunk. 各アイテムは短い時系列のチャンクです。 0.72
The learning procedure is depicted in Algorithm 1. 学習手順はアルゴリズム1で説明します。 0.76
D = {X1, . D = {X1, 。 0.89
. . ,Xd, . . . xd、xd、xd。 0.77
. . ,XD} D. Computing Anomaly Scores . . ,XD} D. 計算異常スコア 0.83
The next step is to compute anomaly score for each data point xm,t. 次のステップは、各データポイント xm,t の異常スコアを計算することです。 0.71
For a trained model, input a chunk of time series X = {xt}1:W , each x is a M-dimensional vector, the model first encode it into z1:W , then decode to a sequence of random variables ˆX = {N (µt, diag(σt))}1:W . 訓練されたモデルの場合、時系列 x = {xt}1:w のチャンクを入力すると、各 x は m-次元ベクトルであり、まずそれを z1:w にエンコードし、次に確率変数 sx = {n (μt, diag(σt))}1:w の列に復号する。 0.76
The whole encoding and decoding process is called probabilistic reconstruction. 全符号化および復号プロセスは確率的再構築と呼ばれる。 0.73
Recall that in Eq. これをEqでリコールする。 0.65
1 of Section III-A, we use I to indicate the indicator matrix of anomaly labels. セクションIII-Aの1では、異常ラベルのインジケータマトリックスを示すためにIを使用します。
訳抜け防止モード: 第3節第1章 - A, we use I 異常ラベルの指標行列を示すためです
0.75
In this step, we use A to indicate the matrix of anomaly scores. このステップでは、異常スコアの行列を示すためにAを使用します。 0.64
One natural choice is to use absolute reconstruction error, like anomaly detection with deterministic auto-encoders [40]. 1つの自然な選択は、決定論的オートエンコーダ[40]による異常検出のような絶対的再構成エラーを使用することである。
訳抜け防止モード: 一つの自然な選択は 決定論的オートエンコーダ[40 ]による異常検出のような絶対的再構成エラーを使用する。
0.66
The anomaly score em,t for observation xm,t is computed as: (23) anomaly score em,t for observation xm,t は (23) と計算される。 0.79
em,t = (cid:107)xm,t − µm,t(cid:107) em,t = (cid:107)xm,t − μm,t(cid:107) 0.92
020406080time42024ob servation valueanomalypoint Anot anomalypoint B123456 020406080time42024ob servation valueanomalypoint Anot anomalypoint B123456 0.71
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. JOURNAL OF LATEX CLASS FILES, VOL。 0.78
14, NO. 8, AUGUST 2018 14、いいえ。 8 AUGUST 2018 0.66
7 where µm,t is the m-th dimension of reconstructed mean µt. 7 μm,t は再構成平均 μt の m-次元である。 0.81
Intuitively, a large reconstruction error indicates anomaly behavior of time series, which is a common assumption for many reconstruction based anomaly detection algorithms. 直観的には、大きな再構成誤差は時系列の異常挙動を示し、これは多くの再構成に基づく異常検出アルゴリズムの一般的な仮定である。 0.72
The underlying assumption of absolute reconstruction error is that the variance is stationary, which means that the variance is constant over time. 絶対再構成誤差の根底にある仮定は、分散が定常であることであり、分散が時間とともに一定であることを意味する。
訳抜け防止モード: 絶対的再構成誤差の基本的な前提は、 分散は静止している つまり 分散は時間とともに一定である
0.72
However, in many real-world data, the variance is non-stationary, and it varies over time. しかし、多くの実世界のデータでは、分散は非定常であり、時間とともに変化する。 0.63
We illustrate this using an example as shown in Fig. 図に示すように、この例を例に示します。 0.72
3. We generate some time series data with Gaussian process as true signal, denoted as the real blue line centering scatters, then we add some Gaussian noise N (0, σt), where σt increases over time. 3. ガウス過程を真の信号とし、散乱を中心とする実青い線として表される時系列データを生成し、その後、σt が時間とともに増加するガウスノイズ N (0, σt) を加える。 0.80
The black dots is the noisy observation, and blue transparent regions increasing level of noise. 黒点はノイズの観測であり、青色透明領域はノイズのレベルを増加させる。 0.72
Then, we add two points, point A and point B, they both deviate from the true signal with distance 1. そして、点 A と点 B の2つの点を加え、どちらも距離 1 の真の信号から逸脱する。 0.80
We see that, point A is more likely to be an anomaly point, while point B is more likely to be a normal point that located at some noisy period. 点 A が異常点である可能性が高くなるのに対し、点 B は雑音のある周期にある正規点である可能性が高くなる。 0.62
In this case, if we use absolute reconstruction error, we may fail to detect anomaly point A, or otherwise report normal point B as an anomaly. この場合、絶対的再構成誤差を用いる場合、異常点aの検出に失敗したり、異常点bを異常として報告しなかったりする。 0.76
Due to the non-stationary nature of real-world time series, we need a robust method for computing anomaly scores. 実世界の時系列の非定常性のために、異常点を計算するための堅牢な方法が必要です。 0.60
Previous VAE-based anomaly detection methods have introduced reconstruction probability based anomaly score, here we devise a reconstruction probability for sequential Autoencoders. 従来のvaeに基づく異常検出手法では再構成確率に基づく異常スコアを導入し,逐次オートエンコーダの再構成確率を考案する。 0.68
Specifically, the probability density of input x is: 具体的には、入力 x の確率密度は: 0.92
pθ (x) = E pθ (x) = E 0.97
(24) Draw L samples from qφ(z|x), and the anomaly score is negative of average of L probability. (24)qφ(z|x)からLサンプルを描画し、異常スコアはL確率の平均の負である。 0.82
For numerical stability, we often work with log probability, and we have 数値安定性のために、私たちはしばしばログ確率で作業します。 0.74
qφ(z|x)[pθ (x|z)] qφ(z|x)[pθ(x|z)] 0.86
L(cid:88) l=1 L(cid:88) l=1 0.71
log pθ (x) = log pθ (x) = 0.97
1 L pθ (xt|µ(l) 1L pθ(xt|μ(l)) 0.75
x , σ(l) x ) x , σ(l) x ) 0.85
(25) However, for Sequential VAE, this can be more challenging. (25) しかし、Sequential VAEでは、これはもっと難しい。 0.73
Because z is not independent, but has sequential dependencies. z は独立ではないが逐次依存があるからである。 0.71
We choose to adopt Sequential Monte Carlo (SMC) [41], which is widely used in state-space models, such as Bayesian filters [42], and dynamical systems [43]. 我々は、ベイズフィルタ [42] や力学系 [43] などの状態空間モデルで広く使用されているシーケンシャルモンテカルロ (SMC) [41] を採用することを選択した。 0.84
We conclude the SMC for computing anomaly scores and detecting anomalies in Algorithm 2. アルゴリズム2で異常値の計算と異常の検出を行うsmcを結論づける。 0.70
For the full multivariate time series matrix, X ∈ RM×T , we slice them into nonoverlapped chunks, and reconstruct each of them individually. 完全多変量時系列行列 X ∈ RM×T に対して、それらを非オーバーラップされたチャンクに分割し、それぞれを個別に再構成する。 0.65
V. EXPERIMENTS We present the experiment for robust modeling and anomaly detection for multi-dimensional correlated time series, compared with peer VAE methods. V.実験 本稿では,多次元相関時系列に対するロバストなモデリングと異常検出実験を,ピアVAE法と比較した。 0.73
Recall that in this paper we deal with point level anomaly detection without supervision. 本稿では,点レベルの異常検出を監督なしで処理する。 0.66
A. Protocols and Settings A.プロトコルと設定 0.93
Performance Metrics. パフォーマンス・メトリックス。 0.73
For time series data X ∈ RM×T , the model outputs anomaly score matrix A ∈ RM×T , and each item Am,t is the likelihood of data point xm,t being an anomaly. 時系列データ X ∈ RM×T に対して、モデルは異常スコア行列 A ∈ RM×T を出力し、各項目 Am,t は異常でないデータ点 xm の確率である。
訳抜け防止モード: 時系列データ X ∈ RM×T の場合、モデルは異常スコア行列 A ∈ RM×T を出力する。 そして各項目 Am, t はデータ点 xm の可能性であり、t は異常である。
0.84
For detection, we set a threshold α to obtain the final anomalies label indicator matrix Iα := A > α. 検出にはしきい値αを設定し,最終異常指標行列 Iα := A > α を得る。 0.75
Then Algorithm 2: Sequential Monte Carlo (SMC) for computing anomaly score and detecting anomalies. その後 アルゴリズム2:異常スコアを計算し、異常を検出するためのシーケンスモンテカルロ(SMC)。 0.73
Input: Trained model θ, φ, threshold α, time series chunk X ∈ RM×W , # of SMC iterations L. Output: Anomaly score A, detected anomaly Iα Initialize A = 0 ; for l = 1 to L do 入力: 訓練されたモデル θ, φ, しきい値 α, 時系列チャンク X ∈ RM×W , # of SMC iterations L. output: Anomaly score A, detected anomaly Iα Initialize A = 0 ; for l = 1 to L do 0.92
for t = 1 to W do t = 1 から W に対して 0.90
xt = X:,t;  ∼ N (0, I)//random sampling; [µz,t, σz,t] = ϕenc zt = µz,t + σz,t (cid:12)  // reparam trick; [µx,t, σx,t] = ϕdec ht = fθ (ϕz A:,t += − 1 xt = X:,t; > N (0, I)/ ランダムサンプリング; [μz,t, σz,t] = φenc zt = μz,t + σz,t (cid:12) > // reparam trick; [μx,t, σx,t] = φdec ht = fθ (φz A:,t += − 1) 0.91
θ (zt), ht−1)//recurrence; L log p(xt|µx,t, σx,t); θ (zt, ht−1)//recurrence; L log p(xt|μx,t, σx,t) 0.90
θ (xt), ht−1)//encoding; θ (zt), ht−1)//decoding; θ (xt), ht−1)//エンコーディング; θ (zt), ht−1)//デコード 0.88
φ (ϕx φ (複数形 φs) 0.51
θ (ϕz end end Iα = A > α; // element-wise comparison; return A, Iα; θ(φz) 終わり end Iα = A > α; // element-wise comparison; return A, Iα 0.81
we compute precision, recall, true positive rate (TPR), false positive rate (FPR) at time series point level. 我々は,精度,リコール,真正率(TPR),偽正率(FPR)を時系列レベルで計算する。 0.71
Trade-off is needed as the detection characteristics vary by different threshold α. 検出特性が異なる閾値αで変化するため、トレードオフが必要となる。 0.68
When threshold is tight, the precision will be higher and recall will be lower. しきい値がきつくなれば、精度が高くなり、リコールは低くなります。 0.64
We compute area under receiver operating characteristic (AUROC), area under precision recall curve (AUPRC) and the best F1-score. 我々は、受信動作特性(AUROC)、高精度リコール曲線(AUPRC)、最高のF1スコアの領域を算出する。 0.76
AUROC quantifies the FPR and TPR with different α, and AUPRC quantifies the precision and recall with different α. AUROCはFPRとTPRを異なるαで定量化し、AUPRCは異なるαで精度とリコールを定量化する。 0.74
Note that all three metrics are independent of specific threshold. 3つのメトリクスはすべて特定のしきい値とは無関係であることに注意してください。 0.43
There are inherent differences between AUROC and AUPRC. AUROCとAUPRCには固有の違いがある。 0.77
For anomaly detection tasks where class (anomaly or normal data points) distributions are heavily imbalances, the AUROC metric is less insensitive to false positives than the AUPRC metric. クラス(異常点または通常のデータ点)の分布が非常に不均衡な異常検出タスクの場合、AUROCメトリックはAUPRCメトリックよりも偽陽性に敏感ではない。 0.77
As discussed in [44], [45], the AUPRC score is more discriminative than AUROC score. 44][45]で議論されているように、AUPRCスコアはAUROCスコアよりも差別的です。 0.68
Previous work may choose one of the metrics to evaluate the performance. 以前の作業では、パフォーマンスを評価するためのメトリクスの1つを選択できる。 0.56
To comprehensively evaluate the model’s performance, we report both AUROC and AUPRC scores, but we mainly focus on analysis AUPRC in this paper. モデルの性能を総合的に評価するために、AUROCとAUPRCの両方のスコアを報告するが、本論文ではAUPRCの分析に主に焦点をあてる。 0.70
Peer methods. Recent deep learning based methods are Peerメソッド。 最近のディープラーニングベースの手法は 0.64
compared, including Donut and STORN. DonutおよびSTORNを含む比較。 0.67
• Donut [3]. • ドーナツ [3]。 0.56
The model proposed very recently is based on VAE, which takes a fixed length sliding windows of an uni-variate time series as input. 非常に最近提案されたモデルは、単変量時系列の固定長スライディングウィンドウを入力とするVAEに基づいている。 0.76
To capture ‘normal patterns’ of data, the modified ELBO technique is devised to leverage generative model pθ (x|z) and latent regularization pθ (z) of VAE, such that the model is encouraged to learn only normal patterns. データの「正規パターン」を捉えるために、修正elbo手法は生成モデルpθ (x|z) とvaeの潜在正規化pθ (z) を活用し、モデルが正規パターンのみを学ぶことを奨励する。 0.74
• STORN [30]. • STORN [30]。 0.66
As a sequential version of VAE, the model is based on stochastic recurrent neural network (STORN). VAEのシーケンシャルバージョンとして、このモデルは確率的リカレントニューラルネットワーク(STORN)に基づいている。 0.72
Different from SISVAE, the sequences of latent variables zt are generated independently. SISVAEと異なり、潜伏変数 zt の列は独立に生成される。 0.70
The model uses lower bound output as anomaly score. モデルは異常スコアとして低い境界出力を使用する。 0.66
We also include three traditional statistical models. 伝統的な統計モデルも3つある。 0.75
• History Average (HA). ・歴史平均(HA)。 0.64
We use absolute deviation from history average value as anomaly score. 履歴平均値から絶対偏差を異常スコアとして使用します。 0.65
We include this これには 0.55
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. JOURNAL OF LATEX CLASS FILES, VOL。 0.78
14, NO. 8, AUGUST 2018 14、いいえ。 8 AUGUST 2018 0.66
8 model in comparison to show how a very simple model perform within different datasets. 8 比較してモデル 異なるデータセット内で非常に単純なモデルがどのように振る舞うかを示す。 0.77
• Auto-regressive Moving Average (ARMA) [46]. •自動回帰移動平均(ARMA) [46]。 0.73
ARMA is a classic time series analysis model [47]. ARMAは古典的な時系列分析モデル[47]です。 0.90
We use absolute fitting residuals as anomaly score. 絶対整合残差を異常スコアとして用いる。 0.64
• Linear Dynamical System (LDS). •線形動的システム(LDS)。 0.77
This model is also known as Kalman filter. このモデルはカルマンフィルタ(Kalman filter)とも呼ばれる。 0.65
Different from deep latent variable based state space models, the transition function and emission probability are linear (see Table II). 深い潜在変数ベースの状態空間モデルとは異なり、遷移関数と放出確率は線形である(表II参照)。 0.79
We further include some variants of our model, to study the さらに、私たちのモデルのいくつかのバリエーションを含み、研究します。 0.58
contribution and behavior of each component in our model. モデルにおける各コンポーネントの貢献と行動。 0.80
• SISVAE-p Our recommended model, which uses the sliding windows of a time series matrix as input, similar to Donut. SISVAE-p 時系列行列のスライディングウィンドウを入力として使用する推奨モデル。
訳抜け防止モード: SISVAE - p 私たちの推奨モデル。 Donut と同様、時系列行列のスライディングウィンドウを入力として使用します。
0.62
This model is more applicable for long sequences. このモデルは長い順序のためにより適当です。 0.66
• SISVAE-e. Different from SISVAE-p, it takes absolute reconstruction error as anomaly score. SISVAE-e。 SISVAE-pと異なり、異常点として絶対再構成誤差を取ります。 0.56
We use this model to show the performance gap by different detection criteria. このモデルを用いて、異なる検出基準による性能ギャップを示す。 0.76
• SISVAE-0 To show the effect of our smoothness regu• VAE-s. To test the contribution of the proposed smoothness prior technique, we add the regularization to vanilla VAE as a comparison named VAE-s. SISVAE-0 我々の滑らかさの効果を示すために, VAE-s。提案した滑らかさ先行手法の寄与を検証するため, VAE-sとしてバニラVAEに正規化を加える。 0.66
The model can be viewed as our SISVAE model without latent temporal structure. このモデルは潜在時間構造を伴わずにsisvaeモデルと見なすことができる。 0.69
We use this model to show the effectiveness of introducing latent temporal structure. このモデルを用いて、潜時構造の導入の有効性を示す。 0.71
larizer, we let SISVAE-0 to be SISVAE-p for λ = 0 . larizer では SISVAE-0 を λ = 0 に対して SISVAE-p とする。 0.72
In particular, we compare the characteristics of peer methods in Table II, whereby both traditional methods i.e. 特に、テーブルIIにおけるピアメソッドの特性を比較し、従来の方法、すなわち2つの方法を比較します。
訳抜け防止モード: 特に、テーブルIIにおけるピアメソッドの特性を比較します。 伝統的な方法 すなわち
0.72
History Average (HA), Autoregressive Moving Average (ARMA), Kalman Filter (KMF) and deep latent model i.e. History Average (HA)、Autoregressive moving Average (ARMA)、Kalman Filter (KMF)、Deep Latent model (e.e.)。 0.84
Donut, STORN, SISVAE, SISVAE-mb are included. ドーナツ、STORN、SISVAE、SISVAE-mbを含む。 0.60
Implementation details For preprocessing, we set window size W to be 120 for each dataset. プリプロセッシングの実装の詳細は、各データセットのウィンドウサイズwを120に設定します。 0.75
The sequential VAE based models, STORN, and SISVAE have a similar network architecture, which is defined by two varying hyperparameters, h dim for dimension of hidden layer, and z dim for dimension of latent variable z. シーケンシャル vae ベースのモデルである storn と sisvae は類似のネットワークアーキテクチャを持ち、隠れた層の次元の h dim と潜在変数 z の次元の z dim という2つの異なるハイパーパラメータによって定義される。 0.78
We set h dim to be 200, and z dim to be 40 for all datasets. 我々はh dimを200、z dimを全データセットの40と設定した。 0.71
We empirically set the smoothness regularization hyper-parameter λ = 0.5 for SISVAE during training process. トレーニングプロセス中のSISVAEの平滑度正規化ハイパーパラメータλ = 0.5を経験的に設定した。 0.56
The encoder, decoder, and RNN of models use the same hidden dimension. モデルのエンコーダ、デコーダ、RNNは同じ隠された次元を使用します。 0.72
The three models are implemented using PyTorch [48] 0.4, and trained on a single Nvidia RTX 2080ti GPU. 3つのモデルはpytorch 0.4で実装され、nvidia rtx 2080ti gpuでトレーニングされている。 0.79
We train the three models 200 epochs using Adam [49] with learning rate 0.001. 学習率0.0001のadam [49]を用いて3つのモデル200エポックを訓練した。 0.60
Note for Donut, the M-ELBO technique proposed by Donut may require some anomaly labels to learn ‘normal’ patterns. Donut氏の提案するM-ELBOテクニックは,‘通常の’パターンを学ぶために,いくつかの異常ラベルを必要とする可能性がある。 0.59
For fair comparison, we provide no anomaly label to the model, and the experiments are conducted under fully unsupervised setting. 公平な比較のために、モデルに異常なラベルを持たず、完全に教師なしの環境で実験を行う。 0.56
We use the code open sourced by the authors. 著者がオープンソースにしたコードを使用します。 0.65
We set h dim to be 200, and z dim to be 40, same as our model. 私たちはh dimを200、z dimを40と設定しました。
訳抜け防止モード: h dim (複数形 h dims) 200ドルです そしてzディムは40になります 我々のモデルと同じです
0.67
The model is fundamentally designated for univariate time series and it is nontrivial to extend it to the multi-dimensional case. このモデルは基本的に一変数時系列に指定され、多次元の場合に拡張することは非自明である。 0.61
We test two settings: 1) train a model for each sequence individually, and compute anomaly score individually; 2) flatten the multi-dimensional time series data after preprocessing to accommodate the model, the anomaly score is computed together. 1)各シーケンスのモデルを個別にトレーニングし、個別に異常スコアを計算する。2)モデルに適応するために前処理後の多次元時系列データを平らにし、異常スコアを一緒に計算する。 0.76
We find the second protocol exhibits better performance. 第二のプロトコルはより良いパフォーマンスを示す。 0.81
This may be because the normal これは普通だからかもしれない 0.69
STATISTICS OF THE USED DATASETS. 使用済みデータセットの統計。 0.49
TABLE III Dataset # sequences # length # points # anomalies # proportion テーブルIII Dataset # sequences # length # points # anomalies # proportion 0.74
A1 65 1420 92300 1462 1.58% A1 65 1420 92300 1462 1.58% 0.86
A2 100 1421 142100 A2 100 1421 142100 0.98
426 0.32% A3 100 1680 168000 426 0.32% A3 100 1680 168000 0.88
943 0.56% A4 100 1680 168000 1044 0.62% 943 0.56% A4 100 1680 168000 1044 0.62% 0.82
µPMU 36 1080 38800 240 0.62% μPMU 36 1080 38800 240 0.62% 0.85
patterns are common along different sequences. パターンは、異なるシーケンスに沿って共通する。 0.68
With more sequences as input, the model can be less influenced by anomalies. 入力としてより多くのシーケンスを持つと、モデルは異常の影響を少なくできる。 0.68
We adopt the second protocol for Donut in the experiments. 実験では、Donutの第2のプロトコルを採用します。 0.71
For all deep latent variable models, we use negative reconstruction probability as anomaly score output. すべての潜伏変数モデルに対して、異常スコア出力として負の再構成確率を用いる。 0.66
For all three traditional statistical models, we use the same preprocessing method. 従来の3つの統計モデルでは、同じ前処理方法を使う。 0.81
For history average (HA), the anomaly score is absolute observation value since all series have zero mean. 履歴平均(HA)では、異常スコアはすべての系列がゼロ平均であるため絶対観測値である。 0.81
For ARMA and LDS, we use absolute reconstruction error as anomaly score. ARMA と LDS では,絶対再構成誤差を異常スコアとして用いる。 0.72
B. Experiments on Synthetic Data B。 合成データに関する実験 0.81
In this section, we aim to gain insights into the behavior of our proposed SISVAE model. 本節では,提案するsisvaeモデルの挙動について考察することを目的とする。 0.62
We investigate the anomaly detection performance of our model for different proportions of anomalies. モデルの異常検出性能を異なる割合の異常に対して検討する。 0.70
Furthermore, we are interested in the anomaly detection performance under different settings of smoothness regularization hyper-parameter λ. さらに,スムースネス正規化ハイパーパラメータλの異なる設定下での異常検出性能にも興味がある。 0.82
Referring the synthetic data generation protocol in [24], we generate 100 time series sequences of length 200 from a multi-output Gaussian process with a multiple output kernel [50], implemented by a python package named GPy [51]. 24]の合成データ生成プロトコルを参照して、GPy[51]というピトンパッケージによって実装された複数の出力カーネル[50]を備えたマルチ出力ガウスプロセスから長さ200の100の時系列シーケンスを生成します。 0.80
Sequences are correlated through a random sampled positive definite coregionalization matrix, and we add random nonstationary Gaussian noise on the 100-dimensional sequence of length 200. ランダムにサンプリングされた正定値同領域化行列を介してシーケンスを関連付け、長さ200の100次元列にランダムな非定常ガウス雑音を付加する。
訳抜け防止モード: 配列はランダムな正定値コリージョン化行列によって相関する。 長さ200の100次元列にランダムな非定常ガウスノイズを加える。
0.80
The location of anomalies is simulated by a binary mask with Bernoulli distribution of probability {0.5%, 1%, 2%, 5%, 10%} for different fractions of anomalies. 異常の位置は、確率 {0.5%, 1%, 2%, 5%, 10%} のベルヌーリ分布を持つ2進マスクによってシミュレーションされる。
訳抜け防止モード: 異常の位置は、確率 {0.5 %, のベルヌーイ分布を持つ二項マスクによってシミュレートされる。 1 %, 2 %, 5 %, 10 % } の異なる割合の異常がある。
0.83
We insert Poisson noise where the binary mask is equal to one as anomalies, and the intensity λt of each anomaly is proportional to the amplitude of inserted place xt. 二つのマスクが1つの異常として等しいポアソンノイズを挿入し、各異常の強度λtは挿入された位置 xt の振幅に比例する。 0.84
The plus and minus sign is random sampled from Bernoulli distribution with p = 0.5. プラスとマイナス記号は、ベルヌーリ分布からp = 0.5でランダムにサンプリングされる。 0.70
Effects of anomaly proportion. Model performance variation with respect to the proportion of anomalies is shown in Fig. 異常率の影響。 異常の割合に関するモデル性能の変化を図に示します。 0.69
4(a). Since all they are inevitably influenced by the anomalies, because a full reconstruction of both normal and anomaly data is encouraged in the objective function. 4(a)。 これら全ては必然的に異常の影響を受けているため、目的関数において正常データと異常データの完全な再構築が奨励される。 0.74
The proposed variational smoothness regularizer places penalties at consecutive outputs of the generative model that violate the temporal smoothness assumption. 提案する変分平滑性正規化器は、時間的平滑性仮定に違反する生成モデルの連続出力にペナルティを割り当てる。 0.72
As observed from the result, as the anomaly proportion grows, the AUPRC scores of two un-regularized model SISVAE-0 and STORN drop significantly, while the regularized models’ performance almost keeps maintained. その結果, 異常比が大きくなるにつれて, AUPRC スコアは非正規化モデル SISVAE-0 と STORN の2つのスコアが大幅に低下し, 正規化モデルの性能はほぼ維持された。 0.70
SISVAE-0, the proposed SISVAE model shows superior performance over competing methods in all settings of anomaly proportion. SISVAE-0は、異常比の全ての設定において競合する手法よりも優れた性能を示す。 0.63
the models are unsupervised, Effects of regularization hyper-parameter. モデルは監視されず 正規化ハイパーパラメータの効果 0.74
The variational smoothness hyper-parameter λ in the objective by Eq. Eqによる目的における変動平滑性ハイパーパラメータλ 0.89
17 17 0.85
英語(論文から抽出)日本語訳スコア
err 翻訳エラー 0.00
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. JOURNAL OF LATEX CLASS FILES, VOL。 0.78
14, NO. 8, AUGUST 2018 14、いいえ。 8 AUGUST 2018 0.66
10 PERFORMANCE ON REAL-WORLD PUBLIC DATASETS. 10 実運用型公共データの性能評価 0.64
SISVAE-E IS OMITTED FOR ITS WORSE PERFORMANCE THAN SISVAE-P. SISVAE-Eは、SSISVAE-Pの不正なパフォーマンスのために省略されます。 0.41
TABLE IV Dataset テーブルIV データセット 0.63
A1 A2 A3 A4 A1 A2 A3 A4 0.78
µPMU Metric AUROC AUPRC μPMU Metric AUROC AUPRC 0.82
AUROC AUPRC AUROC AUPRC 0.85
AUROC AUPRC AUROC AUPRC 0.85
F1 F1 F1 AUROC AUPRC F1 F1 F1 AUROC AUPRC 0.80
AUROC AUPRC AUROC AUPRC 0.85
F1 F1 HA 0.616 0.276 0.337 0.956 0.745 0.774 0.724 0.252 0.331 0.715 0.107 0.165 0.629 0.084 0.225 F1 F1 HA 0.616 0.276 0.337 0.956 0.745 0.774 0.724 0.252 0.331 0.715 0.107 0.165 0.629 0.084 0.225 0.66
ARMA 0.845 0.305 0.351 0.658 0.233 0.457 0.486 0.005 0.011 0.487 0.005 0.010 0.587 0.023 0.049 ARMA 0.845 0.305 0.351 0.658 0.233 0.457 0.486 0.005 0.011 0.487 0.005 0.010 0.587 0.023 0.049 0.43
LDS 0.664 0.099 0.140 0.952 0.401 0.480 0.989 0.835 0.831 0.979 0.737 0.745 0.805 0.303 0.356 LDS 0.664 0.099 0.140 0.952 0.401 0.480 0.989 0.835 0.831 0.979 0.737 0.745 0.805 0.303 0.356 0.43
Donut 0.825 0.178 0.215 0.999 0.623 0.691 0.990 0.753 0.798 0.991 0.598 0.704 0.714 0.312 0.389 Donut 0.825 0.178 0.215 0.999 0.623 0.691 0.990 0.753 0.798 0.991 0.598 0.704 0.714 0.312 0.389 0.43
STORN 0.867 0.166 0.240 0.926 0.435 0.515 0.917 0.732 0.757 0.850 0.438 0.478 0.684 0.185 0.279 STORN 0.867 0.166 0.240 0.926 0.435 0.515 0.917 0.732 0.757 0.850 0.438 0.478 0.684 0.185 0.279 0.43
SISVAE-0 0.862 0.184 0.254 0.974 0.608 0.588 0.912 0.746 0.791 0.834 0.521 0.582 0.628 0.174 0.247 SISVAE-0 0.862 0.184 0.254 0.974 0.608 0.588 0.912 0.746 0.791 0.834 0.521 0.582 0.628 0.174 0.247 0.50
VAE-s 0.886 0.185 0.254 0.993 0.536 0.611 0.907 0.713 0.763 0.836 0.525 0.573 0.629 0.089 0.228 VAE-s 0.886 0.185 0.254 0.993 0.536 0.611 0.907 0.713 0.763 0.836 0.525 0.573 0.629 0.089 0.228 0.41
SISVAE-e 0.865 0.300 0.358 0.989 0.731 0.709 0.951 0.865 0.880 0.831 0.521 0.582 0.630 0.153 0.244 SISVAE-e 0.865 0.300 0.358 0.989 0.731 0.709 0.951 0.865 0.880 0.831 0.521 0.582 0.630 0.153 0.244 0.50
SISVAE-p 0.876 0.369 0.401 0.981 0.817 0.789 0.993 0.954 0.951 0.924 0.774 0.820 0.814 0.310 0.367 SISVAE-p 0.876 0.369 0.401 0.981 0.817 0.789 0.993 0.954 0.951 0.924 0.774 0.820 0.814 0.310 0.367 0.50
(a) Yahoo-A1 (a) Yahoo-A1 0.74
(b) Yahoo-A2 (b) Yahoo-A2 0.74
(c) Yahoo-A3 (c) Yahoo-A3 0.74
(d) Yahoo-A4 (d) Yahoo-A4 0.74
(e) µPMU Fig. (e)μPMU フィギュア。 0.69
6. Visualization of precision and recall curve of SISVAE-p, Donut, LDS, and STORN on real-world datasets. 6. 実世界データセット上のSISVAE-p, Donut, LDS, STORNの精度とリコール曲線の可視化 0.83
(a) Yahoo-A1 (a) Yahoo-A1 0.74
(b) Yahoo-A2 (b) Yahoo-A2 0.74
(c) Yahoo-A3 (c) Yahoo-A3 0.74
(d) Yahoo-A4 (d) Yahoo-A4 0.74
(e) µPMU Fig. (e)μPMU フィギュア。 0.69
7. Visualization of receiver operating characteristic (ROC) of SISVAE-p, Donut, LDS, and STORN on real-world datasets. 7. 実世界データセット上のSISVAE-p, Donut, LDS, STORNの受信機動作特性(ROC)の可視化 0.81
CA, USA with advanced smart meters called phasor measurement units (µPMU)3 [52]. phasor measurement unit (μpmu)3 [52] と呼ばれる,高度なスマートメータを備えた米国。 0.79
There are three µPMU devices, each recording three-phase voltage and current magnitude and phase angle. 3つのμPMUデバイスがあり、それぞれが3相電圧と電流等級と位相角を記録する。 0.67
Anomalies caused by voltage disturbance are labeled by human experts. 電圧乱れによる異常は、人間の専門家によってラベル付けされる。 0.54
We collect measurement data and anomaly labels during the whole day of June 3 with 20 seconds resolution. 我々は6月3日の全日中20秒の解像度で測定データと異常ラベルを収集した。 0.73
We use 36dimensional time series of length 1080. 長さ1080の36次元の時系列を使います 0.70
Preprocessing In real application, different time series may have different scales, e.g. 実際のアプリケーションでは、異なる時系列はスケールが異なる場合があります。 0.74
temperature and air pressure sensors have different scales. 温度センサーと気圧センサーは異なるスケールを持つ。 0.82
So we follow the common practice to normalize each sequence to standard normal distribution. したがって、各シーケンスを標準正規分布に正規化する共通の慣習に従う。 0.77
Threshold based anomaly detection. 閾値に基づく異常検出。 0.85
First, we conduct threshold based anomaly detection experiment. まず,しきい値に基づく異常検出実験を行う。 0.86
For each model, we collect anomaly score matrix A for each model, 各モデルに対して,各モデルに対して異常スコア行列Aを収集する。 0.75
3https://powerdata.l bl.gov 3https://powerdata.l bl.gov 0.43
then we compute AUROC, AUPRC and F1-score for each possible threshold α. 次に auroc, auprc, f1-score をしきい値 α ごとに計算する。 0.65
We select the highest F1-score the model could achieve as the final F1-score. モデルが最終F1スコアとして達成できる最高のF1スコアを選択します。 0.63
We compare all the peer methods in this experiment, whose results are shown in Table IV. この実験では、結果を表IVに示すすべてのピアメソッドを比較します。 0.77
SISVAE-p outperforms other models in most datasets and metrics. SISVAE-pは、ほとんどのデータセットとメトリクスの他のモデルよりも優れています。 0.39
For SISVAE-p and SISVAE-e, we find that our proposed SMC based reconstruction probability for computing anomaly score notably improves the performance. SISVAE-p と SISVAE-e では,提案された SMC に基づく異常点計算の復元確率が性能を著しく向上させることが明らかになった。 0.65
Among all the five datasets, we find SISVAE-p and SISVAEe perform similar on A2 dataset. 5つのデータセットのうち、SISVAE-pとSISVAEeはA2データセットで同様の処理を行う。 0.50
We further find that the A2 dataset is in general stationary regarding with variance, which means that modeling the time-varying variance is important for anomaly detection. さらに、A2データセットは分散に関する一般的な定常的であり、時間変動のモデル化は異常検出にとって重要であることを意味する。 0.73
For traditional statistical models, we find the simple method HA shows decent performance in some datasets, however, the potential of HA is very limited. 従来の統計モデルでは、いくつかのデータセットにおいてHAは十分な性能を示すが、HAの可能性は非常に限られている。
訳抜け防止モード: 従来の統計モデルでは、HA法はいくつかのデータセットで十分な性能を示す。 しかし、HAのポテンシャルは非常に限られている。
0.67
We are surprised that ARMA failed on A3, A4 and µPMU dataset. ARMAがA3、A4、μPMUデータセットで失敗したことに驚きました。 0.63
0.00.20.40.60.81.0Re call0.00.20.40.60.81 .0PrecisionSISVAE-p: 0.369Donut :0.178LDS :0.099STORN :0.1660.00.20.40.60. 81.0Recall0.00.20.40 .60.81.0PrecisionSIS VAE-p:0.817Donut :0.623LDS :0.401STORN :0.4350.00.20.40.60. 81.0Recall0.00.20.40 .60.81.0PrecisionSIS VAE-p:0.954Donut :0.753LDS :0.835STORN :0.7320.00.20.40.60. 81.0Recall0.00.20.40 .60.81.0PrecisionSIS VAE-p:0.774Donut :0.598LDS :0.737STORN :0.4380.00.20.40.60. 81.0Recall0.00.20.40 .60.81.0PrecisionSIS VAE-p:0.310Donut :0.312LDS :0.303STORN :0.1850.00.20.40.60. 81.0False Positive Rate0.00.20.40.60.81 .0True Positive RateSISVAE-p:0.876Do nut :0.825LDS :0.664STORN :0.8670.00.20.40.60. 81.0False Positive Rate0.00.20.40.60.81 .0True Positive RateSISVAE-p:0.981Do nut :0.999LDS :0.952STORN :0.9260.00.20.40.60. 81.0False Positive Rate0.00.20.40.60.81 .0True Positive RateSISVAE-p:0.993Do nut :0.990LDS :0.989STORN :0.9170.00.20.40.60. 81.0False Positive Rate0.00.20.40.60.81 .0True Positive RateSISVAE-p:0.924Do nut :0.991LDS :0.979STORN :0.8500.00.20.40.60. 81.0False Positive Rate0.00.20.40.60.81 .0True Positive RateSISVAE-p:0.814Do nut :0.714LDS :0.805STORN :0.684 0.00.20.40.60.81.0Re call0.00.20.40.60.81 .0PrecisionSISVAE-p: 0.369Donut :0.178LDS :0.099STORN :0.1660.00.20.40.60. 81.0Recall0.00.20.40 .60.81.0PrecisionSIS VAE-p:0.817Donut :0.623LDS :0.401STORN :0.4350.00.20.40.60. 81.0Recall0.00.20.40 .60.81.0PrecisionSIS VAE-p:0.954Donut :0.753LDS :0.835STORN :0.7320.00.20.40.60. 81.0Recall0.00.20.40 .60.81.0PrecisionSIS VAE-p:0.774Donut :0.598LDS :0.737STORN :0.4380.00.20.40.60. 81.0Recall0.00.20.40 .60.81.0PrecisionSIS VAE-p:0.310Donut :0.312LDS :0.303STORN :0.1850.00.20.40.60. 81.0False Positive Rate0.00.20.40.60.81 .0True Positive RateSISVAE-p:0.876Do nut :0.825LDS :0.664STORN :0.8670.00.20.40.60. 81.0False Positive Rate0.00.20.40.60.81 .0True Positive RateSISVAE-p:0.981Do nut :0.999LDS :0.952STORN :0.9260.00.20.40.60. 81.0False Positive Rate0.00.20.40.60.81 .0True Positive RateSISVAE-p:0.993Do nut :0.990LDS :0.989STORN :0.9170.00.20.40.60. 81.0False Positive Rate0.00.20.40.60.81 .0True Positive RateSISVAE-p:0.924Do nut :0.991LDS :0.979STORN :0.8500.00.20.40.60. 81.0False Positive Rate0.00.20.40.60.81 .0True Positive RateSISVAE-p:0.814Do nut :0.714LDS :0.805STORN :0.684 0.12
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. JOURNAL OF LATEX CLASS FILES, VOL。 0.78
14, NO. 8, AUGUST 2018 14、いいえ。 8 AUGUST 2018 0.66
11 (a) Yahoo-A1 11 (a) Yahoo-A1 0.79
(b) Yahoo-A2 (b) Yahoo-A2 0.74
(c) Yahoo-A3 (c) Yahoo-A3 0.74
(d) Yahoo-A4 (d) Yahoo-A4 0.74
(e) µPMU Fig. (e)μPMU フィギュア。 0.69
8. Visualization of precision@K for ranking based detection tasks on real-world datasets. 8. 実世界のデータセット上でのランキングベース検出タスクにおける精度@Kの可視化 0.75
Our further study uncovers that these three datasets are highly non-stationary with both mean and variance, which violate the basic stationary assumption of ARMA. さらに、これらの3つのデータセットは平均と分散の両方で非常に非定常であり、ARMAの基本的な定常仮定に反することが明らかとなった。 0.56
In contrast, we find LDS performs competitively on A3, A4 and µPMU comparing to the best model, however, it fails on dataset A1. 対照的に、LDSはA3、A4、μPMUで最高のモデルと比較すると競争力がありますが、データセットA1では失敗します。 0.61
This suggests that linear transition and linear emission probability of LDS may not be able to capture complex non-linear relationship. これは、LDSの線形遷移と線形放出確率が複雑な非線形関係を捕捉できないことを示唆している。 0.71
For VAE-s, the proposed smoothness prior regularizer works even without a temporal structure model. VAE-sの場合、提案された滑らかさ事前正規化器は時間構造モデルなしで機能する。 0.58
In our analysis, the regularizer constructs inductive bias of the true signal, leading to robustness to unknown anomaly. 解析では、正則化器は真の信号の帰納的バイアスを構築し、未知の異常に頑健性をもたらす。 0.64
As discussed, we find models’ anomaly detection performance varies across datasets, such as LDS and ARMA. 議論されたように、モデルの異常検出パフォーマンスは、LDSやARMAなどのデータセット間で変化します。 0.69
To make the overall performance comparison more intuitionistic, we compute the rank of models for each dataset and performance metric, and compute the mean and standard deviation of ranks for each models. 全体的なパフォーマンス比較をより直観的にするために、各データセットとパフォーマンスメトリックのモデルのランクを計算し、各モデルのランクの平均と標準偏差を計算します。 0.85
The plots of rankings are shown in Fig. ランキングのプロットは図に示されています。 0.68
5 showing our model outperforms other models notably. モデルが他のモデルよりも優れています。 0.57
Ranking based anomaly detection. ランキングに基づく異常検出。 0.78
Due to limited budget, sometimes we can only deal with a limited number of detected anomalies hence the precision need be high. 予算が限られているため、検出された異常の数が限られている場合もあり、精度が高い必要がある。 0.66
In this context, precision@K is a useful metric, which is widely used in information retrieval [53]. この文脈では、 precision@K は有用なメトリックであり、情報検索 [53] で広く使用されています。 0.74
For each model, we select data points that are assigned with top K highest anomaly score, and precision@K is computed by V /K, where V is the number of true anomalies in K predictions. 各モデルでは、最高K異常スコアで割り当てられたデータポイントを選択し、 precision@KはV / Kによって計算され、ここでVはK予測における真の異常の数です。 0.81
We examine models with K = 10, 50, 200, and the results are shown in Fig. 我々は、k = 10, 50, 200のモデルを調べ、その結果を図に示す。 0.75
8. We can see that, when K is 10, STORN, LDS and SISVAE-p perform well. 8. Kが10であるとき、STORN、LDSおよびSISVAE-pはよく機能することがわかります。 0.74
However, Donut fails on A2, A3 and A4 dataset. しかし、DonutはA2、A3、A4データセットで失敗する。 0.64
The reason is that Donut places very high anomaly score on some normal data points. 理由は、ドーナツが通常のデータポイントに非常に高い異常スコアを置くからである。 0.68
Overall, SISVAE-p’s precision keeps stable as K increases. 総じて、SISVAE-pの精度はKが増加するにつれて安定し続ける。 0.59
This means SISVAE-p makes more precise detection when the number of detection trials is limited. つまり、sisvae-pは、検出試験の数に制限がある場合により正確な検出を行う。 0.52
Model characteristics. The detection threshold α is often set according to specific needs. モデルの特徴。 検出しきい値αは、しばしば特定のニーズに応じて設定される。 0.75
In order to investigate the detailed detection characteristic, we plot the precisionrecall curve (PRC), and receiver operating characteristic curve (ROC), as shown in Fig. 詳細な検出特性を調べるために、図に示すように、精度リコール曲線(PRC)と受信機動作特性曲線(ROC)をプロットします。 0.80
6 and Fig. 7. 6およびFig。 7. 0.75
Comparing to LDS and STORN, SISVAE-p outperforms at most thresholds. LDSやSTORNと比較して、SISVAE-pはほとんどの閾値で優れています。 0.45
For precision and recall curve in Yahoo A2, A3 and A4 dataset, note that Donuts performs strangely, where the precision and recall curves do not monotonically decrease as expected, but increase first and then decrease. Yahoo A2、A3、A4データセットの精度とリコール曲線について、ドナッツは予想通り精度とリコール曲線が単調に減少せず、最初に増加し、次に減少する点に注意する必要がある。 0.62
We find this is because of Donut places very large anomaly scores to some normal points, while the other three models do not have this problem. これはドーナツがいくつかの正規点に対して非常に大きな異常点を持つためであり、他の3つのモデルにはこの問題はない。 0.65
This means modeling latent temporal dependencies is important for time series anomaly detection tasks. つまり、時系列異常検出タスクでは、潜時時間依存性のモデリングが重要である。 0.64
(a) studied dimension of the 65-dim time series labeled with ground truth anomaly windows (stretched twice compared to (b) and (c)) (a)地上真理異常窓(b)および(c)と比較して2度延びる)でラベル付けされた65次元時系列の次元を研究 0.81
(b) density estimation (c) anomaly detection score (b)密度推定 (c)異常検出スコア 0.79
Fig. 9. Example for time series without anomaly. フィギュア。 9. anomalyなしの時系列の例。 0.69
Note false alarm by STORN. STORNによる誤報に注意。 0.66
The trade-off between recall and precision. リコールと精度のトレードオフ。 0.47
Despite the fact that SISVAE-p is better than baselines in most cases, however, the preference of detection metric also affects the choice of model. しかし、多くの場合、SISVAE-pはベースラインよりも優れているにもかかわらず、検出基準の優先はモデルの選択にも影響を及ぼす。 0.64
It is important to know when to use which model. どのモデルを使用するかを知ることが重要です。 0.75
The cost of validating a detected anomaly can be expensive which calls for model’s high precision. 検出された異常を検証するコストは、モデルの高精度を要求される高価なものになり得る。 0.74
For largescale power grid system, it is required the precision need be strictly above 0.95. 大規模な電力網システムでは、精度が 0.95 以上である必要がある。 0.77
In this case, SISVAE-p outperforms other methods in recall. この場合、SISVAE-pはリコールの他の方法よりも優れています。 0.35
In contrast, for fraud detection, recall can be more important. 対照的に、不正検出の場合、リコールがより重要です。 0.42
If we set a hard bar for recall to 0.95, we find Donut is also competitive, it outperforms SISVAE-p in A2 and A4 dataset w.r.t. リコールのハードバーを 0.95 に設定すると、ドーナツも競争力があり、a2 と a4 データセット w.r.t で sisvae-p を上回る。 0.59
precision. D. Case study 正確さ D.ケーススタディ 0.74
We compare the three deep generative models, SISVAE-p, STORN, and Donut with real-world examples from YahooA1 dataset. SISVAE-p、STORN、Donutの3つの深層生成モデルとYahooA1データセットの実例を比較した。 0.75
For each model, we choose to set threshold α when F1-score is maximized. 各モデルについて、f1-scoreの最大化時にしきい値 α を設定する。 0.67
The dataset consists of 65 sequences each with length 1420. データセットは、それぞれ長さ1420の65のシーケンスで構成されている。 0.59
In what follows we show some representative time series fragments for discussion. 以下では、議論のための代表的な時系列断片を紹介します。 0.57
False alarms on normal time series. 正常な時系列の偽の警報。 0.73
Figure 9(a) shows a normal sequence without any anomaly. 図9(a)は異常のない通常のシーケンスを示しています。 0.76
Since the training data is contaminated with anomalies, the model can be influenced by anomalies and fails to capture normal patterns such that false alarms can be be reported. トレーニングデータは異常によって汚染されるため、モデルは異常に影響され、誤ったアラームが報告されるような正常なパターンをキャプチャできません。
訳抜け防止モード: トレーニングデータは異常で汚染されているため、モデルが異常の影響を受け得る 誤報を報告できるような 正常なパターンを捉えるのに失敗します
0.83
Figure 9(b) illustrates the density estimation of the three models, and Fig. 図9(b)は、3つのモデルの密度推定とfigを示します。 0.78
9(c) shows Precision@10Precisio n@50Precision@2000.0 0.20.40.60.81.0Preci sion0.900.800.580.70 0.540.511.000.840.52 1.000.960.92DonutSTO RNLDSSISVAE-pPrecisi on@10Precision@50Pre cision@2000.00.20.40 .60.81.0Precision0.2 00.480.701.000.940.8 01.000.660.691.001.0 00.99DonutSTORNLDSSI SVAE-pPrecision@10Pr ecision@50Precision@ 2000.00.20.40.60.81. 0Precision0.000.420. 791.001.001.001.001. 001.001.001.001.00Do nutSTORNLDSSISVAE-pP recision@10Precision @50Precision@2000.00 .20.40.60.81.0Precis ion0.100.400.661.001 .000.931.001.001.001 .001.001.00DonutSTOR NLDSSISVAE-pPrecisio n@10Precision@50Prec ision@2000.00.20.40. 60.81.0Precision1.00 0.880.470.700.820.34 1.000.780.441.000.90 0.47DonutSTORNLDSSIS VAE-p050100150200250 300350time1012observ ation valuesequence # 2observation sequenceanomalies202 SISVAE-p202STORN0306 09012015018021024027 0300330360Time202Don utobservation valueestimated density0246SISVAE-p0 246STORN030609012015 01802102402703003303 60Time0246Donutanoma ly scorethresholddetect ed anomalies 9(c)が示す Precision@10Precisio n@50Precision@2000.0 0.20.40.60.81.0Preci sion0.900.800.580.70 0.540.511.000.840.52 1.000.960.92DonutSTO RNLDSSISVAE-pPrecisi on@10Precision@50Pre cision@2000.00.20.40 .60.81.0Precision0.2 00.480.701.000.940.8 01.000.660.691.001.0 00.99DonutSTORNLDSSI SVAE-pPrecision@10Pr ecision@50Precision@ 2000.00.20.40.60.81. 0Precision0.000.420. 791.001.001.001.001. 001.001.001.001.00Do nutSTORNLDSSISVAE-pP recision@10Precision @50Precision@2000.00 .20.40.60.81.0Precis ion0.100.400.661.001 .000.931.001.001.001 .001.001.00DonutSTOR NLDSSISVAE-pPrecisio n@10Precision@50Prec ision@2000.00.20.40. 60.81.0Precision1.00 0.880.470.700.820.34 1.000.780.441.000.90 0.47DonutSTORNLDSSIS VAE-p050100150200250 300350time1012observ ation valuesequence # 2observation sequenceanomalies202 SISVAE-p202STORN0306 09012015018021024027 0300330360Time202Don utobservation valueestimated density0246SISVAE-p0 246STORN030609012015 01802102402703003303 60Time0246Donutanoma ly scorethresholddetect ed anomalies 0.54
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. JOURNAL OF LATEX CLASS FILES, VOL。 0.78
14, NO. 8, AUGUST 2018 14、いいえ。 8 AUGUST 2018 0.66
12 (a) studied dimension of the 65-dim time series labeled with ground truth anomaly windows (stretched twice compared to (b) and (c)) 12 (a)地上真理異常窓(b)および(c)と比較して2度延びる)でラベル付けされた65次元時系列の次元を研究 0.83
(a) studied dimension of the 65-dim time series labeled with ground truth anomaly windows (stretched twice compared to (b) and (c)) (a)地上真理異常窓(b)および(c)と比較して2度延びる)でラベル付けされた65次元時系列の次元を研究 0.81
(b) density estimation (c) anomaly detection score (b)密度推定 (c)異常検出スコア 0.79
(b) density estimation (c) anomaly detection score (b)密度推定 (c)異常検出スコア 0.79
Fig. 10. フィギュア。 10. 0.64
Example for time series sample with point-level anomaly. 点レベルの異常のある時系列サンプルの例。 0.75
Note the false alarms by STORN and Donut. STORNとDonutによる誤報に注意してください。 0.65
Fig. 11. フィギュア。 11. 0.64
Example for time series sample with window-sized anomaly. ウィンドウサイズ異常の時系列サンプルの例。 0.79
Note the missed anomaly regions by STORN and Donut. STORN と Donut の欠落した異常領域に注意。 0.83
the anomaly score generated by three models. 3つのモデルによって生成される異常スコア。 0.62
Note STORN reports three false alarms, while SISVAE-p and Donut do not. Note STORNは3つの誤報を報告しますが、SISVAE-pとDonutは報告しません。 0.48
Moreover, we find the anomaly score generated by SISVAE-p is stably low, while Donut is more fluctuating given noisy data. さらに、SISVAE-pが生成する異常スコアは安定的に低く、Donutはノイズの多いデータによって変動する。 0.62
The results demonstrate that SISVAE-p is robust to contaminated data for unsupervised training. その結果,sisvae-pは教師なしトレーニングにおいて汚染データに対して頑健であることが判明した。 0.41
Detection of point-level anomalies. 点レベルの異常の検出。 0.67
Figure 10(a) includes a sequence from Yahoo-A1 dataset with anomaly at around time point 300. 図10(a)はYahoo-A1データセットからのシーケンスを含み、異常は300前後である。 0.69
This type of anomaly is often called additive outlier [54] or extreme value [55]. このタイプの異常はしばしば加法的外れ値[54]または極端な値[55]と呼ばれる。 0.82
As shown in Fig. 10(b), density estimation of STORN and Donut are corrupted by the point anomaly, such that they place much probability density to the anomaly point. 図に示すように。 10(b) において, STORN と Donut の密度推定は, 異常点に確率密度を与えるような点異常により破損する。 0.81
In contrast, SISVAE-p successfully recovers the true underlying density. 対照的にSISVAE-pは真の基底密度を回復する。 0.48
Figure 10(c) shows the anomaly score generated by the three models, and we can see that all the models identify the anomaly point. 図10(c)は、3つのモデルによって生成される異常スコアを示し、すべてのモデルが異常点を識別していることが分かる。 0.76
However, STORN and Donut report some false alarms. しかし、STORNとDonutは誤ったアラームを報告します。 0.67
Moreover, the anomaly score of SISVAE-p is more smooth than those of other models, suggesting that SISVAE-p is more robust to the moderate fluctuation of normal data. さらに、SISVAE-pの異常スコアは他のモデルよりも滑らかであり、SISVAE-pは通常のデータの適度な変動に対してより堅牢であることを示す。 0.63
Overall, SISVAE is capable of detecting point-level anomalies robustly. 総じてSISVAEは、点レベルの異常を堅牢に検出することができる。 0.43
Detection of sub-sequence level anomalies. サブシーケンスレベルの異常の検出。 0.81
In some cases, the anomalies is in the presence of sub-sequences, such as anomaly cardiac cycle in ECG data [56]. 場合によっては、異常は、ECGデータにおける異常心臓サイクルなどのサブシーケンスの存在にあります[56]。 0.80
Figure 11(a) shows a sequence with two anomaly sub-sequences, whereby the red shaded region covers the true anomaly. 図11(a)は、2つの異常サブシーケンスを持つシーケンスを示し、赤いシェード領域が真の異常をカバーする。 0.77
Figure 11(b) shows the density estimation, whereby Donut and STORN are notably influenced by the anomaly sub-sequence. 図11(b)は密度推定を示しており、ドーナツとSTORNは異常部分系列の影響が顕著である。 0.80
In contrast, SISVAEp estimates a smooth probability density over time, which is more likely to be the true density. 対照的にSISVAEpは時とともに滑らかな確率密度を推定するが、これは真の密度である可能性が高い。 0.64
Figure 11(c) shows SISVAEp successfully detects most of the anomaly sub-sequences, while STORN and Donut suffer from false negative and false positives. 図11(c)はSISVAEpが異常なサブシーケンスのほとんどを正常に検出し、STORNとDonutは偽陰性および偽陽性に苦しんでいます。 0.64
The results demonstrate the effectiveness of the proposed smoothness prior regularizer, helping recover the true density and improve detection performance. その結果,提案する平滑性優先調整器の有効性が示され,真の密度を回復し,検出性能が向上した。 0.70
Fig. 12. フィギュア。 12. 0.64
Generated Mackey-Glass time series data, and inserted anomalies. Mackey-Glass 時系列データの生成と挿入異常 0.74
(a) Precision and recall curve (a)精度及びリコール曲線 0.74
(b) Receiver operating characteristic (b)受信機動作特性 0.91
Fig. 13. フィギュア。 13. 0.64
Comparison of anomaly detection performance between SISVAE-p and Donut on Mackey-Glass time series dataset. Mackey-Glass 時系列データセットにおけるSISVAE-p と Donut の異常検出性能の比較 0.71
E. Further Comparison with Donut E.ドーナツとの比較 0.77
Simulation study on uni-variate time series. 一変量時系列のシミュレーション研究 0.68
As discussed in Section V-A, Donut is designated for uni-variate time series. セクションV-Aで説明されているように、ドーナツは単変時間系列に指定されている。 0.41
In order to investigate the detection performance in one-dimensional case, we conduct simulation study on data generated from Mackey-Glass equation [57], which serves a benchmark for nonlinear models since the true underlying function is nonlinear [58]. 1次元ケースでの検出性能を調べるために、真の基底関数が非線形[58]であるため、非線形モデルのベンチマークとなるMackey-Glass式[57]から生成されたデータのシミュレーション研究を行います。 0.85
The time series is generated as: 時系列は以下のようになる。 0.69
dx(t) dx (複数形 dxs) 0.77
dt = αx(t − τ ) 1 + xβ(t − τ ) dt = αx(t − τ ) 1 + xβ(t − τ ) 0.89
− γx, γ, β, n > 0, -γx γ, β, n > 0 である。 0.75
(26) 05010015020025030035 0time210123observati on valuesequence # 12observation sequenceanomalies202 4SISVAE-p2024STORN03 06090120150180210240 270300330360Time2024 Donutobservation valueestimated density0510SISVAE-p0 510STORN030609012015 01802102402703003303 60Time0510Donutanoma ly scorethresholddetect ed anomalies05010015020 0250300350time01234o bservation valuesequence # 16observation sequenceanomalies024 SISVAE-p024STORN0306 09012015018021024027 0300330360Time024Don utobservation valueestimated density2.50.02.55.07 .5SISVAE-p2.50.02.55 .07.5STORN0306090120 15018021024027030033 0360Time2.50.02.55.0 7.5Donutanomaly scorethresholddetect ed anomalies01000200030 004000321012true signalobesrvation value800820840860880 90021012230023202340 23602380240021012450 04525455045754600462 5465046754700210120. 00.20.40.60.81.0Reca ll0.00.20.40.60.81.0 PrecisionSISVAE-p:0. 550Donut :0.4220.00.20.40.60. 81.0False Positive Rate0.00.20.40.60.81 .0True Positive RateSISVAE-p:0.951Do nut :0.777 (26) 05010015020025030035 0time210123observati on valuesequence # 12observation sequenceanomalies202 4SISVAE-p2024STORN03 06090120150180210240 270300330360Time2024 Donutobservation valueestimated density0510SISVAE-p0 510STORN030609012015 01802102402703003303 60Time0510Donutanoma ly scorethresholddetect ed anomalies05010015020 0250300350time01234o bservation valuesequence # 16observation sequenceanomalies024 SISVAE-p024STORN0306 09012015018021024027 0300330360Time024Don utobservation valueestimated density2.50.02.55.07 .5SISVAE-p2.50.02.55 .07.5STORN0306090120 15018021024027030033 0360Time2.50.02.55.0 7.5Donutanomaly scorethresholddetect ed anomalies01000200030 004000321012true signalobesrvation value800820840860880 90021012230023202340 23602380240021012450 04525455045754600462 5465046754700210120. 00.20.40.60.81.0Reca ll0.00.20.40.60.81.0 PrecisionSISVAE-p:0. 550Donut :0.4220.00.20.40.60. 81.0False Positive Rate0.00.20.40.60.81 .0True Positive RateSISVAE-p:0.951Do nut :0.777 0.48
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. JOURNAL OF LATEX CLASS FILES, VOL。 0.78
14, NO. 8, AUGUST 2018 14、いいえ。 8 AUGUST 2018 0.66
13 with γ = 0.1, β = 10, α = 0.2. 13 with γ = 0.1, β = 10, α = 0.2. 0.88
We run the Mackey-Glass equation 5000 iterations, then we collect an uni-variate time series with length 5000. Mackey-Glass 方程式 5000 反復を実行し、長さ 5000 の単変時間系列を収集します。 0.73
Two types of anomalies are added: • Point level anomaly: we insert point anomalies at 0.3% time step randomly, each point anomaly is a combination of: i) Poisson noise with λ = 1; ii) Gaussian noise with zero mean and unit variance; iii) 0.2 fixed bias. •点レベルの異常:0.3%の時間ステップで点異常をランダムに挿入し、各点異常は以下の組み合わせである: i)ポアソンノイズとλ = 1; ii)平均と単位分散がゼロのガウスノイズ、iii)0.2の固定バイアス。 0.79
• Sub-sequence level anomaly: two sub-sequences anomalies are inserted, starting at random time step, with random length sampled from even distribution of range 10 ∼ 28. •サブシーケンスレベル異常:ランダムな時間ステップから2つのサブシーケンスアノマリーを挿入し、ランダムな長さを範囲10〜28の偶数分布からサンプリングする。 0.80
For each anomaly sub-sequence, true signal is replaced by a sequence sampled from a Gaussian process with RBF kernel of unit variance, and 0.3 length-scale. 各異常サブシーケンスに対して、真の信号はガウス過程からサンプリングされたシーケンスに置き換えられ、単位分散のRBFカーネルと0.3長スケールである。 0.72
The generated Mackey-Glass time series is shown in Fig. 生成されたMackey-Glass時系列を図に示します。 0.64
12. To illustrate the generated anomalies, we zoom in three fragments out of the whole time series. 12. 生成された異常を説明するために、全時系列から3つの断片を拡大する。 0.76
In this experiment, we find Donut shows better performance when z dim is lower. この実験では、z ディムが小さい場合、Donut はより良いパフォーマンスを示します。 0.72
We enumerate Donut’s performance on z dim = {2 . z dim = {2 上でのDonutのパフォーマンスを列挙する。 0.69
. . 10}, and we find Donut performs best when z dim = 5. . . 10} とすると、ドナツは z dim = 5 で最善を尽くす。 0.76
For SISVAE-p, we find the performance is relatively stable when we change z dim. SISVAE-p の場合、z dim を変更すると比較的安定である。 0.64
Hence we use the same setup as discussed in Section V-A. したがって、v-a 節で述べたのと同じ設定を使う。 0.51
The ROC and PRC are shown in Fig. ROC と PRC は Fig で示されている。 0.89
13. In conclusion, benefiting from the sequential network structure of SISVAE, and the proposed smoothness prior regularizer, SISVAE-p exhibits better anomaly detection performance for uni-variate time series. 13. SISVAE-pは、SISVAEのシーケンシャルネットワーク構造と、提案された平滑化の正規化により、一変時間系列の異常検出性能が向上した。 0.78
VI. CONCLUSION We have presented a deep generative model based method i.e. VI。 結論 我々は、深層生成モデルに基づく手法を提示した。 0.69
SISVAE (and the variants) for robust estimation and anomaly detection for multi-dimensional correlated time series. 多次元相関時間系列の堅牢な推定と異常検出のためのSISVAE(および変異体)。 0.82
To capture ‘normal’ patterns from anomaly-contaminated time series, we propose a novel variational smoothness regularizer, which provides robustness by placing penalty on nonsmooth output of the generative model. 異常に汚染された時系列から「正常」なパターンを取り出すため,生成モデルの非スムース出力にペナルティを課すことでロバスト性を提供する新しい変分平滑性正規化器を提案する。 0.73
Furthermore, we discuss two decision criteria for anomaly detection: reconstruction probability and reconstruction error. さらに, 異常検出の判定基準として, 復元確率と復元誤差の2つについて検討した。 0.58
Systemic experiments are conducted on both synthetic and real-world datasets, which demonstrate the proposed method outperforms state-of-the-art unsupervised anomaly detection models for multi-dimensional time series. システム実験は合成データと実世界のデータセットの両方で行われ,提案手法が多次元時系列の非教師なし異常検出モデルよりも優れていることを示す。 0.69
For future work, we are interested in exploring heavy-tailed distribution such as Student-t distribution as the output of the generative model. 今後の課題として, 生成モデルの出力として, 学生t分布などの重み付き分布を探索することに興味がある。 0.69
ACKNOWLEDGMENTS This research was partially supported by China Major State Research Development Program (2018YFC0830400, 2018AAA0100704) and NSFC (61972250, U19B2035). 情報 この研究は中国国家研究開発プログラム (2018YFC0830400, 2018AAA0100704) とNSFC (6 1972250, U19B2035) によって部分的に支援された。 0.47
REFERENCES [1] X. Li, Z. Li, J. Han, and J.-G. Lee, “Temporal outlier detection in vehicle traffic data,” in IEEE International Conference on Data Engineering. 参考 X. Li, Z. Li, J. Han, J.-G. Lee, “Temporal outlier detection in vehicle traffic data”. IEEE International Conference on Data Engineering。 0.64
IEEE, 2009, pp. 2009年、p.p.。 0.60
1319–1322. 1319–1322. 0.71
[2] M. Hauskrecht, I. Batal, M. Valko, S. Visweswaran, G. F. Cooper, and G. Clermont, “Outlier detection for patient monitoring and alerting,” Journal of biomedical informatics, vol. [2] M. Hauskrecht, I. Batal, M. Valko, S. Visweswaran, G.F. Cooper, G. Clermont, "Outlier detection for patient monitoring and alerting", Journal of Biomedical informatics, vol。 0.90
46, no. 1, pp. 46、ノー。 1、p。 0.70
47–55, 2013. 47–55, 2013. 0.84
[3] H. Xu, W. Chen, N. Zhao, Z. Li, J. Bu, Z. Li, Y. Liu, Y. Zhao, D. Pei, Y. Feng et al., “Unsupervised anomaly detection via variational autoencoder for seasonal kpis in web applications,” in Proceedings of the 2018 World Wide Web Conference on World Wide Web. 3] H.Xu, W. Chen, N. Zhao, Z. Li, J. Bu, Z. Li, Y. Liu, Y. Zhao, D. Pei, Y. Feng et al., “2018 World Wide Web Conference on World Wide WebのProceedingsにおいて、Webアプリケーションにおける季節的kpiの変分オートエンコーダによる異常検出を監督していない。 0.81
International World Wide Web Conferences Steering Committee, 2018, pp. International World Wide Web Conferences Steering Committee, 2018, pp。 0.79
187–196. [4] V. Jyothsna, V. R. Prasad, and K. M. Prasad, “A review of anomaly based intrusion detection systems,” International Journal of Computer Applications, vol. 187–196. V. Jyothsna, V. R. Prasad, K. M. Prasad, “A review of anomaly based intrusion detection system”. International Journal of Computer Applications, Vol. 0.75
28, no. 7, pp. 28歳。 7, pp。 0.64
26–35, 2011. 26–35, 2011. 0.84
[5] D. J. Hill and B. S. Minsker, “Anomaly detection in streaming environmental sensor data: A data-driven modeling approach,” Environmental Modelling & Software, vol. 5] D.J. HillとB.S. Minskerは、「環境センサーデータのストリーミングにおける異常検出:データ駆動モデリングアプローチ」、環境モデリング&ソフトウェア、vol。 0.84
25, no. 9, pp. 25だ 9, pp。 0.60
1014–1022, 2010. 1014–1022, 2010. 0.84
[6] J. Yan, C. Tian, J. Huang, and F. Albertao, “Incremental dictionary learning for fault detection with applications to oil pipeline leakage detection,” Electronics Letters, vol. J. Yan, C. Tian, J. Huang, F. Albertao, “Incremental dictionary learning for fault detection with application to oil pipeline leakage detection”, Electronics Letters, vol. 0.76
47, no. 21, pp. 47、いいえ。 21、p。 0.70
1198–1199, 2011. 1198–1199, 2011. 0.84
[7] J.-Y. Kim, S.-J. 7] J.-Y。 キム、S.J。 0.71
Bu, and S.-B. Cho, “Zero-day malware detection using transferred generative adversarial networks based on deep autoencoders,” Information Sciences, vol. Bu, S.-B。 Cho, “Zero-day malware detection using transfer generative adversarial network based on deep autoencoders”, Information Sciences, vol. 0.85
460, pp. 83–102, 2018. 460, pp。 83–102, 2018. 0.82
[8] V. Chandola, A. Banerjee, and V. Kumar, “Anomaly detection: A survey,” [8]v. chandola, a. banerjee, v. kumar, “anomaly detection: a survey” 0.75
ACM computing surveys (CSUR), vol. ACM Computing Surveys (CSUR) vol。 0.65
41, no. 3, p. 15, 2009. 41、ノー。 3、p.15、2009。 0.70
[9] C. C. Aggarwal, “Outlier analysis,” in Data mining. 9] c. c. aggarwal, “outlier analysis”, データマイニング。 0.68
Springer, 2015, pp. 2015年、春。 pp. 0.69
237–263. [10] M. Gupta, J. Gao, C. C. Aggarwal, and J. Han, “Outlier detection for temporal data: A survey,” IEEE Transactions on Knowledge and Data Engineering, vol. 237–263. 10] M. Gupta, J. Gao, C. C. Aggarwal, J. Han, “Outlier Detection for temporal data: A Survey”, IEEE Transactions on Knowledge and Data Engineering, vol. 10] (英語) 0.82
26, no. 9, pp. 26だ 9, pp。 0.59
2250–2267, 2014. 2250–2267, 2014. 0.84
[11] V. Chandola, A. Banerjee, and V. Kumar, “Anomaly detection for discrete sequences: A survey,” IEEE Transactions on Knowledge and Data Engineering, vol. V. Chandola, A. Banerjee, V. Kumar, “Anomaly detection for discrete sequences: A survey”, IEEE Transactions on Knowledge and Data Engineering, vol.[11] V. Chandola, A. Banerjee, V. Kumar。 0.78
24, no. 5, pp. 24時24分 5, pp。 0.60
823–839, 2012. 823–839, 2012. 0.84
[12] R. S. Tsay, D. Pe˜na, and A. E. Pankratz, “Outliers in multivariate time [12] R. S. Tsay, D. Pe sna, A. E. Pankratz, “Outliers in multivariate time” 0.85
series,” Biometrika, vol. シリーズ「Biometrika、vol。 0.55
87, no. 4, pp. 87だ 4, pp。 0.60
789–804, 2000. 789–804, 2000. 0.84
[13] S. Basu and M. Meckesheimer, “Automatic outlier detection for time series: an application to sensor data,” Knowledge and Information Systems, vol. 13] s. basu and m. meckesheimer, “automatic outlier detection for time series: an application to sensor data”、ナレッジ・アンド・インフォメーション・システム、vol。 0.74
11, no. 2, pp. 11、いいえ。 2、p。 0.67
137–154, 2007. 137–154, 2007. 0.84
[14] S. M. Erfani, S. Rajasegarar, S. Karunasekera, and C. Leckie, “Highdimensional and large-scale anomaly detection using a linear one-class svm with deep learning,” Pattern Recognition, vol. 14] S. M. Erfani, S. Rajasegarar, S. Karunasekera, C. Leckie, “高次元および大規模異常検出には, ディープラーニングを用いた一級線形svmを用いた。 0.80
58, pp. 121–134, 2016. 58, pp。 121–134, 2016. 0.82
[15] R. Laxhammar, G. Falkman, and E. Sviestins, “Anomaly detection in sea traffic-a comparison of the gaussian mixture model and the kernel density estimator,” in Information Fusion, 2009. 15] R. Laxhammar, G. Falkman, E. Sviestins, “Anomaly detection in sea traffic-a comparison of gaussian mixed model and the kernel density estimator” in Information Fusion, 2009年。 0.87
FUSION’09. FUSION'09。 0.76
12th International Conference on. IEEE, 2009, pp. 第12回国際会議。 2009年、p.p.。 0.71
756–763. [16] J. Chung, K. Kastner, L. Dinh, K. Goel, A. C. Courville, and Y. Bengio, “A recurrent latent variable model for sequential data,” in Advances in neural information processing systems, 2015, pp. 756–763. 16] J. Chung, K. Kastner, L. Dinh, K. Goel, A. C. Courville, Y. Bengio, "A recurrent latent variable model for sequence data" in Advances in neural information processing system, 2015 pp. pp. pp. pp. pp. pp. pp. 0.77
2980–2988. 2980–2988. 0.71
[17] F. Locatello, S. Bauer, M. Lucic, G. Raetsch, S. Gelly, B. Sch¨olkopf, and O. Bachem, “Challenging common assumptions in the unsupervised learning of disentangled representations,” in International Conference on Machine Learning, 2019, pp. 17] F. Locatello, S. Bauer, M. Lucic, G. Raetsch, S. Gelly, B. Sch solkopf, O. Bachem, "Challenging common assumptions in the unsupervised Learning of Disentangled representations" ; in International Conference on Machine Learning, 2019, pp. 2019(英語) 0.93
4114–4124. 4114–4124. 0.71
[18] S. Zhao, H. Ren, A. Yuan, J. 18] S. Zhao、H. Ren、A. Yuan、J。 0.82
Song, N. Goodman, and S. Ermon, “Bias and generalization in deep generative models: An empirical study,” in Advances in Neural Information Processing Systems, 2018, pp. Song, N. Goodman, and S. Ermon, “Bias and generalization in Deep Generative model: an empirical study” in Advances in Neural Information Processing Systems, 2018, pp。 0.84
10 792– 10 801. 10 792– 10 801. 0.99
[19] C. Shang, X. Huang, J. [19]C. Shang, X. Huang, J. 0.98
A. Suykens, and D. Huang, “Enhancing dynamic soft sensors based on dpls: A temporal smoothness regularization approach,” Journal of Process Control, vol. a. suykens, and d. huang, “dpls: a temporal smoothness regularization approach”. journal of process control, vol. “dplsに基づく動的ソフトセンサーの強化。 0.87
28, pp. 17–26, 2015. 28, pp。 17–26, 2015. 0.82
[20] Y. Cai, H. Tong, W. Fan, and P. Ji, “Fast mining of a network of coevolving time series,” in Proceedings of the 2015 SIAM International Conference on Data Mining. 2015 SIAM International Conference on Data MiningのProceedingsで、Y. Cai, H. Tong, W. Fan, P. Ji, “Fast mining of a network of a coevolving time series” が発表された。 0.80
SIAM, 2015, pp. SIAM, 2015 pp。 0.63
298–306. [21] W. Enders, Applied econometric time series. 298–306. ^ [21] W. Enders, Applied econometric time series 0.78
John Wiley & Sons, 2008. ジョン・ワイリー&サンズ、2008年。 0.56
[22] Y. Zhou, H. Zou, R. Arghandeh, W. Gu, and C. J. Spanos, “Nonparametric outliers detection in multiple time series a case study: Power grid data analysis.” in AAAI, 2018. 22] Y. Zhou, H. Zou, R. Arghandeh, W. Gu, and C. J. Spanos, “Nonparametric outliers detection in multiple time series a case study: Power Grid data analysis.” (AAAI, 2018)。 0.91
[23] Y. Cai, H. Tong, W. Fan, P. Ji, and Q. [23]Y. Cai,H. Tong,W. Fan,P. Ji,Q. 0.88
He, “Facets: Fast comprehensive mining of coevolving high-order time series,” in Proceedings of the 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. 彼は“Facets: Fast comprehensive mining of coevolving high-order time series”と題して、21th ACM SIGKDD International Conference on Knowledge Discovery and Data Miningの講演を行った。 0.84
ACM, 2015, pp. acm、2015年、p。 0.55
79–88. [24] N. G¨ornitz, M. Braun, and M. Kloft, “Hidden markov anomaly detection,” in International Conference on Machine Learning, 2015, pp. 79–88. [24] n.g ゾルニッツ, m. braun, m. kloft, “hidden markov anomaly detection” in international conference on machine learning, 2015 pp. 機械学習に関する国際会議(英語) 0.67
1833–1842. 1833–1842. 0.71
[25] L. Li, J. McCann, N. S. Pollard, and C. Faloutsos, “Dynammo: Mining and summarization of coevolving sequences with missing values,” in Proceedings of the 15th ACM SIGKDD international conference on Knowledge discovery and data mining. L. Li, J. McCann, N. S. Pollard, C. Faloutsos, “Dynammo: Mining and summarization of coevolving sequences with missing values”, Proceedings of the 15th ACM SIGKDD International conference on Knowledge discovery and data mining. 0.82
ACM, 2009, pp. acm、2009年、p。 0.59
507–516. [26] L. Xiong, X. Chen, and J. Schneider, “Direct robust matrix factorizatoin for anomaly detection,” in Data Mining (ICDM), 2011 IEEE 11th International Conference on. 507–516. [26] L. Xiong, X. Chen, J. Schneider, "Direct robust matrix factorizatoin for anomaly Detection" in Data Mining (ICDM), 2011 IEEE 11th International Conference on on。 0.77
IEEE, 2011, pp. IEEE, 2011, pp。 0.78
844–853. [27] D. P. Kingma and M. Welling, “Auto-encoding variational bayes,” arXiv 844–853. [27]D.P.KingmaとM.Welling, “Auto-Encoding variational Bayes”, arXiv 0.79
preprint arXiv:1312.6114, 2013. arXiv:1312.6114, 2013 0.77
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. JOURNAL OF LATEX CLASS FILES, VOL。 0.78
14, NO. 8, AUGUST 2018 14、いいえ。 8 AUGUST 2018 0.66
14 [28] J. 14 [28] J。 0.79
An and S. Cho, “Variational autoencoder based anomaly detection using reconstruction probability,” Special Lecture on IE, vol. An and S. Cho, “Variational autoencoder based anomaly detection using reconstruction probability”, Special Lecture on IE, vol。 0.78
2, pp. 1– 18, 2015. 2、p。 1– 18, 2015. 0.81
[29] J. L. Elman, “Finding structure in time,” Cognitive Science, vol. 29] j. l. elman, “finding structure in time”, cognitive science, vol。 0.75
14, pp. 179–211, 1990. 14, pp。 179–211, 1990. 0.83
[30] M. S¨olch, J. Bayer, M. Ludersdorfer, and P. van der Smagt, “Variational inference for on-line anomaly detection in high-dimensional time series,” arXiv preprint arXiv:1602.07109, 2016. J. Bayer, M. Ludersdorfer, P. van der Smagt, “Variational inference for on-line anomaly detection in high-dimensional time series” arXiv preprint arXiv:1602.07109, 2016. 0.87
[31] G. Kitagawa and W. Gersch, Smoothness priors analysis of time series. 31] G. Kitagawa と W. Gersch, Smoothness priors analysis of time series. 0.88
Springer Science & Business Media, 2012, vol. Springer Science & Business Media, 2012 vol。 0.71
116. [32] D. P. Kingma and M. Welling, “Stochastic gradient vb and the variational auto-encoder,” in Second International Conference on Learning Representations, ICLR, 2014. 116. 32] d. p. kingma and m. welling, “stochastic gradient vb and the variational auto-encoder” in second international conference on learning representations, iclr, 2014 0.84
[33] O. Fabius and J. R. van Amersfoort, “Variational recurrent auto- 33] O. Fabius and J. R. van Amersfoort, "Variational recurrent auto-" 0.95
encoders,” arXiv preprint arXiv:1412.6581, 2014. arXiv preprint arXiv:1412.6581, 2014 0.78
[34] J. Bayer and C. Osendorfer, “Learning stochastic recurrent networks,” 34] J. Bayer と C. Osendorfer の "Learning stochastic recurrent network" 。 0.83
arXiv preprint arXiv:1411.7610, 2014. arXiv preprint arXiv:1411.7610, 2014 0.80
[35] M. Fraccaro, S. K. Sønderby, U. Paquet, and O. Winther, “Sequential neural models with stochastic layers,” in Advances in neural information processing systems, 2016, pp. [35] m. fraccaro, s. k. sønderby, u. paquet, o. winther, “sequential neural models with stochastic layers” in advances in neural information processing systems, 2016, pp. 0.84
2199–2207. 2199–2207. 0.71
[36] K. Cho, B. [36] K. Cho, B。 0.88
Van Merri¨enboer, C. Gulcehre, D. Bahdanau, F. Bougares, H. Schwenk, and Y. Bengio, “Learning phrase representations using rnn encoder-decoder for statistical machine translation,” arXiv preprint arXiv:1406.1078, 2014. Van Merri 'enboer, C. Gulcehre, D. Bahdanau, F. Bougares, H. Schwenk, Y. Bengio, “Learning phrase representations using rnn encoder-decoder for statistics machine translation” arXiv preprint arXiv:1406.1078, 2014 0.92
[37] I. Higgins, L. Matthey, A. Pal, C. Burgess, X. Glorot, M. Botvinick, S. Mohamed, and A. Lerchner, “beta-vae: Learning basic visual concepts with a constrained variational framework,” in International Conference on Learning Representations, 2017. 937] I. Higgins, L. Matthey, A. Pal, C. Burgess, X. Glorot, M. Botvinick, S. Mohamed, A. Lerchner, “beta-vae: Learning basic visual concepts with a constrained variational framework” in International Conference on Learning Representations, 2017. 0.92
[38] P. J. Werbos, “Backpropagation through time: what it does and how to do it,” Proceedings of the IEEE, vol. The Proceedings of the IEEE, vol.[38] P. J. Werbos, “Backpropagation through time: what, how to do it”[38] P. J. Werbos。 0.84
78, no. 10, pp. 78だ 10, pp。 0.60
1550–1560, 1990. 1550–1560, 1990. 0.84
[39] R. Pascanu, T. Mikolov, and Y. Bengio, “On the difficulty of training recurrent neural networks,” in International Conference on Machine Learning, 2013, pp. 39] R. Pascanu, T. Mikolov, Y. Bengio, “On the difficulty of training recurrent neural network” in International Conference on Machine Learning, 2013 pp。 0.79
1310–1318. 1310–1318. 0.71
[40] C. Zhou and R. C. Paffenroth, “Anomaly detection with robust deep autoencoders,” in Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. C. Zhou, R. C. Paffenroth, “Anomaly detection with robust deep autoencoders” in Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining。 0.76
ACM, 2017, pp. ACM、2017年、pp。 0.82
665–674. [41] A. Doucet, N. De Freitas, and N. Gordon, “An introduction to sequential monte carlo methods,” in Sequential Monte Carlo methods in practice. 665–674. 41] A. Doucet, N. De Freitas, N. Gordon, "An introduction toequential monte carlo methods" は、モンテカルロ連続法において実際に用いられている。 0.79
Springer, 2001, pp. スプリンガー、2001年、p。 0.58
3–14. [42] A. Doucet, S. Godsill, and C. Andrieu, “On sequential monte carlo sampling methods for bayesian filtering,” Statistics and computing, vol. 3–14. [42] a. doucet, s. godsill, c. andrieu, “on sequential monte carlo sampling method for bayesian filtering”, statistics and computing, vol.)。 0.76
10, no. 3, pp. 10、いいえ。 3、p。 0.69
197–208, 2000. 197–208, 2000. 0.84
[43] J. S. Liu and R. Chen, “Sequential monte carlo methods for dynamic systems,” Journal of the American statistical association, vol. journal of the american statistical association, vol. “sequential monte carlo methods for dynamic systems”[43] j. s. liuとr. chenは、こう書いている。
訳抜け防止モード: [43 ] J. S. Liu, R. Chen, “Sequential monte carlo methods for dynamic systems” アメリカ統計学会 (American statistics Association) の略称。
0.85
93, no. 443, pp. 93、ノー。 443, pp。 0.77
1032–1044, 1998. 1032–1044, 1998. 0.84
[44] J. Davis and M. Goadrich, “The relationship between precision-recall and roc curves,” in Proceedings of the 23rd international conference on Machine learning. J. Davis氏とM. Goadrich氏は、第23回機械学習国際会議のProceedingsで、“The relationship between precision-recalls and roc curves”と題している。 0.76
ACM, 2006, pp. ACM, 2006, pp。 0.78
233–240. [45] T. Saito and M. Rehmsmeier, “The precision-recall plot is more informative than the roc plot when evaluating binary classifiers on imbalanced datasets,” PloS one, vol. 233–240. 45] T. SaitoとM. Rehmsmeierは、「不均衡なデータセット上のバイナリ分類子を評価する場合、精度リコールプロットはrocプロットよりも有益です」とPloS one, vol。 0.68
10, no. 3, 2015. 10、いいえ。 3, 2015. 0.80
[46] P. Galeano, D. Pe˜na, and R. S. Tsay, “Outlier detection in multivariate time series by projection pursuit,” Journal of the American Statistical Association, vol. journal of the american statistical association, vol. “46] p. galeano, d. pe sna, r. s. tsay, “投影追跡による多変量時系列の異常検出”。 0.79
101, no. 474, pp. 101、ノー。 474, pp。 0.78
654–669, 2006. 654–669, 2006. 0.84
[47] J. D. Hamilton, Time series analysis. 47] J.D. ハミルトン、時系列分析。 0.78
Princeton university press プリンストン大学出版局 0.69
Princeton, NJ, 1994, vol. プリンストン、1994年、Vol。 0.47
2. [48] A. Paszke, S. Gross, F. Massa, A. Lerer, J. Bradbury, G. Chanan, T. Killeen, Z. Lin, N. Gimelshein, L. Antiga et al., “Pytorch: An imperative style, high-performance deep learning library,” in Advances in Neural Information Processing Systems, 2019, pp. 2. H48] A. Paszke, S. Gross, F. Massa, A. Lerer, J. Bradbury, G. Chanan, T. Killeen, Z. Lin, N. Gimelshein, L. Antiga et al., “Pytorch: an imperative style, high- performance deep learning library” in Advances in Neural Information Processing Systems, 2019, pp。 0.91
8024–8035. 8024–8035. 0.71
[49] D. P. Kingma and J. Ba, “Adam: A method for stochastic optimization,” 49] d. p. kingma, j. ba, "adam: a method for stochastic optimization" 0.78
arXiv preprint arXiv:1412.6980, 2014. arXiv preprint arXiv:1412.6980, 2014 0.80
[50] M. A. Alvarez, L. Rosasco, N. D. Lawrence et al., “Kernels for vectorvalued functions: A review,” Foundations and Trends® in Machine Learning, vol. 50] M. A. Alvarez, L. Rosasco, N. D. Lawrence et al., “Kernels for vectorvalued functions: A review”, Foundations and Trends® in Machine Learning, vol.50.50(日本語版記事)
訳抜け防止モード: 50 ] M. A. Alvarez, L. Rosasco, N. D. Lawrence et al 。 Kernels for vectorvalued function : A review, ” Foundations and Trends ® in Machine Learning, Vol. 研究報告
0.94
4, no. 3, pp. 4、いいえ。 3、p。 0.68
195–266, 2012. 195–266, 2012. 0.84
[51] GPy, “GPy: A gaussian process framework in python,” http://github. gpy, “gpy: a gaussian process framework in python” [51] gpy, “gpy: a gaussian process framework in python”[github.com] ] ] です。 0.58
com/SheffieldML/GPy, since 2012. 2012年からは、SheffieldML/GPy。 0.61
[52] E. Stewart, A. Liao, and C. Roberts, “Open µpmu: A real world reference distribution micro-phasor measurement unit data set for research and application development,” 2016. 52] E. Stewart, A. Liao, C. Roberts, “Open μpmu: A real world reference distribution micro-phasor measurement unit data set for research and application development” 2016年。 0.90
[53] R. Baeza-Yates, B. d. A. N. Ribeiro et al., Modern information retrieval. 53] R. Baeza-Yates, B.d.A.N. Ribeiro et al., 現代情報検索。 0.82
New York: ACM Press; Harlow, England: Addison-Wesley,, 2011. new york: acm press; harlow, england: addison-wesley, 2011 (英語) 0.83
[54] P. Burridge and A. Robert Taylor, “Additive outlier detection via extreme-value theory,” Journal of Time Series Analysis, vol. Journal of Time Series Analysis, vol.[54] P. Burridge and A. Robert Taylor, “Additive outlier detection via extreme-value theory”[原文へ]。 0.95
27, no. 5, pp. 27だ 5, pp。 0.58
685–701, 2006. 685–701, 2006. 0.84
[55] A. Siffer, P.-A. [55] A. Siffer, P.-A。 0.83
Fouque, A. Termier, and C. Largouet, “Anomaly detection in streams with extreme value theory,” in Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. Fouque, A. Termier, and C. Largouet, “Anomaly detection in stream with extreme value theory” in Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining。 0.85
ACM, 2017, pp. ACM、2017年、pp。 0.82
1067–1075. 1067–1075. 0.71
[56] M. C. Chuah and F. Fu, “Ecg anomaly detection via time series analysis,” in International Symposium on Parallel and Distributed Processing and Applications. 56] M. C. Chuah, F. Fu, “Ecg anomaly detection via time series analysis” in International Symposium on Parallel and Distributed Processing and Applications. 0.86
Springer, 2007, pp. スプリンガー、2007年、p.。 0.46
123–135. [57] M. C. Mackey and L. Glass, “Oscillation and chaos in physiological 123–135. 57] M.C. Mackey and L. Glass, "生理学におけるオシレーションとカオス 0.74
control systems,” Science, vol. 制御システム」、科学、vol。 0.66
197, no. 4300, pp. 197、ノー。 4300, pp。 0.77
287–289, 1977. 287–289, 1977. 0.84
[58] H. Kantz and T. Schreiber, Nonlinear time series analysis. 58] H. KantzとT. Schreiber、非線形時系列分析。 0.80
Cambridge university press, 2004, vol. ケンブリッジ 大学出版、2004年、Vol. 0.62
7. Longyuan Li received the B.E. 7. Longyuan LiはB.Eを受け取りました。 0.73
degree in Electronic Engineering from Huazhong University of Science and Technology in 2013. 2013年に華東科学技術大学から電子工学の学位を取得した。 0.79
He is currently working toward the Ph.D. degree in the Department of Electronic Engineering, Shanghai Jiao Tong University, Shanghai, China. 現在は上海市立京大学電子工学科のPh.D.(Ph.D.)の学位を取得。 0.64
His research interests include machine learning and data mining. 研究対象は機械学習とデータマイニングである。 0.68
He focuses on probabilistic models and Bayesian nonparametric models, for sequential data such as multidimensional time series. 彼は確率モデルとベイズ非パラメトリックモデルに焦点を当て、多次元時系列のような連続データを扱う。 0.71
He is also interested in deep probabilistic graphical models and uncertainty 彼はまた、深い確率的グラフィカルモデルと不確実性にも興味を持っている。 0.49
estimation. Junchi Yan (M’10) is currently an Associate Professor with Department of Computer Science and Engineering, Shanghai Jiao Tong University, Shanghai, China. 見積。 Junchi Yan(M’10)は、現在、上海Jiao Tong大学(上海、中国)のコンピュータサイエンスとエンジニアリング部門の准教授です。 0.64
Before that, he was a Research Staff Member and Principal Scientist with IBM Research – China, where he started his career since April 2011. それ以前は、IBM Research – Chinaでリサーチスタッフメンバーとプリンシパルサイエンティストを務め、2011年4月からキャリアをスタートしました。 0.69
He obtained the Ph.D. degree in Electrical Engineering from Shanghai Jiao Tong University. 上海江東大学から電気工学のPh.D.を取得した。 0.66
His research interests are machine learning and computer vision. 彼の研究テーマは機械学習とコンピュータビジョンである。 0.69
He serves as Area Chair for ICPR 2020, CVPR 2021, Senior PC for CIKM 2019, Associate Editor ICPR 2020のエリアチェア、CVPR 2021、CIKM 2019のシニアPC、アソシエイトエディターを務めています。 0.79
for IEEE ACCESS. IEEE ACCESS の略。 0.80
Haiyang Wang obtained B.E. Haiyang WangはB.Eを取得しました。 0.47
degree and Ph.D. degree both in Electrical Engineering from Shanghai Jiao Tong University, Shanghai, China, in year 2013 and 2019, respectively. 2013年と2019年に上海・江東大学電気工学の学位とph.d.の学位がそれぞれ取得された。 0.66
His research area include machine learning and data mining, especially massive spatial-temporal data mining and intelligent transportation. 彼の研究分野は機械学習とデータマイニング、特に巨大な時空間データマイニングとインテリジェントトランスポートである。 0.72
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. JOURNAL OF LATEX CLASS FILES, VOL。 0.78
14, NO. 8, AUGUST 2018 14、いいえ。 8 AUGUST 2018 0.66
15 Yaohui Jin was a Technical Staff Member with Bell Labs Research China. 15 Yaohui Jinは、Bell Labs Research Chinaのテクニカルスタッフメンバーでした。 0.82
He joined Shanghai Jiao Tong University in 2002, where he is a Professor with the State Key Laboratory of Advanced Optical Communication Systems and Networks and the Deputy Director of Network and Information Center. 2002年に上海江東大学に入学し、高度な光通信システムおよびネットワークの国家キー研究所の教授、およびネットワークおよび情報センターの副所長を務めています。 0.75
His research interests include civic engagement and open innovation, cloud computing network architecture, and streaming data analysis. 彼の研究分野は、市民参加とオープンイノベーション、クラウドコンピューティングネットワークアーキテクチャ、ストリーミングデータ分析などである。 0.77
He is the Founder of OMNILab, which is an open innovation lab focusing on data analysis. 彼は、データ分析に焦点を当てたオープンイノベーションラボOMNILabの創設者である。 0.75
He has published over 100 technical papers in leading conferences and journals and is the owner of over 10 patents. 彼は主要な会議やジャーナルで100以上の技術論文を発表し、10以上の特許の所有者です。 0.72
In 2014, OMNILab won the champion of CCF national big data challenge among nearly 1000 teams, and was the champion of the Shanghai open data innovation and creation competition. 2014年に、OMNILabはほぼ1000チーム間のCCFの国民のビッグデータの挑戦のチャンピオンに勝ち、上海のオープン・データ革新および作成の競争のチャンピオンでした。 0.71
He has served over 10 technical committees. 10名以上の技術委員を務めた。 0.64
He enthuses public service and science popularization, actively promotes crowd engaged innovation, and interdisciplinary collaboration. 公共サービスや科学の普及を後押しし、群衆参加型のイノベーションと学際的なコラボレーションを積極的に推進する。 0.58
                               ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。