論文の概要: Learning Graph Neural Networks for Multivariate Time Series Anomaly
Detection
- arxiv url: http://arxiv.org/abs/2111.08082v1
- Date: Mon, 15 Nov 2021 21:05:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 06:15:56.425895
- Title: Learning Graph Neural Networks for Multivariate Time Series Anomaly
Detection
- Title(参考訳): 多変量時系列異常検出のための学習グラフニューラルネットワーク
- Authors: Saswati Ray, Sana Lakdawala, Mononito Goswami, Chufan Gao
- Abstract要約: 局所不確実性推定を用いたGLUE(Graph Deviation Network)を提案する。
GLUEは変数間の複雑な依存関係を学び、それを使って異常な振る舞いをよりよく識別する。
また、GLUEは、同様のセンサーをまとめる有意義なセンサー埋め込みを学習することを示す。
- 参考スコア(独自算出の注目度): 8.688578727646409
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we propose GLUE (Graph Deviation Network with Local Uncertainty
Estimation), building on the recently proposed Graph Deviation Network (GDN).
GLUE not only automatically learns complex dependencies between variables and
uses them to better identify anomalous behavior, but also quantifies its
predictive uncertainty, allowing us to account for the variation in the data as
well to have more interpretable anomaly detection thresholds. Results on two
real world datasets tell us that optimizing the negative Gaussian log
likelihood is reasonable because GLUE's forecasting results are at par with GDN
and in fact better than the vector autoregressor baseline, which is significant
given that GDN directly optimizes the MSE loss. In summary, our experiments
demonstrate that GLUE is competitive with GDN at anomaly detection, with the
added benefit of uncertainty estimations. We also show that GLUE learns
meaningful sensor embeddings which clusters similar sensors together.
- Abstract(参考訳): 本稿では,最近提案されたグラフ偏差ネットワーク(GDN)に基づくGLUE(Graph Deviation Network with Local Uncertainty Estimation)を提案する。
GLUEは変数間の複雑な依存関係を自動的に学習し、それを使って異常な振る舞いを識別するだけでなく、その予測の不確実性を定量化することで、データの変動を考慮し、より解釈可能な異常検出しきい値を持つことを可能にします。
2つの実世界のデータセットの結果から、ガウスの対数確率の最適化はgdnと同等であり、実際、gdnが直接mse損失を最適化していることを考えると、ベクターオートレグレッセプタベースラインよりも優れているため、妥当であることがわかる。
まとめると, GLUEは異常検出においてGDNと競合し, 不確実性推定の利点が加わった。
また,glueは,同様のセンサを集積する有意義なセンサ埋め込みを学習する。
関連論文リスト
- Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Graph Out-of-Distribution Generalization via Causal Intervention [69.70137479660113]
本稿では,ノードレベルの分散シフトの下で頑健なグラフニューラルネットワーク(GNN)をトレーニングするための,概念的に単純だが原則化されたアプローチを提案する。
本手法は,環境推定器と熟練GNN予測器を協調する因果推論に基づく新たな学習目標を提案する。
本モデルでは,様々な分散シフトによる一般化を効果的に向上し,グラフOOD一般化ベンチマーク上での最先端の精度を最大27.4%向上させることができる。
論文 参考訳(メタデータ) (2024-02-18T07:49:22Z) - Accurate and Scalable Estimation of Epistemic Uncertainty for Graph
Neural Networks [40.95782849532316]
固有GNNの不確実性推定を改善するための新しいトレーニングフレームワークを提案する。
我々のフレームワークは、新しいグラフアンカー戦略を通じて、データをグラフデータに中心付けるという原則に適応する。
本研究は,GNNの不確実性推定に関する知見を提供し,信頼度推定におけるG-$Delta$UQの有用性を実証する。
論文 参考訳(メタデータ) (2024-01-07T00:58:33Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z) - Gaussian Gated Linear Networks [32.27304928359326]
本稿では,最近提案されたディープニューラルネットワークのGLNファミリの拡張であるGaussian Gated Linear Network (G-GLN)を提案する。
機能を学ぶためにバックプロパゲーションを使う代わりに、GLNは凸目標の最適化に基づいて、分散型でローカルなクレジット割り当て機構を持つ。
論文 参考訳(メタデータ) (2020-06-10T17:25:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。