論文の概要: Temporal-Aware Evaluation and Learning for Temporal Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2412.07273v2
- Date: Sun, 15 Dec 2024 04:10:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 14:00:35.322568
- Title: Temporal-Aware Evaluation and Learning for Temporal Graph Neural Networks
- Title(参考訳): 時空間グラフニューラルネットワークの時間認識評価と学習
- Authors: Junwei Su, Shan Wu,
- Abstract要約: 時間グラフニューラルネットワーク(TGNN)は、時間グラフから動的情報をモデル化し、学習するために設計されたグラフニューラルネットワークのファミリーである。
本稿では,TGNNの一般的な評価基準について検討し,本質的な時間構造を捉える上でのこれらの指標の故障機構について述べる。
本稿では、モデル時間性能のより洗練された分析を目的とした、新しいボラティリティ対応評価指標(決定ボラティリティクラスタ統計)を提案する。
- 参考スコア(独自算出の注目度): 2.3043270848984
- License:
- Abstract: Temporal Graph Neural Networks (TGNNs) are a family of graph neural networks designed to model and learn dynamic information from temporal graphs. Given their substantial empirical success, there is an escalating interest in TGNNs within the research community. However, the majority of these efforts have been channelled towards algorithm and system design, with the evaluation metrics receiving comparatively less attention. Effective evaluation metrics are crucial for providing detailed performance insights, particularly in the temporal domain. This paper investigates the commonly used evaluation metrics for TGNNs and illustrates the failure mechanisms of these metrics in capturing essential temporal structures in the predictive behaviour of TGNNs. We provide a mathematical formulation of existing performance metrics and utilize an instance-based study to underscore their inadequacies in identifying volatility clustering (the occurrence of emerging errors within a brief interval). This phenomenon has profound implications for both algorithm and system design in the temporal domain. To address this deficiency, we introduce a new volatility-aware evaluation metric (termed volatility cluster statistics), designed for a more refined analysis of model temporal performance. Additionally, we demonstrate how this metric can serve as a temporal-volatility-aware training objective to alleviate the clustering of temporal errors. Through comprehensive experiments on various TGNN models, we validate our analysis and the proposed approach. The empirical results offer revealing insights: 1) existing TGNNs are prone to making errors with volatility clustering, and 2) TGNNs with different mechanisms to capture temporal information exhibit distinct volatility clustering patterns. Our empirical findings demonstrate that our proposed training objective effectively reduces volatility clusters in error.
- Abstract(参考訳): 時間グラフニューラルネットワーク(TGNN)は、時間グラフから動的情報をモデル化し、学習するために設計されたグラフニューラルネットワークのファミリーである。
彼らの経験的成功を考えると、研究コミュニティ内ではTGNNへの関心が高まっている。
しかしながら、これらの取り組みの大部分はアルゴリズムとシステム設計に向けられ、評価指標は比較的少ない注意を払っている。
効果的な評価指標は、特に時間領域において、詳細なパフォーマンス洞察を提供するために不可欠である。
本稿では、TGNNの一般的な評価基準について検討し、TGNNの予測行動における重要な時間構造を捉える上で、これらの指標の故障メカニズムについて述べる。
本稿では、既存のパフォーマンス指標の数学的定式化と、インスタンスベースの研究を用いて、不安定性クラスタリング(短時間の間隔で発生したエラーの発生)の同定における不整合性を明らかにする。
この現象は時間領域におけるアルゴリズムとシステム設計の両方に重大な影響を及ぼす。
この欠陥に対処するために、モデル時間性能のより洗練された解析のために設計された新しいボラティリティ対応評価指標(決定ボラティリティクラスタ統計)を導入する。
さらに、この指標が時間的変動を考慮したトレーニング目標として機能し、時間的エラーのクラスタリングを軽減できることを示す。
様々なTGNNモデルに関する総合的な実験を通じて、分析と提案手法の有効性を検証した。
経験的な結果は、明らかな洞察を与えます。
1)既存のTGNNは、ボラティリティクラスタリングでエラーを起こしやすい。
2) 時間的情報を捕捉する異なる機構を持つTGNNは, 異なる変動性クラスタリングパターンを示す。
実験結果から,提案した学習目標が誤差のボラティリティクラスタを効果的に削減できることが示唆された。
関連論文リスト
- Mind the truncation gap: challenges of learning on dynamic graphs with recurrent architectures [10.434476078553786]
連続時間動的グラフ(CTDG)は、機械学習(ML)アプローチに課題を提起する。
BPTT (Back Proagation-through-time) の短絡により, 1ホップ以上の依存関係の学習を制限できることが示されている。
我々はCTDGの重要性が増すにつれて、このギャップの理解と解決が不可欠であると主張する。
論文 参考訳(メタデータ) (2024-12-30T16:07:41Z) - GINTRIP: Interpretable Temporal Graph Regression using Information bottleneck and Prototype-based method [7.570969633244954]
本稿では,時間グラフ回帰モデルの解釈可能性を高める新しい手法を提案する。
IB原則の適用性をグラフ回帰タスクに拡張する、相互情報(MI)に基づく新たな理論的境界を導出する。
本モデルは実世界のトラフィックデータセットに基づいて評価され,予測精度と解釈可能性関連指標の両方において既存手法よりも優れていた。
論文 参考訳(メタデータ) (2024-09-17T08:58:40Z) - Spatio-Temporal Attention Graph Neural Network for Remaining Useful Life
Prediction [1.831835396047386]
本研究では,時空間注意グラフニューラルネットワークを提案する。
本モデルでは,空間的・時間的特徴抽出のために,グラフニューラルネットワークと時間的畳み込みニューラルネットワークを組み合わせる。
C-MAPSSデータセットを用いて、クラスタリング正規化とクラスタリング正規化の影響を評価するための総合的な実験を行った。
論文 参考訳(メタデータ) (2024-01-29T08:49:53Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Uncovering the Missing Pattern: Unified Framework Towards Trajectory
Imputation and Prediction [60.60223171143206]
軌道予測は、観測されたシーケンスから実体運動や人間の行動を理解する上で重要な作業である。
現在の方法では、観測されたシーケンスが完了したと仮定し、欠落した値の可能性を無視する。
本稿では,グラフに基づく条件変動リカレントニューラルネットワーク (GC-VRNN) の統一フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-28T14:27:27Z) - GDBN: a Graph Neural Network Approach to Dynamic Bayesian Network [7.876789380671075]
スパースDAGの学習を目的としたスコアに基づくグラフニューラルネットワーク手法を提案する。
グラフニューラルネットワークを用いた手法は,動的ベイジアンネットワーク推論を用いた他の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2023-01-28T02:49:13Z) - Convolutional generative adversarial imputation networks for
spatio-temporal missing data in storm surge simulations [86.5302150777089]
GAN(Generative Adversarial Imputation Nets)とGANベースの技術は、教師なし機械学習手法として注目されている。
提案手法を Con Conval Generative Adversarial Imputation Nets (Conv-GAIN) と呼ぶ。
論文 参考訳(メタデータ) (2021-11-03T03:50:48Z) - Spatially Focused Attack against Spatiotemporal Graph Neural Networks [8.665638585791235]
深時空間グラフニューラルネットワーク(GNN)は,トラフィック予測アプリケーションにおいて大きな成功を収めている。
GNNが現実世界の予測アプリケーションに脆弱性がある場合、ハッカーは簡単に結果を操作でき、交通渋滞や都市規模の破壊を引き起こす。
論文 参考訳(メタデータ) (2021-09-10T01:31:53Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - TELESTO: A Graph Neural Network Model for Anomaly Classification in
Cloud Services [77.454688257702]
機械学習(ML)と人工知能(AI)はITシステムの運用とメンテナンスに適用される。
1つの方向は、修復自動化を可能にするために、繰り返し発生する異常タイプを認識することである。
与えられたデータの次元変化に不変な手法を提案する。
論文 参考訳(メタデータ) (2021-02-25T14:24:49Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。