論文の概要: A Batch-Insensitive Dynamic GNN Approach to Address Temporal Discontinuity in Graph Streams
- arxiv url: http://arxiv.org/abs/2506.19282v1
- Date: Tue, 24 Jun 2025 03:31:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.470782
- Title: A Batch-Insensitive Dynamic GNN Approach to Address Temporal Discontinuity in Graph Streams
- Title(参考訳): グラフストリームの時間的不連続に対処するバッチ非感性動的GNN手法
- Authors: Yang Zhou, Xiaoning Ren,
- Abstract要約: 大規模なバッチでトレーニングされたメモリグラフニューラルネットワーク(MDGNN)は、イベントシーケンスを中断することが多い。
BadGNNは、(1)時間リプシッツ規則化(TLR)と(2)適応注意調整(A3)の2つのコアコンポーネントから構成される。
- 参考スコア(独自算出の注目度): 4.234842954797706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In dynamic graphs, preserving temporal continuity is critical. However, Memory-based Dynamic Graph Neural Networks (MDGNNs) trained with large batches often disrupt event sequences, leading to temporal information loss. This discontinuity not only deteriorates temporal modeling but also hinders optimization by increasing the difficulty of parameter convergence. Our theoretical study quantifies this through a Lipschitz upper bound, showing that large batch sizes enlarge the parameter search space. In response, we propose BADGNN, a novel batch-agnostic framework consisting of two core components: (1) Temporal Lipschitz Regularization (TLR) to control parameter search space expansion, and (2) Adaptive Attention Adjustment (A3) to alleviate attention distortion induced by both regularization and batching. Empirical results on three benchmark datasets show that BADGNN maintains strong performance while enabling significantly larger batch sizes and faster training compared to TGN. Our code is available at Code: https://anonymous.4open.science/r/TGN_Lipichitz-C033/.
- Abstract(参考訳): 動的グラフでは、時間的連続性を保存することが重要である。
しかし、大規模なバッチでトレーニングされたメモリベースの動的グラフニューラルネットワーク(MDGNN)は、しばしばイベントシーケンスを妨害し、時間的情報損失を引き起こす。
この不連続性は時間的モデリングを悪化させるだけでなく、パラメータ収束の困難さを増大させることで最適化を妨げる。
我々の理論的研究は、Lipschitz上界を通じてこれを定量化し、大きなバッチサイズがパラメータ探索空間を拡大することを示した。
そこで本研究では,パラメータ探索空間の拡大を制御するための時間的リプシッツ正規化(TLR)と,正規化とバッチ化の両方によって引き起こされる注意歪みを軽減するための適応的注意調整(A3)という,2つのコアコンポーネントからなる,バッチに依存しない新しいフレームワークであるBADGNNを提案する。
3つのベンチマークデータセットの実証結果は、BADGNNが強いパフォーマンスを維持しつつ、バッチサイズを大幅に大きくし、TGNよりも高速なトレーニングを可能にしていることを示している。
私たちのコードは、Codeで入手できる。 https://anonymous.4open.science/r/TGN_Lipichitz-C033/。
関連論文リスト
- Never Skip a Batch: Continuous Training of Temporal GNNs via Adaptive Pseudo-Supervision [41.50778579564618]
History-Averaged Labels (HAL) は、履歴ラベル分布から派生した擬似ターゲットによるトレーニングバッチを動的に強化する手法である。
HALはTGNv2のトレーニングを最大15倍加速し、競争性能を維持している。
この研究は、時間グラフ学習における空間性を示す効率的な、軽量で、アーキテクチャに依存しない、理論的に動機づけられたソリューションを提供する。
論文 参考訳(メタデータ) (2025-05-18T19:30:33Z) - Statistical physics analysis of graph neural networks: Approaching optimality in the contextual stochastic block model [0.0]
グラフニューラルネットワーク(GNN)は、グラフに関連するデータを処理するように設計されている。
GNNは、繰り返し集約ステップによって遠く離れたノードから情報を集めるのに苦労する可能性がある。
我々は,GCNのアーキテクチャが過度なスムーシングを避けるために,深さとともにスケールしなければならないことを示す。
論文 参考訳(メタデータ) (2025-03-03T09:55:10Z) - PRES: Toward Scalable Memory-Based Dynamic Graph Neural Networks [22.47336262812308]
メモリベースの動的グラフニューラルネットワーク(MDGNN)は、動的グラフニューラルネットワークのファミリーであり、メモリモジュールを利用して、長期の時間的依存関係を抽出、抽出、抽出する。
本稿では,時間的バッチサイズが大きいMDGNNの訓練における時間的不連続性に着目し,大規模MDGNNの効率的な訓練について検討する。
論文 参考訳(メタデータ) (2024-02-06T01:34:56Z) - Networked Time Series Imputation via Position-aware Graph Enhanced
Variational Autoencoders [31.953958053709805]
我々は,変分オートエンコーダ(VAE)を利用して,ノード時系列の特徴とグラフ構造の両方に欠落する値を予測するPoGeVonという新しいモデルを設計する。
実験の結果,ベースライン上でのモデルの有効性が示された。
論文 参考訳(メタデータ) (2023-05-29T21:11:34Z) - Temporal Aggregation and Propagation Graph Neural Networks for Dynamic
Representation [67.26422477327179]
時間グラフは連続時間を通してノード間の動的相互作用を示す。
本研究では,周辺地域全体と時間的グラフ畳み込みの新たな手法を提案する。
提案するTAP-GNNは,予測性能とオンライン推論遅延の両面で,既存の時間グラフ手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-15T08:17:18Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - AEGNN: Asynchronous Event-based Graph Neural Networks [54.528926463775946]
イベントベースのグラフニューラルネットワークは、標準のGNNを一般化して、イベントを"進化的"時間グラフとして処理する。
AEGNNは同期入力で容易に訓練でき、テスト時に効率的な「非同期」ネットワークに変換できる。
論文 参考訳(メタデータ) (2022-03-31T16:21:12Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Fast Graph Attention Networks Using Effective Resistance Based Graph
Sparsification [70.50751397870972]
FastGATは、スペクトルスペーシフィケーションを用いて、注目に基づくGNNを軽量にし、入力グラフの最適プルーニングを生成する手法である。
我々は,ノード分類タスクのための大規模実世界のグラフデータセット上でFastGATを実験的に評価した。
論文 参考訳(メタデータ) (2020-06-15T22:07:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。