論文の概要: Input Snapshots Fusion for Scalable Discrete Dynamic Graph Nerual Networks
- arxiv url: http://arxiv.org/abs/2405.06975v1
- Date: Sat, 11 May 2024 10:05:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-14 19:07:50.076877
- Title: Input Snapshots Fusion for Scalable Discrete Dynamic Graph Nerual Networks
- Title(参考訳): スケーラブル離散型動的グラフニューラルネットワークのための入力スナップショット融合
- Authors: QingGuo Qi, Hongyang Chen, Minhao Cheng, Han Liu,
- Abstract要約: 入力 bf Snapshots bf Fusion ベースの動的 bf Graph Neural Network (SFDyG) を導入する。
入力ウィンドウ内でスナップショットのパーティショニングを取り除くことで、マルチグラフ(2つのノード間の1つ以上のエッジ)を得る。
スケーラブルな3段階のミニバッチトレーニング手法を提案し、フルバッチトレーニング手法と等価性を実証する。
- 参考スコア(独自算出の注目度): 27.616083395612595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic graphs are ubiquitous in the real world, yet there is a lack of suitable theoretical frameworks to effectively extend existing static graph models into the temporal domain. Additionally, for link prediction tasks on discrete dynamic graphs, the requirement of substantial GPU memory to store embeddings of all nodes hinders the scalability of existing models. In this paper, we introduce an Input {\bf S}napshots {\bf F}usion based {\bf Dy}namic {\bf G}raph Neural Network (SFDyG). By eliminating the partitioning of snapshots within the input window, we obtain a multi-graph (more than one edge between two nodes). Subsequently, by introducing a graph denoising problem with the assumption of temporal decayed smoothing, we integrate Hawkes process theory into Graph Neural Networks to model the generated multi-graph. Furthermore, based on the multi-graph, we propose a scalable three-step mini-batch training method and demonstrate its equivalence to full-batch training counterpart. Our experiments, conducted on eight distinct dynamic graph datasets for future link prediction tasks, revealed that SFDyG generally surpasses related methods.
- Abstract(参考訳): 動的グラフは現実世界ではユビキタスだが、既存の静的グラフモデルを時間領域に効果的に拡張する適切な理論的なフレームワークは存在しない。
さらに、離散動的グラフ上のリンク予測タスクでは、すべてのノードの埋め込みを保存するための実質的なGPUメモリの必要性は、既存のモデルのスケーラビリティを妨げる。
本稿では,入力 {\bf S}napshots {\bf F}usion based {\bf Dy}namic {\bf G}raph Neural Network (SFDyG)を紹介する。
入力ウィンドウ内でスナップショットのパーティショニングを取り除くことで、マルチグラフ(2つのノード間の1つ以上のエッジ)が得られる。
その後,時間減衰平滑化を仮定したグラフ記述問題を導入することにより,Hawkesプロセス理論をグラフニューラルネットワークに統合し,生成したマルチグラフをモデル化する。
さらに,マルチグラフに基づいて,スケーラブルな3段階のミニバッチトレーニング手法を提案し,フルバッチトレーニング手法と等価性を実証する。
将来のリンク予測タスクに対して,8つの異なる動的グラフデータセットを用いて実験を行った結果,SFDyGが一般的に関連する手法を超越していることが判明した。
関連論文リスト
- ScaDyG:A New Paradigm for Large-scale Dynamic Graph Learning [31.629956388962814]
ScaDyGは動的グラフネットワークのためのタイムアウェアなスケーラブルな学習パラダイムである。
12のデータセットの実験では、ScaDyGは、ノードレベルとリンクレベルの両方の下流タスクにおいて、互換性のあるパフォーマンス、あるいは他のSOTAメソッドよりも優れています。
論文 参考訳(メタデータ) (2025-01-27T12:39:16Z) - DyG-Mamba: Continuous State Space Modeling on Dynamic Graphs [59.434893231950205]
動的グラフ学習は、現実世界のシステムにおける進化の法則を明らかにすることを目的としている。
動的グラフ学習のための新しい連続状態空間モデルDyG-Mambaを提案する。
我々はDyG-Mambaがほとんどのデータセットで最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-08-13T15:21:46Z) - State Space Models on Temporal Graphs: A First-Principles Study [30.531930200222423]
深層グラフ学習の研究は、動的挙動を示す実世界の複雑なシステムに応答して、静的グラフから時間グラフへ移行した。
RNNやTransformerのようなシーケンスモデルは、このような時間グラフをモデル化するための主要なバックボーンネットワークである。
時間グラフのダイナミクスをモデル化するためのグラフ状態空間モデルであるGraphSSMを開発した。
論文 参考訳(メタデータ) (2024-06-03T02:56:11Z) - TimeGraphs: Graph-based Temporal Reasoning [64.18083371645956]
TimeGraphsは階層的時間グラフとして動的相互作用を特徴付ける新しいアプローチである。
提案手法は,コンパクトなグラフベース表現を用いて相互作用をモデル化し,多種多様な時間スケールでの適応推論を可能にする。
我々は,サッカーシミュレータ,抵抗ゲーム,MOMA人間活動データセットなど,複雑でダイナミックなエージェントインタラクションを持つ複数のデータセット上でTimeGraphsを評価する。
論文 参考訳(メタデータ) (2024-01-06T06:26:49Z) - Dynamic Causal Explanation Based Diffusion-Variational Graph Neural
Network for Spatio-temporal Forecasting [60.03169701753824]
時間予測のための動的拡散型グラフニューラルネットワーク(DVGNN)を提案する。
提案したDVGNNモデルは最先端のアプローチよりも優れ,Root Mean Squared Errorの結果が優れている。
論文 参考訳(メタデータ) (2023-05-16T11:38:19Z) - Decoupled Graph Neural Networks for Large Dynamic Graphs [14.635923016087503]
大規模動的グラフのための疎結合グラフニューラルネットワークを提案する。
このアルゴリズムは,両種類の動的グラフにおいて,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-05-14T23:00:10Z) - Temporal Aggregation and Propagation Graph Neural Networks for Dynamic
Representation [67.26422477327179]
時間グラフは連続時間を通してノード間の動的相互作用を示す。
本研究では,周辺地域全体と時間的グラフ畳み込みの新たな手法を提案する。
提案するTAP-GNNは,予測性能とオンライン推論遅延の両面で,既存の時間グラフ手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-15T08:17:18Z) - Time-aware Random Walk Diffusion to Improve Dynamic Graph Learning [3.4012007729454816]
TiaRaは、グラフスナップショットの離散時間シーケンスとして表される動的グラフを拡大するための、新しい拡散ベースの方法である。
TiaRaは与えられた動的グラフを効果的に拡張し、様々なグラフデータセットやタスクに対する動的GNNモデルを大幅に改善することを示す。
論文 参考訳(メタデータ) (2022-11-02T15:55:46Z) - Multivariate Time Series Forecasting with Dynamic Graph Neural ODEs [65.18780403244178]
動的グラフニューラル正規微分方程式(MTGODE)を用いた多変量時系列予測連続モデルを提案する。
具体的には、まず、時間進化するノードの特徴と未知のグラフ構造を持つ動的グラフに多変量時系列を抽象化する。
そして、欠落したグラフトポロジを補完し、空間的および時間的メッセージパッシングを統一するために、ニューラルODEを設計、解決する。
論文 参考訳(メタデータ) (2022-02-17T02:17:31Z) - Efficient Dynamic Graph Representation Learning at Scale [66.62859857734104]
本稿では,学習損失による時間依存性を選択的に表現し,計算の並列性を改善するための効率的な動的グラフ lEarning (EDGE) を提案する。
EDGEは、数百万のノードと数億の時間的イベントを持つ動的グラフにスケールでき、新しい最先端(SOTA)パフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2021-12-14T22:24:53Z) - Temporal Graph Networks for Deep Learning on Dynamic Graphs [4.5158585619109495]
時系列グラフネットワーク(TGN)は,時系列イベントのシーケンスとして表される動的グラフの深層学習のための汎用的で効率的なフレームワークである。
メモリモジュールとグラフベースの演算子を組み合わせた新しい組み合わせにより、TGNは、計算効率が向上した以前のアプローチを大幅に上回ることができる。
論文 参考訳(メタデータ) (2020-06-18T16:06:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。