論文の概要: Graph Retention Networks for Dynamic Graphs
- arxiv url: http://arxiv.org/abs/2411.11259v1
- Date: Mon, 18 Nov 2024 03:28:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:28:28.910864
- Title: Graph Retention Networks for Dynamic Graphs
- Title(参考訳): 動的グラフのためのグラフ保持ネットワーク
- Authors: Qian Chang, Xia Li, Xiufeng Cheng,
- Abstract要約: 動的グラフの深層学習のための統合アーキテクチャとしてグラフ保持ネットワークを提案する。
GRNは、グラフ保持としての動的グラフデータに対して、コア計算の保持方法を拡張している。
ベンチマークデータセットを用いて行った実験は、エッジレベルの予測とノードレベルの分類タスクの両方において、GRNの優れた性能を示す。
- 参考スコア(独自算出の注目度): 4.4053348026380235
- License:
- Abstract: In this work, we propose Graph Retention Network as a unified architecture for deep learning on dynamic graphs. The GRN extends the core computational manner of retention to dynamic graph data as graph retention, which empowers the model with three key computational paradigms that enable training parallelism, $O(1)$ low-cost inference, and long-term batch training. This architecture achieves an optimal balance of effectiveness, efficiency, and scalability. Extensive experiments conducted on benchmark datasets present the superior performance of the GRN in both edge-level prediction and node-level classification tasks. Our architecture achieves cutting-edge results while maintaining lower training latency, reduced GPU memory consumption, and up to an 86.7x improvement in inference throughput compared to baseline models. The GRNs have demonstrated strong potential to become a widely adopted architecture for dynamic graph learning tasks. Code will be available at https://github.com/Chandler-Q/GraphRetentionNet.
- Abstract(参考訳): 本研究では,動的グラフの深層学習のための統合アーキテクチャとしてグラフ保持ネットワークを提案する。
GRNは、並列性のトレーニングを可能にする3つの主要な計算パラダイム、$O(1)$低コスト推論、長期バッチトレーニングでモデルを強化する。
このアーキテクチャは、効率、効率、スケーラビリティの最適なバランスを達成する。
ベンチマークデータセット上で実施された大規模な実験は、エッジレベルの予測とノードレベルの分類タスクの両方において、GRNの優れた性能を示す。
我々のアーキテクチャは、トレーニングレイテンシを低くし、GPUメモリ消費を削減し、ベースラインモデルと比較して推論スループットを最大86.7倍改善しながら、最先端の結果を達成する。
GRNは、動的グラフ学習タスクに広く採用されるアーキテクチャになる可能性を示している。
コードはhttps://github.com/Chandler-Q/GraphRetentionNetで入手できる。
関連論文リスト
- Efficient and Effective Implicit Dynamic Graph Neural Network [42.49148111696576]
Indicit Dynamic Graph Neural Network (IDGNN) は動的グラフのための新しい暗黙的ニューラルネットワークである。
IDGNNの鍵となる特徴は、それが実証的に良好である、すなわち、固定点表現を持つことが理論的に保証されていることである。
論文 参考訳(メタデータ) (2024-06-25T19:07:21Z) - Gradient Transformation: Towards Efficient and Model-Agnostic Unlearning for Dynamic Graph Neural Networks [66.70786325911124]
グラフアンラーニングは、ユーザのプライバシ保護と、望ましくないデータによるネガティブな影響軽減に不可欠なツールとして登場した。
DGNNの普及に伴い、動的グラフアンラーニングの実装を検討することが不可欠となる。
DGNNアンラーニングを実装するために,効率的,効率的,モデルに依存しない,事後処理手法を提案する。
論文 参考訳(メタデータ) (2024-05-23T10:26:18Z) - DGC: Training Dynamic Graphs with Spatio-Temporal Non-Uniformity using
Graph Partitioning by Chunks [13.279145021338534]
動的グラフニューラルネットワーク(DGNN)は、空間的特徴と時間的特徴の両方を利用して動的グラフを学習する強力な能力を示している。
DGCは分散DGNNトレーニングシステムであり,テストベッドにおける最先端技術よりも1.25倍から7.52倍の高速化を実現する。
論文 参考訳(メタデータ) (2023-09-07T07:12:59Z) - EGRC-Net: Embedding-induced Graph Refinement Clustering Network [66.44293190793294]
埋め込みによるグラフリファインメントクラスタリングネットワーク (EGRC-Net) という新しいグラフクラスタリングネットワークを提案する。
EGRC-Netは学習した埋め込みを利用して初期グラフを適応的に洗練し、クラスタリング性能を向上させる。
提案手法はいくつかの最先端手法より一貫して優れている。
論文 参考訳(メタデータ) (2022-11-19T09:08:43Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Efficient Dynamic Graph Representation Learning at Scale [66.62859857734104]
本稿では,学習損失による時間依存性を選択的に表現し,計算の並列性を改善するための効率的な動的グラフ lEarning (EDGE) を提案する。
EDGEは、数百万のノードと数億の時間的イベントを持つ動的グラフにスケールでき、新しい最先端(SOTA)パフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2021-12-14T22:24:53Z) - Dynamic Graph Representation Learning via Graph Transformer Networks [41.570839291138114]
動的グラフ変換器 (DGT) を用いた動的グラフ学習手法を提案する。
DGTは、グラフトポロジを効果的に学習し、暗黙のリンクをキャプチャするための時空間符号化を持つ。
DGTはいくつかの最先端のベースラインと比較して優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-19T21:44:23Z) - SPA-GCN: Efficient and Flexible GCN Accelerator with an Application for
Graph Similarity Computation [7.54579279348595]
本稿では,グラフ上のグラフ畳み込みネットワーク(GCN)を高速化するための,SPA-GCNと呼ばれる柔軟なアーキテクチャを提案する。
SPA-GCNはマルチコアCPU実装やGPU実装と比較して高速に動作可能であることを示す。
論文 参考訳(メタデータ) (2021-11-10T20:47:57Z) - Temporal Graph Networks for Deep Learning on Dynamic Graphs [4.5158585619109495]
時系列グラフネットワーク(TGN)は,時系列イベントのシーケンスとして表される動的グラフの深層学習のための汎用的で効率的なフレームワークである。
メモリモジュールとグラフベースの演算子を組み合わせた新しい組み合わせにより、TGNは、計算効率が向上した以前のアプローチを大幅に上回ることができる。
論文 参考訳(メタデータ) (2020-06-18T16:06:18Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。