論文の概要: Scaling Up Dynamic Graph Representation Learning via Spiking Neural
Networks
- arxiv url: http://arxiv.org/abs/2208.10364v3
- Date: Thu, 18 May 2023 11:57:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 21:03:06.693523
- Title: Scaling Up Dynamic Graph Representation Learning via Spiking Neural
Networks
- Title(参考訳): スパイクニューラルネットワークによる動的グラフ表現学習のスケールアップ
- Authors: Jintang Li, Zhouxin Yu, Zulun Zhu, Liang Chen, Qi Yu, Zibin Zheng,
Sheng Tian, Ruofan Wu, Changhua Meng
- Abstract要約: 時間グラフの時間的および構造的パターンを効率的に捉えるために,スケーラブルなフレームワークであるSpikeNetを提案する。
RNNの代替として、SNNは明らかにグラフ力学をニューロンのスパイクトレインとしてモデル化している。
SpikeNetは、パラメータや計算オーバーヘッドが大幅に少ない大きな時間グラフに一般化する。
- 参考スコア(独自算出の注目度): 23.01100055999135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have seen a surge in research on dynamic graph representation
learning, which aims to model temporal graphs that are dynamic and evolving
constantly over time. However, current work typically models graph dynamics
with recurrent neural networks (RNNs), making them suffer seriously from
computation and memory overheads on large temporal graphs. So far, scalability
of dynamic graph representation learning on large temporal graphs remains one
of the major challenges. In this paper, we present a scalable framework, namely
SpikeNet, to efficiently capture the temporal and structural patterns of
temporal graphs. We explore a new direction in that we can capture the evolving
dynamics of temporal graphs with spiking neural networks (SNNs) instead of
RNNs. As a low-power alternative to RNNs, SNNs explicitly model graph dynamics
as spike trains of neuron populations and enable spike-based propagation in an
efficient way. Experiments on three large real-world temporal graph datasets
demonstrate that SpikeNet outperforms strong baselines on the temporal node
classification task with lower computational costs. Particularly, SpikeNet
generalizes to a large temporal graph (2.7M nodes and 13.9M edges) with
significantly fewer parameters and computation overheads.Our code is publicly
available at \url{https://github.com/EdisonLeeeee/SpikeNet}.
- Abstract(参考訳): 近年、動的で経時的に進化する時相グラフをモデル化することを目的として、動的グラフ表現学習の研究が急増している。
しかしながら、現在の研究は通常、リカレントニューラルネットワーク(RNN)でグラフダイナミクスをモデル化し、大きな時間グラフ上の計算とメモリオーバーヘッドに深刻な負担を被る。
これまでのところ、大きな時間グラフ上での動的グラフ表現学習のスケーラビリティは、大きな課題の1つである。
本稿では,時間グラフの時間的および構造的パターンを効率的に捉えるために,スケーラブルなフレームワークspikenetを提案する。
我々は、RNNの代わりにスパイクニューラルネットワーク(SNN)を用いて、時間グラフの進化するダイナミクスを捉えることができる新しい方向を探究する。
RNNに代わる低消費電力の代替として、SNNは明らかにグラフ力学をニューロンのスパイクトレインとしてモデル化し、スパイクベースの効率的な伝播を可能にする。
3つの大規模実世界時相グラフデータセットの実験により、spikenetは計算コストが低い時相ノード分類タスクの強いベースラインを上回ることが示されている。
特にSpikeNetは、パラメータと計算オーバーヘッドが大幅に少ない巨大な時間グラフ(2.7Mノードと13.9Mエッジ)に一般化している。
関連論文リスト
- Gradient Transformation: Towards Efficient and Model-Agnostic Unlearning for Dynamic Graph Neural Networks [66.70786325911124]
グラフアンラーニングは、ユーザのプライバシ保護と、望ましくないデータによるネガティブな影響軽減に不可欠なツールとして登場した。
DGNNの普及に伴い、動的グラフアンラーニングの実装を検討することが不可欠となる。
DGNNアンラーニングを実装するために,効率的,効率的,モデルに依存しない,事後処理手法を提案する。
論文 参考訳(メタデータ) (2024-05-23T10:26:18Z) - Dynamic Spiking Framework for Graph Neural Networks [26.08442716817432]
underlineDynamic underlineSpunderlineiking underlineGraph underlineNeural Networks (method)というフレームワークを提案する。
3つの大規模実世界の動的グラフ実験により, 手法の有効性が検証された。
論文 参考訳(メタデータ) (2023-12-15T12:45:47Z) - Dynamic Causal Explanation Based Diffusion-Variational Graph Neural
Network for Spatio-temporal Forecasting [60.03169701753824]
時間予測のための動的拡散型グラフニューラルネットワーク(DVGNN)を提案する。
提案したDVGNNモデルは最先端のアプローチよりも優れ,Root Mean Squared Errorの結果が優れている。
論文 参考訳(メタデータ) (2023-05-16T11:38:19Z) - Temporal Aggregation and Propagation Graph Neural Networks for Dynamic
Representation [67.26422477327179]
時間グラフは連続時間を通してノード間の動的相互作用を示す。
本研究では,周辺地域全体と時間的グラフ畳み込みの新たな手法を提案する。
提案するTAP-GNNは,予測性能とオンライン推論遅延の両面で,既存の時間グラフ手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-15T08:17:18Z) - Dynamic Graph Node Classification via Time Augmentation [15.580277876084873]
動的グラフ上のノード分類のための時間拡張グラフ動的ニューラルネットワーク(TADGNN)フレームワークを提案する。
TADGNNは, 時間的時間的変化を時間的に捉え, 時間的時間的グラフを生成する時間拡張モジュールと, 構築した時間的時間的グラフを用いて時間的時間的表現を学習する情報伝達モジュールの2つのモジュールから構成される。
実験により,TADGNNフレームワークは,高いスケーラビリティを示しながら,静的かつ動的なSOTAGNNモデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-12-07T04:13:23Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Instant Graph Neural Networks for Dynamic Graphs [18.916632816065935]
Instant Graph Neural Network (InstantGNN) を提案する。
提案手法は,時間を要する反復計算を回避し,表現の即時更新と即時予測を可能にする。
本モデルでは,既存手法よりも高精度かつ高次精度で最先端の精度を実現する。
論文 参考訳(メタデータ) (2022-06-03T03:27:42Z) - Efficient-Dyn: Dynamic Graph Representation Learning via Event-based
Temporal Sparse Attention Network [2.0047096160313456]
動的グラフニューラルネットワークは、研究者からますます注目を集めている。
本稿では,新しい動的グラフニューラルネットワークであるEfficient-Dynを提案する。
時間的情報を同じ量の時間的トポロジ的構造を持つパッチのシーケンスに適応的に符号化する。
論文 参考訳(メタデータ) (2022-01-04T23:52:24Z) - Efficient Dynamic Graph Representation Learning at Scale [66.62859857734104]
本稿では,学習損失による時間依存性を選択的に表現し,計算の並列性を改善するための効率的な動的グラフ lEarning (EDGE) を提案する。
EDGEは、数百万のノードと数億の時間的イベントを持つ動的グラフにスケールでき、新しい最先端(SOTA)パフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2021-12-14T22:24:53Z) - Learning to Evolve on Dynamic Graphs [5.1521870302904125]
Learning to Evolve on Dynamic Graphs (LEDG)は、グラフ情報と時間情報を共同で学習する新しいアルゴリズムである。
LEDGはモデルに依存しないため、動的グラフ上でメッセージパッシングベースのグラフニューラルネットワーク(GNN)をトレーニングすることができる。
論文 参考訳(メタデータ) (2021-11-13T04:09:30Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。