論文の概要: SGNNBench: A Holistic Evaluation of Spiking Graph Neural Network on Large-scale Graph
- arxiv url: http://arxiv.org/abs/2509.21342v1
- Date: Tue, 16 Sep 2025 08:22:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 05:29:07.757226
- Title: SGNNBench: A Holistic Evaluation of Spiking Graph Neural Network on Large-scale Graph
- Title(参考訳): SGNNBench: 大規模グラフ上でのスパイクグラフニューラルネットワークの全体的評価
- Authors: Huizhe Zhang, Jintang Li, Yuchang Zhu, Liang Chen, Li Kuang,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフデータ用に設計された模範的なディープモデルである。
グラフ表現学習のための複雑な機械を開発する傾向は、大規模グラフでは持続不可能になっている。
SGNNBenchは、有効性、エネルギー効率、アーキテクチャ設計など、さまざまな観点から、SGNNの詳細な調査を行っている。
- 参考スコア(独自算出の注目度): 18.386483393473824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) are exemplary deep models designed for graph data. Message passing mechanism enables GNNs to effectively capture graph topology and push the performance boundaries across various graph tasks. However, the trend of developing such complex machinery for graph representation learning has become unsustainable on large-scale graphs. The computational and time overhead make it imperative to develop more energy-efficient GNNs to cope with the explosive growth of real-world graphs. Spiking Graph Neural Networks (SGNNs), which integrate biologically plausible learning via unique spike-based neurons, have emerged as a promising energy-efficient alternative. Different layers communicate with sparse and binary spikes, which facilitates computation and storage of intermediate graph representations. Despite the proliferation of SGNNs proposed in recent years, there is no systematic benchmark to explore the basic design principles of these brain-inspired networks on the graph data. To bridge this gap, we present SGNNBench to quantify progress in the field of SGNNs. Specifically, SGNNBench conducts an in-depth investigation of SGNNs from multiple perspectives, including effectiveness, energy efficiency, and architectural design. We comprehensively evaluate 9 state-of-the-art SGNNs across 18 datasets. Regarding efficiency, we empirically compare these baselines w.r.t model size, memory usage, and theoretical energy consumption to reveal the often-overlooked energy bottlenecks of SGNNs. Besides, we elaborately investigate the design space of SGNNs to promote the development of a general SGNN paradigm.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフデータ用に設計された模範的なディープモデルである。
メッセージパッシングメカニズムにより、GNNはグラフトポロジを効果的にキャプチャし、さまざまなグラフタスクのパフォーマンスバウンダリをプッシュすることができる。
しかし、グラフ表現学習のための複雑な機械を開発する傾向は、大規模グラフでは持続不可能になっている。
計算と時間のオーバーヘッドにより、実世界のグラフの爆発的な成長に対処するために、よりエネルギー効率の良いGNNを開発することが不可欠である。
Spiking Graph Neural Networks(SGNN)は、ユニークなスパイクベースのニューロンを介して生物学的にもっともらしい学習を統合することで、エネルギー効率の良い代替手段として登場した。
異なるレイヤはスパースやバイナリスパイクと通信し、中間グラフ表現の計算と保存を容易にする。
近年のSGNNの普及にもかかわらず、グラフデータ上でこれらの脳にインスパイアされたネットワークの基本設計原則を探索するための体系的なベンチマークは存在しない。
このギャップを埋めるため、SGNNBenchを提案し、SGNNの分野の進歩を定量化する。
具体的には、SGNNBenchは、有効性、エネルギー効率、アーキテクチャ設計など、さまざまな観点から、SGNNの詳細な調査を行っている。
我々は18データセットにわたる9つの最先端SGNNを包括的に評価した。
効率に関して、我々はこれらのベースラインw.r.tモデルサイズ、メモリ使用量、理論エネルギー消費を比較し、しばしば見過ごされるSGNNのエネルギーボトルネックを明らかにする。
さらに,汎用SGNNパラダイムの開発を促進するため,SGNNの設計空間を精査する。
関連論文リスト
- Dirac--Bianconi Graph Neural Networks -- Enabling Non-Diffusive Long-Range Graph Predictions [2.3639951900278744]
我々は最近ビアンコーニが提唱したトポロジカルディラック方程式に基づいて,ディラック-ビアンコーニGNN(DBGNN)を紹介する。
グラフラプラシアンに基づいて、DBGNNが従来のメッセージパッシングニューラルネットワーク(MPNN)と根本的に異なる方法でグラフの幾何学を探索することを実証する。
論文 参考訳(メタデータ) (2024-07-17T08:59:00Z) - A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Continuous Spiking Graph Neural Networks [43.28609498855841]
連続グラフニューラルネットワーク(CGNN)は、既存の離散グラフニューラルネットワーク(GNN)を一般化する能力によって注目されている。
本稿では,2階ODEを用いたCOS-GNNの高次構造について紹介する。
我々は、COS-GNNが爆発や消滅の問題を効果的に軽減し、ノード間の長距離依存関係を捕捉できるという理論的証明を提供する。
論文 参考訳(メタデータ) (2024-04-02T12:36:40Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Spiking Variational Graph Auto-Encoders for Efficient Graph
Representation Learning [10.65760757021534]
本稿では,効率的なグラフ表現学習のためのSNNに基づく深層生成手法,すなわちSpking Variational Graph Auto-Encoders (S-VGAE)を提案する。
我々は,複数のベンチマークグラフデータセット上でリンク予測実験を行い,この結果から,グラフ表現学習における他のANNやSNNに匹敵する性能で,より少ないエネルギーを消費することを示した。
論文 参考訳(メタデータ) (2022-10-24T12:54:41Z) - Explaining Dynamic Graph Neural Networks via Relevance Back-propagation [8.035521056416242]
グラフニューラルネットワーク(GNN)は、グラフ構造化データにおいて、豊富な情報を捕捉する際、顕著な効果を示した。
GNNのブラックボックスの性質は、モデルの理解と信頼を妨げるため、アプリケーションに困難をもたらす。
本稿ではDGExplainerを提案し,動的GNNの信頼性について説明する。
論文 参考訳(メタデータ) (2022-07-22T16:20:34Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。