論文の概要: Dynamic Spiking Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2401.05373v1
- Date: Fri, 15 Dec 2023 12:45:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 08:58:52.456383
- Title: Dynamic Spiking Graph Neural Networks
- Title(参考訳): 動的スパイキンググラフニューラルネットワーク
- Authors: Nan Yin, Mengzhu Wang, Zhenghan Chen, Giulia De Masi, Bin Gu, Huan
Xiong
- Abstract要約: underlineDynamic underlineSpunderlineiking underlineGraph underlineNeural Networks (method)というフレームワークを提案する。
3つの大規模実世界の動的グラフ実験により, 手法の有効性が検証された。
- 参考スコア(独自算出の注目度): 27.63947171747171
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The integration of Spiking Neural Networks (SNNs) and Graph Neural Networks
(GNNs) is gradually attracting attention due to the low power consumption and
high efficiency in processing the non-Euclidean data represented by graphs.
However, as a common problem, dynamic graph representation learning faces
challenges such as high complexity and large memory overheads. Current work
often uses SNNs instead of Recurrent Neural Networks (RNNs) by using binary
features instead of continuous ones for efficient training, which would
overlooks graph structure information and leads to the loss of details during
propagation. Additionally, optimizing dynamic spiking models typically requires
propagation of information across time steps, which increases memory
requirements. To address these challenges, we present a framework named
\underline{Dy}namic \underline{S}p\underline{i}king \underline{G}raph
\underline{N}eural Networks (\method{}). To mitigate the information loss
problem, \method{} propagates early-layer information directly to the last
layer for information compensation. To accommodate the memory requirements, we
apply the implicit differentiation on the equilibrium state, which does not
rely on the exact reverse of the forward computation. While traditional
implicit differentiation methods are usually used for static situations,
\method{} extends it to the dynamic graph setting. Extensive experiments on
three large-scale real-world dynamic graph datasets validate the effectiveness
of \method{} on dynamic node classification tasks with lower computational
costs.
- Abstract(参考訳): グラフで表される非ユークリッドデータの処理において、低消費電力と高効率のため、スパイキングニューラルネットワーク(SNN)とグラフニューラルネットワーク(GNN)の統合が徐々に注目を集めている。
しかし、一般的な問題として、動的グラフ表現学習は、高い複雑性や大きなメモリオーバーヘッドといった課題に直面している。
現在の作業では、グラフ構造情報を見落とし、伝播中に詳細が失われてしまうような、効率的なトレーニングのために、連続的な機能ではなくバイナリ機能を使用することで、リカレントニューラルネットワーク(RNN)の代わりにSNNを使用することが多い。
さらに、動的スパイクモデルの最適化には、通常、時間ステップにわたる情報の伝播が必要であり、メモリ要件が増大する。
これらの課題に対処するため、我々は \underline{Dy}namic \underline{S}p\underline{i}king \underline{G}raph \underline{N}eural Networks (\method{})というフレームワークを提案する。
情報損失問題を軽減するため、 \method{} は情報補償のために最終層に直接初期層情報を伝播する。
メモリ要件を満たすために、前方計算の正確な逆数に依存しない平衡状態の暗黙的な微分を適用する。
従来の暗黙差分法は通常静的な状況に使用されるが、 \method{} は動的グラフ設定に拡張する。
大規模実世界の3つの動的グラフデータセットに対する大規模な実験は、計算コストの低い動的ノード分類タスクにおける \method{} の有効性を検証する。
関連論文リスト
- Efficient and Effective Implicit Dynamic Graph Neural Network [42.49148111696576]
Indicit Dynamic Graph Neural Network (IDGNN) は動的グラフのための新しい暗黙的ニューラルネットワークである。
IDGNNの鍵となる特徴は、それが実証的に良好である、すなわち、固定点表現を持つことが理論的に保証されていることである。
論文 参考訳(メタデータ) (2024-06-25T19:07:21Z) - Gradient Transformation: Towards Efficient and Model-Agnostic Unlearning for Dynamic Graph Neural Networks [66.70786325911124]
グラフアンラーニングは、ユーザのプライバシ保護と、望ましくないデータによるネガティブな影響軽減に不可欠なツールとして登場した。
DGNNの普及に伴い、動的グラフアンラーニングの実装を検討することが不可欠となる。
DGNNアンラーニングを実装するために,効率的,効率的,モデルに依存しない,事後処理手法を提案する。
論文 参考訳(メタデータ) (2024-05-23T10:26:18Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Scaling Up Dynamic Graph Representation Learning via Spiking Neural
Networks [23.01100055999135]
時間グラフの時間的および構造的パターンを効率的に捉えるために,スケーラブルなフレームワークであるSpikeNetを提案する。
RNNの代替として、SNNは明らかにグラフ力学をニューロンのスパイクトレインとしてモデル化している。
SpikeNetは、パラメータや計算オーバーヘッドが大幅に少ない大きな時間グラフに一般化する。
論文 参考訳(メタデータ) (2022-08-15T09:22:15Z) - Instant Graph Neural Networks for Dynamic Graphs [18.916632816065935]
Instant Graph Neural Network (InstantGNN) を提案する。
提案手法は,時間を要する反復計算を回避し,表現の即時更新と即時予測を可能にする。
本モデルでは,既存手法よりも高精度かつ高次精度で最先端の精度を実現する。
論文 参考訳(メタデータ) (2022-06-03T03:27:42Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - DOTIN: Dropping Task-Irrelevant Nodes for GNNs [119.17997089267124]
最近のグラフ学習アプローチでは、学習のためのグラフのサイズを減らすためのプール戦略が導入されている。
我々はDOTIN(underlineDrunderlineopping underlineTask-underlineIrrelevant underlineNodes)と呼ばれる新しいアプローチを設計し、グラフのサイズを減らす。
本手法は,グラフ分類やグラフ編集距離を含むグラフレベルのタスクにおいて,GATを約50%高速化する。
論文 参考訳(メタデータ) (2022-04-28T12:00:39Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Efficient-Dyn: Dynamic Graph Representation Learning via Event-based
Temporal Sparse Attention Network [2.0047096160313456]
動的グラフニューラルネットワークは、研究者からますます注目を集めている。
本稿では,新しい動的グラフニューラルネットワークであるEfficient-Dynを提案する。
時間的情報を同じ量の時間的トポロジ的構造を持つパッチのシーケンスに適応的に符号化する。
論文 参考訳(メタデータ) (2022-01-04T23:52:24Z) - Learning to Evolve on Dynamic Graphs [5.1521870302904125]
Learning to Evolve on Dynamic Graphs (LEDG)は、グラフ情報と時間情報を共同で学習する新しいアルゴリズムである。
LEDGはモデルに依存しないため、動的グラフ上でメッセージパッシングベースのグラフニューラルネットワーク(GNN)をトレーニングすることができる。
論文 参考訳(メタデータ) (2021-11-13T04:09:30Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。