論文の概要: Spiking GATs: Learning Graph Attentions via Spiking Neural Network
- arxiv url: http://arxiv.org/abs/2209.13539v1
- Date: Mon, 5 Sep 2022 01:18:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 23:48:45.686919
- Title: Spiking GATs: Learning Graph Attentions via Spiking Neural Network
- Title(参考訳): Spiking GAT: スパイクニューラルネットワークによるグラフアテンションの学習
- Authors: Beibei Wang and Bo Jiang
- Abstract要約: グラフデータ表現と学習のための新しいグラフスパイキング注意ネットワーク(GSAT)を提案する。
既存のGATの自己保持機構とは対照的に,提案したGSATでは,エネルギー効率のよいSNNモジュールアーキテクチャを採用している。
いくつかのデータセットに対する実験結果は、提案したGSATモデルの有効性、エネルギー効率、ロバスト性を示している。
- 参考スコア(独自算出の注目度): 14.573383849211773
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Attention Networks (GATs) have been intensively studied and widely used
in graph data learning tasks. Existing GATs generally adopt the self-attention
mechanism to conduct graph edge attention learning, requiring expensive
computation. It is known that Spiking Neural Networks (SNNs) can perform
inexpensive computation by transmitting the input signal data into discrete
spike trains and can also return sparse outputs. Inspired by the merits of
SNNs, in this work, we propose a novel Graph Spiking Attention Network (GSAT)
for graph data representation and learning. In contrast to self-attention
mechanism in existing GATs, the proposed GSAT adopts a SNN module architecture
which is obvious energy-efficient. Moreover, GSAT can return sparse attention
coefficients in natural and thus can perform feature aggregation on the
selective neighbors which makes GSAT perform robustly w.r.t graph edge noises.
Experimental results on several datasets demonstrate the effectiveness, energy
efficiency and robustness of the proposed GSAT model.
- Abstract(参考訳): グラフアテンションネットワーク(gats)は集中的に研究され、グラフデータ学習タスクで広く使われている。
既存のGATは一般的に、グラフエッジの注意学習を行うための自己注意機構を採用し、高価な計算を必要とする。
スパイクニューラルネットワーク(snn)は、入力信号データを離散スパイク列に送信することで安価な計算を実行し、スパース出力を返すことで知られている。
本研究では,SNNのメリットに触発されて,グラフデータ表現と学習のためのグラフスパイク注意ネットワーク(GSAT)を提案する。
既存のGATの自己保持機構とは対照的に,提案したGSATでは,エネルギー効率のよいSNNモジュールアーキテクチャを採用している。
さらに、GSATは自然界でスパースアテンション係数を返却できるため、選択された隣人に対して特徴集約を行うことができ、GSATはグラフエッジノイズを頑健に行うことができる。
いくつかのデータセットにおける実験結果は,gsatモデルの有効性,エネルギー効率,ロバスト性を示す。
関連論文リスト
- Representation Learning on Heterophilic Graph with Directional
Neighborhood Attention [8.493802098034255]
Graph Attention Network(GAT)は、最も人気のあるGraph Neural Network(GNN)アーキテクチャの1つである。
GATは、長距離およびグローバルグラフ情報をキャプチャする能力に欠けており、いくつかのデータセットで不満足なパフォーマンスをもたらす。
本稿では,特徴に基づく注意と,グラフトポロジから抽出したグローバルな方向性情報を組み合わせるために,DGAT(Directional Graph Attention Network)を提案する。
論文 参考訳(メタデータ) (2024-03-03T10:59:16Z) - Graph Coordinates and Conventional Neural Networks -- An Alternative for
Graph Neural Networks [0.10923877073891444]
メッセージパッシングGNNの新たな代替手段として,Topology Coordinate Neural Network (TCNN) と Directional Virtual Coordinate Neural Network (DVCNN) を提案する。
TCNNとDVCNNは、メッセージパッシングGNNの競合や優れたパフォーマンスを達成する。
私たちの研究は、グラフベースの機械学習のためのテクニックのツールボックスを拡張します。
論文 参考訳(メタデータ) (2023-12-03T10:14:10Z) - Learnable Graph Convolutional Attention Networks [7.465923786151107]
グラフニューラルネットワーク(GNN)は、ノード間のメッセージ交換を、隣接するすべてのノードの特徴を均一に(関連する)集約するか、あるいは特徴に一様でないスコア(動作)を適用することによって計算する。
最近の研究は、それぞれGCNとGATのGNNアーキテクチャの長所と短所を示している。
本稿では、注目スコアを計算するために、畳み込みに依存するグラフ畳み込みアテンション層(CAT)を紹介する。
以上の結果から,L-CATはネットワーク上の異なるGNN層を効率よく結合し,競合する手法よりも広い範囲で優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2022-11-21T21:08:58Z) - Towards Understanding Graph Neural Networks: An Algorithm Unrolling
Perspective [9.426760895586428]
本稿では,グラフ信号の復号化問題に対して,truncated Optimizationアルゴリズムに基づいて構築されたアンロールネットワークのクラスを紹介する。
GNNモデルのトレーニングプロセスは、低レベルのGSD問題による二段階最適化問題の解決と見なすことができる。
UGDGNNという表現モデル、すなわち、非線形勾配勾配GNNは、魅力的な理論的性質を継承する。
論文 参考訳(メタデータ) (2022-06-09T12:54:03Z) - Automatic Relation-aware Graph Network Proliferation [182.30735195376792]
GNNを効率的に検索するためのARGNP(Automatic Relation-Aware Graph Network Proliferation)を提案する。
これらの操作は階層的なノード/リレーショナル情報を抽出し、グラフ上のメッセージパッシングのための異方的ガイダンスを提供する。
4つのグラフ学習タスクのための6つのデータセットの実験により、我々の手法によって生成されたGNNは、現在最先端の手作りおよび検索に基づくGNNよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-31T10:38:04Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Fast Graph Attention Networks Using Effective Resistance Based Graph
Sparsification [70.50751397870972]
FastGATは、スペクトルスペーシフィケーションを用いて、注目に基づくGNNを軽量にし、入力グラフの最適プルーニングを生成する手法である。
我々は,ノード分類タスクのための大規模実世界のグラフデータセット上でFastGATを実験的に評価した。
論文 参考訳(メタデータ) (2020-06-15T22:07:54Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z) - EdgeNets:Edge Varying Graph Neural Networks [179.99395949679547]
本稿では、EdgeNetの概念を通じて、最先端グラフニューラルネットワーク(GNN)を統一する一般的なフレームワークを提案する。
EdgeNetはGNNアーキテクチャであり、異なるノードが異なるパラメータを使って異なる隣人の情報を測定することができる。
これは、ノードが実行でき、既存のグラフ畳み込みニューラルネットワーク(GCNN)とグラフアテンションネットワーク(GAT)の1つの定式化の下で包含できる一般的な線形で局所的な操作である。
論文 参考訳(メタデータ) (2020-01-21T15:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。