論文の概要: Graph Networks with Spectral Message Passing
- arxiv url: http://arxiv.org/abs/2101.00079v1
- Date: Thu, 31 Dec 2020 21:33:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-17 18:23:14.621221
- Title: Graph Networks with Spectral Message Passing
- Title(参考訳): スペクトルメッセージパッシングを用いたグラフネットワーク
- Authors: Kimberly Stachenfeld, Jonathan Godwin, Peter Battaglia
- Abstract要約: 本稿では,空間領域とスペクトル領域の両方にメッセージパッシングを適用するSpectral Graph Networkを紹介する。
その結果,spectrum gnは効率のよいトレーニングを促進し,より多くのパラメータを持つにもかかわらず,少ないトレーニングイテレーションで高いパフォーマンスを達成できることがわかった。
- 参考スコア(独自算出の注目度): 1.0742675209112622
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) are the subject of intense focus by the machine
learning community for problems involving relational reasoning. GNNs can be
broadly divided into spatial and spectral approaches. Spatial approaches use a
form of learned message-passing, in which interactions among vertices are
computed locally, and information propagates over longer distances on the graph
with greater numbers of message-passing steps. Spectral approaches use
eigendecompositions of the graph Laplacian to produce a generalization of
spatial convolutions to graph structured data which access information over
short and long time scales simultaneously. Here we introduce the Spectral Graph
Network, which applies message passing to both the spatial and spectral
domains. Our model projects vertices of the spatial graph onto the Laplacian
eigenvectors, which are each represented as vertices in a fully connected
"spectral graph", and then applies learned message passing to them. We apply
this model to various benchmark tasks including a graph-based variant of MNIST
classification, molecular property prediction on MoleculeNet and QM9, and
shortest path problems on random graphs. Our results show that the Spectral GN
promotes efficient training, reaching high performance with fewer training
iterations despite having more parameters. The model also provides robustness
to edge dropout and outperforms baselines for the classification tasks. We also
explore how these performance benefits depend on properties of the dataset.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、リレーショナル推論に関わる問題に対して、機械学習コミュニティが集中する対象である。
gnnは広く空間的アプローチとスペクトル的アプローチに分けられる。
空間的アプローチは学習されたメッセージパッシングの形式を用いており、頂点間の相互作用は局所的に計算され、情報はより多くのメッセージパッシングステップでグラフ上の長い距離を伝播する。
スペクトルアプローチはグラフラプラシアンの固有分解を用いて、短い時間と長い時間で情報にアクセスするグラフ構造化データへの空間畳み込みの一般化を生成する。
本稿では、空間領域とスペクトル領域の両方にメッセージパッシングを適用するSpectral Graph Networkを紹介する。
我々のモデルでは空間グラフの頂点をラプラシア固有ベクトルに投影し、それぞれが完全に連結された「スペクトルグラフ」の頂点として表現され、学習されたメッセージがそれらに渡される。
このモデルを,MNIST分類のグラフに基づく変種,分子特性予測,およびランダムグラフ上の最短経路問題など,様々なベンチマークタスクに適用する。
その結果,spectrum gnは効率のよいトレーニングを促進し,より多くのパラメータを持つにもかかわらず,少ないトレーニングイテレーションで高いパフォーマンスを達成できることがわかった。
モデルはまた、エッジドロップアウトに対して堅牢性を提供し、分類タスクのベースラインを上回っます。
また、これらのパフォーマンスの利点がデータセットの特性に依存するかについても検討する。
関連論文リスト
- Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - Template based Graph Neural Network with Optimal Transport Distances [11.56532171513328]
現在のグラフニューラルネットワーク(GNN)アーキテクチャは、2つの重要なコンポーネントに依存している。
本稿では,学習可能なグラフテンプレートとの距離をグラフ表現のコアに配置する新しい視点を提案する。
この距離埋め込みは、Fused Gromov-Wasserstein (FGW) 距離という最適な輸送距離によって構築される。
論文 参考訳(メタデータ) (2022-05-31T12:24:01Z) - Graph Neural Networks with Feature and Structure Aware Random Walk [7.143879014059894]
典型的な好適なグラフでは、エッジを指向する可能性があり、エッジをそのまま扱うか、あるいは単純に非指向にするかは、GNNモデルの性能に大きな影響を与える。
そこで我々は,グラフの方向性を適応的に学習するモデルを開発し,ノード間の長距離相関を生かした。
論文 参考訳(メタデータ) (2021-11-19T08:54:21Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - Pointspectrum: Equivariance Meets Laplacian Filtering for Graph
Representation Learning [3.7875603451557063]
グラフ表現学習(GRL)は、現代のグラフデータマイニングおよび学習タスクに欠かせないものとなっている。
グラフニューラルネットワーク(GNN)は最先端のGRLアーキテクチャで使用されているが、過度なスムース化に悩まされていることが示されている。
本稿では,グラフの構造を考慮に入れたスペクトル法であるPointSpectrumを提案する。
論文 参考訳(メタデータ) (2021-09-06T10:59:11Z) - Spectral-Spatial Global Graph Reasoning for Hyperspectral Image
Classification [50.899576891296235]
畳み込みニューラルネットワークは、ハイパースペクトル画像分類に広く応用されている。
近年の手法は空間トポロジのグラフ畳み込みによってこの問題に対処しようとしている。
論文 参考訳(メタデータ) (2021-06-26T06:24:51Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Spectral Graph Attention Network with Fast Eigen-approximation [103.93113062682633]
スペクトルグラフ注意ネットワーク(SpGAT)は、重み付きフィルタとグラフウェーブレットベースに関する異なる周波数成分の表現を学習する。
固有分解による計算コストを削減するために,高速近似変種SpGAT-Chebyを提案する。
半教師付きノード分類タスクにおけるSpGATとSpGAT-Chebyの性能を徹底的に評価する。
論文 参考訳(メタデータ) (2020-03-16T21:49:34Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z) - Geom-GCN: Geometric Graph Convolutional Networks [15.783571061254847]
本稿では,この2つの弱点を克服するために,グラフニューラルネットワークのための新しい幾何集約手法を提案する。
提案したアグリゲーションスキームは置換不変であり、ノード埋め込み、構造近傍、二レベルアグリゲーションという3つのモジュールから構成される。
また,このスキームをGeom-GCNと呼ばれるグラフ畳み込みネットワークに実装し,グラフ上でトランスダクティブ学習を行う。
論文 参考訳(メタデータ) (2020-02-13T00:03:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。