論文の概要: Improving Spectral Graph Convolution for Learning Graph-level
Representation
- arxiv url: http://arxiv.org/abs/2112.07160v1
- Date: Tue, 14 Dec 2021 04:50:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-15 14:38:12.774300
- Title: Improving Spectral Graph Convolution for Learning Graph-level
Representation
- Title(参考訳): グラフレベル表現学習のためのスペクトルグラフ畳み込みの改善
- Authors: Mingqi Yang, Rui Li, Yanming Shen, Heng Qi, Baocai Yin
- Abstract要約: グラフ全体の表現を学習するためには,ノード間の基本的な関係を特徴付けるため,位相的距離が必要と考えられる。
グラフフィルタの制限を取り除くことで、新たなアーキテクチャによってグラフ表現の学習のパフォーマンスが大幅に向上する。
これは、よく知られたスペクトル/ローパスフィルタと比較して、入力信号に対するスペクトルの影響を定量的に測定する理解として機能する。
- 参考スコア(独自算出の注目度): 27.76697047602983
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: From the original theoretically well-defined spectral graph convolution to
the subsequent spatial bassed message-passing model, spatial locality (in
vertex domain) acts as a fundamental principle of most graph neural networks
(GNNs). In the spectral graph convolution, the filter is approximated by
polynomials, where a $k$-order polynomial covers $k$-hop neighbors. In the
message-passing, various definitions of neighbors used in aggregations are
actually an extensive exploration of the spatial locality information. For
learning node representations, the topological distance seems necessary since
it characterizes the basic relations between nodes. However, for learning
representations of the entire graphs, is it still necessary to hold? In this
work, we show that such a principle is not necessary, it hinders most existing
GNNs from efficiently encoding graph structures. By removing it, as well as the
limitation of polynomial filters, the resulting new architecture significantly
boosts performance on learning graph representations. We also study the effects
of graph spectrum on signals and interpret various existing improvements as
different spectrum smoothing techniques. It serves as a spatial understanding
that quantitatively measures the effects of the spectrum to input signals in
comparison to the well-known spectral understanding as high/low-pass filters.
More importantly, it sheds the light on developing powerful graph
representation models.
- Abstract(参考訳): 理論上よく定義されたスペクトルグラフの畳み込みから続く空間バスメッセージパスモデルまで、空間的局所性(頂点領域における)は多くのグラフニューラルネットワーク(GNN)の基本原理として機能する。
スペクトルグラフの畳み込みでは、フィルタは$k$次多項式が$k$ホップ近傍をカバーする多項式によって近似される。
メッセージパッシングでは、アグリゲーションで使われる近隣の様々な定義は、実際には空間的局所性情報の広範囲な探索である。
ノード表現を学ぶには、ノード間の基本関係を特徴付けるので、トポロジカル距離が必要である。
しかし、グラフ全体の表現を学ぶには、まだ保持する必要がありますか?
本研究では,そのような原理は不要であり,既存のGNNがグラフ構造を効率的に符号化することを妨げていることを示す。
多項式フィルタの制限を除去することにより、新たなアーキテクチャによりグラフ表現の学習性能が大幅に向上する。
また,信号に対するグラフスペクトルの影響について検討し,様々な改良点を異なるスペクトル平滑化手法として解釈する。
これは、高域通過フィルタとしてよく知られたスペクトル理解と比較して、入力信号に対するスペクトルの影響を定量的に測定する空間理解の役割を果たす。
さらに重要なのは、強力なグラフ表現モデルの開発に光を当てることだ。
関連論文リスト
- GrassNet: State Space Model Meets Graph Neural Network [57.62885438406724]
Graph State Space Network (GrassNet)は、任意のグラフスペクトルフィルタを設計するためのシンプルで効果的なスキームを提供する理論的なサポートを持つ、新しいグラフニューラルネットワークである。
我々の知る限り、我々の研究はグラフGNNスペクトルフィルタの設計にSSMを使った最初のものである。
9つの公開ベンチマークでの大規模な実験により、GrassNetは現実世界のグラフモデリングタスクにおいて優れたパフォーマンスを達成することが明らかになった。
論文 参考訳(メタデータ) (2024-08-16T07:33:58Z) - Specformer: Spectral Graph Neural Networks Meet Transformers [51.644312964537356]
スペクトルグラフニューラルネットワーク(GNN)は、スペクトル領域グラフ畳み込みを通じてグラフ表現を学習する。
本稿では、全ての固有値の集合を効果的に符号化し、スペクトル領域で自己アテンションを行うSpecformerを紹介する。
複数のSpecformerレイヤを積み重ねることで、強力なスペクトルGNNを構築することができる。
論文 参考訳(メタデータ) (2023-03-02T07:36:23Z) - How Powerful are Spectral Graph Neural Networks [9.594432031144715]
スペクトルグラフニューラルネットワーク(Spectral Graph Neural Network)は、グラフ信号フィルタに基づくグラフニューラルネットワークの一種である。
まず、非線形性のないスペクトルGNNでさえ任意のグラフ信号を生成することを証明した。
また、スペクトルGNNの表現力とグラフアイソモーフィズム(GI)テストの関連性を確立する。
論文 参考訳(メタデータ) (2022-05-23T10:22:12Z) - Pointspectrum: Equivariance Meets Laplacian Filtering for Graph
Representation Learning [3.7875603451557063]
グラフ表現学習(GRL)は、現代のグラフデータマイニングおよび学習タスクに欠かせないものとなっている。
グラフニューラルネットワーク(GNN)は最先端のGRLアーキテクチャで使用されているが、過度なスムース化に悩まされていることが示されている。
本稿では,グラフの構造を考慮に入れたスペクトル法であるPointSpectrumを提案する。
論文 参考訳(メタデータ) (2021-09-06T10:59:11Z) - Spectral-Spatial Global Graph Reasoning for Hyperspectral Image
Classification [50.899576891296235]
畳み込みニューラルネットワークは、ハイパースペクトル画像分類に広く応用されている。
近年の手法は空間トポロジのグラフ畳み込みによってこの問題に対処しようとしている。
論文 参考訳(メタデータ) (2021-06-26T06:24:51Z) - Graph Neural Networks with Adaptive Frequency Response Filter [55.626174910206046]
適応周波数応答フィルタを用いたグラフニューラルネットワークフレームワークAdaGNNを開発した。
提案手法の有効性を,様々なベンチマークデータセット上で実証的に検証した。
論文 参考訳(メタデータ) (2021-04-26T19:31:21Z) - Graph Networks with Spectral Message Passing [1.0742675209112622]
本稿では,空間領域とスペクトル領域の両方にメッセージパッシングを適用するSpectral Graph Networkを紹介する。
その結果,spectrum gnは効率のよいトレーニングを促進し,より多くのパラメータを持つにもかかわらず,少ないトレーニングイテレーションで高いパフォーマンスを達成できることがわかった。
論文 参考訳(メタデータ) (2020-12-31T21:33:17Z) - Graph Pooling with Node Proximity for Hierarchical Representation
Learning [80.62181998314547]
本稿では,ノード近接を利用したグラフプーリング手法を提案し,そのマルチホップトポロジを用いたグラフデータの階層的表現学習を改善する。
その結果,提案したグラフプーリング戦略は,公開グラフ分類ベンチマークデータセットの集合において,最先端のパフォーマンスを達成できることが示唆された。
論文 参考訳(メタデータ) (2020-06-19T13:09:44Z) - Graphon Pooling in Graph Neural Networks [169.09536309161314]
グラフニューラルネットワーク(GNN)は、グラフによってモデル化された不規則構造上の信号の処理を含む様々なアプリケーションで効果的に使用されている。
本稿では,グラフのスペクトル特性を保存したグラフオンを用いて,GNNのプールとサンプリングを行う新しい手法を提案する。
論文 参考訳(メタデータ) (2020-03-03T21:04:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。