論文の概要: Towards Stable, Globally Expressive Graph Representations with Laplacian Eigenvectors
- arxiv url: http://arxiv.org/abs/2410.09737v1
- Date: Sun, 13 Oct 2024 06:02:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 05:12:47.676822
- Title: Towards Stable, Globally Expressive Graph Representations with Laplacian Eigenvectors
- Title(参考訳): ラプラシアン固有ベクトルを用いた安定で大域的表現型グラフ表現に向けて
- Authors: Junru Zhou, Cai Zhou, Xiyuan Wang, Pan Li, Muhan Zhang,
- Abstract要約: 本稿では,ラプラシアン固有ベクトルを用いて,安定かつグローバルに表現可能なグラフ表現を生成する手法を提案する。
提案手法は, 数値的近接固有値を円滑に処理し, 摂動に対するロバスト性を向上する。
- 参考スコア(独自算出の注目度): 29.055130767451036
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) have achieved remarkable success in a variety of machine learning tasks over graph data. Existing GNNs usually rely on message passing, i.e., computing node representations by gathering information from the neighborhood, to build their underlying computational graphs. They are known fairly limited in expressive power, and often fail to capture global characteristics of graphs. To overcome the issue, a popular solution is to use Laplacian eigenvectors as additional node features, as they contain global positional information of nodes, and can serve as extra node identifiers aiding GNNs to separate structurally similar nodes. For such an approach, properly handling the orthogonal group symmetry among eigenvectors with equal eigenvalue is crucial for its stability and generalizability. However, using a naive orthogonal group invariant encoder for each separate eigenspace may not keep the full expressivity in the Laplacian eigenvectors. Moreover, computing such invariants inevitably entails a hard split of Laplacian eigenvalues according to their numerical identity, which suffers from great instability when the graph structure is perturbed. In this paper, we propose a novel method exploiting Laplacian eigenvectors to generate stable and globally expressive graph representations. The main difference from previous works is that (i) our method utilizes learnable orthogonal group invariant representations for each Laplacian eigenspace, based upon powerful orthogonal group equivariant neural network layers already well studied in the literature, and that (ii) our method deals with numerically close eigenvalues in a smooth fashion, ensuring its better robustness against perturbations. Experiments on various graph learning benchmarks witness the competitive performance of our method, especially its great potential to learn global properties of graphs.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフデータよりもさまざまな機械学習タスクにおいて、目覚ましい成功を収めている。
既存のGNNは通常メッセージパッシング、すなわち近隣から情報を集めることによってノード表現を計算し、その基盤となる計算グラフを構築する。
これらは表現力においてかなり限定的であることが知られており、しばしばグラフのグローバルな特性を捉えることができない。
この問題を克服するためには、Laplacian eigenvectorsをノードのグローバルな位置情報を含む追加のノード機能として使用し、GNNを補助する余分なノード識別子として機能し、構造的に類似したノードを分離する。
そのようなアプローチでは、固有ベクトル間の直交群対称性を等しい固有値で適切に扱うことが、その安定性と一般化可能性に不可欠である。
しかし、それぞれの固有空間に対して、素直交群不変エンコーダを用いると、ラプラシア固有ベクトルの完全表現性は保たない。
さらに、そのような不変量の計算は、必然的に、グラフ構造が摂動するときに非常に不安定な、その数値的同一性に従ってラプラシア固有値のハード分割を伴う。
本稿では,ラプラシアン固有ベクトルを用いて,安定かつ大域的に表現可能なグラフ表現を生成する手法を提案する。
以前の作品との主な違いは
i)本手法は,各ラプラシア固有空間に対する学習可能な直交群不変表現を,すでに文献でよく研究されている強力な直交群同変ニューラルネットワーク層に基づいて利用する。
(II) 数値的閉固有値を円滑に処理し, 摂動に対する強靭性を確保する。
各種グラフ学習ベンチマークの実験では,提案手法の競争性能,特にグラフのグローバルな特性を学習する大きな可能性を実証している。
関連論文リスト
- Diss-l-ECT: Dissecting Graph Data with local Euler Characteristic Transforms [13.608942872770855]
グラフ表現学習における表現性と解釈性を高めるために,局所オイラー特性変換(ell$-ECT)を導入する。
従来のグラフニューラルネットワーク(GNN)とは異なり、アグリゲーションによって重要な局所的な詳細を失う可能性があるが、$ell$-ECTは局所的な地区の無意味な表現を提供する。
提案手法は,多種多様なノード分類タスク,特に高いヘテロフィリエを持つグラフにおいて,標準GNNよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-03T16:02:02Z) - Graph Generation via Spectral Diffusion [51.60814773299899]
本稿では,1)グラフラプラシア行列のスペクトル分解と2)拡散過程に基づく新しいグラフ生成モデルGRASPを提案する。
具体的には、固有ベクトルと固有値のサンプリングにデノナイジングモデルを用い、グラフラプラシアン行列と隣接行列を再構成する。
我々の置換不変モデルは各ノードの固有ベクトルに連結することでノードの特徴を扱える。
論文 参考訳(メタデータ) (2024-02-29T09:26:46Z) - GOAt: Explaining Graph Neural Networks via Graph Output Attribution [32.66251068600664]
本稿では,入力グラフの特徴にグラフ出力を属性付ける新しい手法として,グラフ出力属性(GOAt)を提案する。
GOAtは忠実で差別的で、類似のサンプルで安定している。
提案手法は, 一般に使用されている忠実度測定値において, 最先端のGNN説明器よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-01-26T00:32:58Z) - On the Stability of Expressive Positional Encodings for Graphs [46.967035678550594]
ラプラシア固有ベクトルを位置符号化として使用することは、2つの根本的な課題に直面している。
SPE(Stable and Expressive Positional Generalizations)を紹介する。
SPEは(1)確率的に安定であり、(2)基底不変関数に対して普遍的に表現できる最初のアーキテクチャである。
論文 参考訳(メタデータ) (2023-10-04T04:48:55Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Discrete Graph Auto-Encoder [52.50288418639075]
離散グラフオートエンコーダ(DGAE)という新しいフレームワークを導入する。
まず、置換同変オートエンコーダを用いてグラフを離散潜在ノード表現の集合に変換する。
2番目のステップでは、離散潜在表現の集合をソートし、特別に設計された自己回帰モデルを用いてそれらの分布を学習する。
論文 参考訳(メタデータ) (2023-06-13T12:40:39Z) - Sign and Basis Invariant Networks for Spectral Graph Representation
Learning [75.18802152811539]
SignNetとBasisNetは、すべての必須対称性に不変な新しいニューラルアーキテクチャであり、したがって、原則化された方法で固有空間のコレクションを処理する。
我々のネットワークは理論的にはグラフ表現学習に強い -- 任意のスペクトルグラフ畳み込みを近似することができる。
実験により、スペクトルグラフフィルタの学習とグラフ位置エンコーディングの学習のためのネットワークの強みが示された。
論文 参考訳(メタデータ) (2022-02-25T23:11:59Z) - Building powerful and equivariant graph neural networks with structural
message-passing [74.93169425144755]
本稿では,2つのアイデアに基づいた,強力かつ同変なメッセージパッシングフレームワークを提案する。
まず、各ノードの周囲の局所的コンテキスト行列を学習するために、特徴に加えてノードの1ホット符号化を伝搬する。
次に,メッセージのパラメトリゼーション手法を提案する。
論文 参考訳(メタデータ) (2020-06-26T17:15:16Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。