論文の概要: Large-Scale Spectral Graph Neural Networks via Laplacian Sparsification: Technical Report
- arxiv url: http://arxiv.org/abs/2501.04570v1
- Date: Wed, 08 Jan 2025 15:36:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-09 14:55:23.201735
- Title: Large-Scale Spectral Graph Neural Networks via Laplacian Sparsification: Technical Report
- Title(参考訳): Laplacian Sparsificationによる大規模スペクトルグラフニューラルネットワーク:技術報告
- Authors: Haipeng Ding, Zhewei Wei, Yuhang Ye,
- Abstract要約: スペクトルグラフニューラルネットワーク(GNN)の伝搬パターンを近似する新しいグラフスペクトルスカラー化法を提案する。
提案手法では,入力ノード機能に線形レイヤを適用でき,エンドツーエンドのトレーニングや生の機能の処理が可能となる。
- 参考スコア(独自算出の注目度): 21.288230563135055
- License:
- Abstract: Graph Neural Networks (GNNs) play a pivotal role in graph-based tasks for their proficiency in representation learning. Among the various GNN methods, spectral GNNs employing polynomial filters have shown promising performance on tasks involving both homophilous and heterophilous graph structures. However, The scalability of spectral GNNs on large graphs is limited because they learn the polynomial coefficients through multiple forward propagation executions during forward propagation. Existing works have attempted to scale up spectral GNNs by eliminating the linear layers on the input node features, a change that can disrupt end-to-end training, potentially impact performance, and become impractical with high-dimensional input features. To address the above challenges, we propose "Spectral Graph Neural Networks with Laplacian Sparsification (SGNN-LS)", a novel graph spectral sparsification method to approximate the propagation patterns of spectral GNNs. We prove that our proposed method generates Laplacian sparsifiers that can approximate both fixed and learnable polynomial filters with theoretical guarantees. Our method allows the application of linear layers on the input node features, enabling end-to-end training as well as the handling of raw text features. We conduct an extensive experimental analysis on datasets spanning various graph scales and properties to demonstrate the superior efficiency and effectiveness of our method. The results show that our method yields superior results in comparison with the corresponding approximated base models, especially on dataset Ogbn-papers100M(111M nodes, 1.6B edges) and MAG-scholar-C (2.8M features).
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフベースのタスクにおいて、表現学習の習熟度において重要な役割を果たす。
様々なGNN法の中で、多項式フィルタを用いたスペクトルGNNは、ホモ親和性グラフ構造とヘテロ親和性グラフ構造の両方に関わるタスクにおいて有望な性能を示す。
しかし、大きなグラフ上のスペクトルGNNのスケーラビリティは、前方伝播中に複数の前方伝播実行を通して多項式係数を学習するため、制限されている。
既存の研究は、入力ノードの特徴の線形層を排除し、エンドツーエンドのトレーニングを妨害し、性能に影響を与え、高次元の入力特徴で非現実的になるような変更をすることでスペクトルGNNのスケールアップを試みた。
以上の課題に対処するために,スペクトルGNNの伝搬パターンを近似する新しいグラフスペクトルスカラー化法である"SGNN-LS"を提案する。
提案手法は,固定および学習可能な多項式フィルタを理論的保証付きで近似できるラプラシアンスペーサーを生成する。
提案手法では,入力ノード機能に線形レイヤを適用でき,エンドツーエンドのトレーニングやテキスト機能の処理が可能となる。
各種グラフのスケールや特性にまたがるデータセットについて広範な実験を行い,提案手法の有効性と有効性を示す。
提案手法は, 対応する近似ベースモデル, 特にデータセットOgbn-papers100M(111Mノード, 1.6Bエッジ) とMAG-scholar-C(2.8M特徴)と比較して, 優れた結果が得られることを示す。
関連論文リスト
- A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Polynomial Selection in Spectral Graph Neural Networks: An Error-Sum of Function Slices Approach [26.79625547648669]
グラフフィルタの適用により、グラフニューラルネットワークに固有のスペクトル情報を活用するために、スペクトルグラフネットワークが提案されている。
様々な選択がスペクトルGNNの性能に大きな影響を与え、パラメータ選択の重要性が強調される。
我々は、狭帯域信号スライスを近似する選択肢として広く採用されている三角法に基づく高度なフィルタを開発した。
論文 参考訳(メタデータ) (2024-04-15T11:35:32Z) - Spectral Heterogeneous Graph Convolutions via Positive Noncommutative Polynomials [34.74726720818622]
正のスペクトル不均一グラフ畳み込みネットワーク(PSHGCN)を提案する。
PSHGCNは、有効なヘテロジニアスグラフフィルタを学習するための、単純かつ効果的な方法を提供する。
PSHGCNは目覚ましいスケーラビリティを示し、数百万のノードとエッジからなる大規模な実世界のグラフを効率的に処理する。
論文 参考訳(メタデータ) (2023-05-31T14:09:42Z) - Learnable Filters for Geometric Scattering Modules [64.03877398967282]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2022-08-15T22:30:07Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - How Powerful are Spectral Graph Neural Networks [9.594432031144715]
スペクトルグラフニューラルネットワーク(Spectral Graph Neural Network)は、グラフ信号フィルタに基づくグラフニューラルネットワークの一種である。
まず、非線形性のないスペクトルGNNでさえ任意のグラフ信号を生成することを証明した。
また、スペクトルGNNの表現力とグラフアイソモーフィズム(GI)テストの関連性を確立する。
論文 参考訳(メタデータ) (2022-05-23T10:22:12Z) - Pointspectrum: Equivariance Meets Laplacian Filtering for Graph
Representation Learning [3.7875603451557063]
グラフ表現学習(GRL)は、現代のグラフデータマイニングおよび学習タスクに欠かせないものとなっている。
グラフニューラルネットワーク(GNN)は最先端のGRLアーキテクチャで使用されているが、過度なスムース化に悩まされていることが示されている。
本稿では,グラフの構造を考慮に入れたスペクトル法であるPointSpectrumを提案する。
論文 参考訳(メタデータ) (2021-09-06T10:59:11Z) - Graph Feature Gating Networks [31.20878472589719]
本稿では,グラフ信号の雑音化問題に基づく一般グラフ特徴ゲーティングネットワーク(gfgn)を提案する。
また、GFGNの下で3つのグラフフィルターを導入し、機能寸法から異なるレベルのコントリビューションを可能にします。
論文 参考訳(メタデータ) (2021-05-10T16:33:58Z) - Graph Neural Networks with Adaptive Frequency Response Filter [55.626174910206046]
適応周波数応答フィルタを用いたグラフニューラルネットワークフレームワークAdaGNNを開発した。
提案手法の有効性を,様々なベンチマークデータセット上で実証的に検証した。
論文 参考訳(メタデータ) (2021-04-26T19:31:21Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z) - Fast Graph Attention Networks Using Effective Resistance Based Graph
Sparsification [70.50751397870972]
FastGATは、スペクトルスペーシフィケーションを用いて、注目に基づくGNNを軽量にし、入力グラフの最適プルーニングを生成する手法である。
我々は,ノード分類タスクのための大規模実世界のグラフデータセット上でFastGATを実験的に評価した。
論文 参考訳(メタデータ) (2020-06-15T22:07:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。