論文の概要: LONGNN: Spectral GNNs with Learnable Orthonormal Basis
- arxiv url: http://arxiv.org/abs/2303.13750v1
- Date: Fri, 24 Mar 2023 02:07:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 16:01:45.575738
- Title: LONGNN: Spectral GNNs with Learnable Orthonormal Basis
- Title(参考訳): LONGNN:学習可能な直交基底を持つスペクトルGNN
- Authors: Qian Tao, Zhen Wang, Wenyuan Yu, Yaliang Li, Zhewei Wei
- Abstract要約: 近年,多くのノードレベルのタスクにおいて,学習可能な係数をベースとして,スペクトルグラフニューラルネットワーク(GNN)手法が多用されている。
これらの手法のいわゆる超越問題を特定し、その非正規化戦略と非正規化基盤に何らかのルーツがあることを示す。
我々は,学習可能なオルソノルマルを持つ新しいスペクトルGNN,LON-GNNを設計し,正規化係数が学習フィルタ関数のノルムの正規化と等価であることを証明した。
- 参考スコア(独自算出の注目度): 40.78119135344598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, a plethora of spectral graph neural networks (GNN) methods
have utilized polynomial basis with learnable coefficients to achieve top-tier
performances on many node-level tasks. Although various kinds of polynomial
bases have been explored, each such method adopts a fixed polynomial basis
which might not be the optimal choice for the given graph. Besides, we identify
the so-called over-passing issue of these methods and show that it is somewhat
rooted in their less-principled regularization strategy and unnormalized basis.
In this paper, we make the first attempts to address these two issues.
Leveraging Jacobi polynomials, we design a novel spectral GNN, LON-GNN, with
Learnable OrthoNormal bases and prove that regularizing coefficients becomes
equivalent to regularizing the norm of learned filter function now. We conduct
extensive experiments on diverse graph datasets to evaluate the fitting and
generalization capability of LON-GNN, where the results imply its superiority.
- Abstract(参考訳): 近年,スペクトルグラフニューラルネットワーク(GNN)手法は,多くのノードレベルタスクにおいて最上位性能を達成するために,学習可能な係数を多項式ベースとして活用している。
様々な多項式基底が研究されているが、与えられたグラフの最適選択ではない固定多項式基底を採用する。
また,これらの手法のいわゆる過渡問題を特定し,その非正規化戦略と非正規化基底にいくらか根ざしていることを示す。
本稿では,この2つの課題に対する最初の試みについて述べる。
ヤコビ多項式を用いて,学習可能な正規直交基底を持つ新しいスペクトルgnn,lon-gnnを設計し,正規化係数が現在学習フィルタ関数のノルムを正規化することと同値になることを示す。
様々なグラフデータセットについて広範な実験を行い,lon-gnnの適合性と一般化能力を評価した。
関連論文リスト
- Generalization of Geometric Graph Neural Networks [84.01980526069075]
幾何グラフニューラルネットワーク(GNN)の一般化能力について検討する。
我々は,このGNNの最適経験リスクと最適統計リスクとの一般化ギャップを証明した。
最も重要な観察は、前の結果のようにグラフのサイズに制限されるのではなく、1つの大きなグラフで一般化能力を実現することができることである。
論文 参考訳(メタデータ) (2024-09-08T18:55:57Z) - Generalized Learning of Coefficients in Spectral Graph Convolutional Networks [5.5711773076846365]
スペクトルグラフ畳み込みネットワーク(GCN)は、グラフ機械学習アプリケーションで人気を集めている。
G-Arnoldi-GCNは、適切な関数が採用された場合、常に最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-09-07T12:53:44Z) - A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Simplifying GNN Performance with Low Rank Kernel Models [14.304623719903972]
半教師付きノード分類(SSNC)への最近のスペクトルGNNアプローチを再考する。
また,近年のGNN手法の性能改善は,評価基準の変化によるものである可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-08T17:56:30Z) - Graph Neural Networks with Learnable and Optimal Polynomial Bases [14.8308791628821]
グラフネットワークの一種である多項式フィルタは、通常、所定のベースを使用して、トレーニングデータから係数を学習する。
トレーニングデータから適切なベースを学べますか?
与えられたグラフとノードの最適な基底を決定できるだろうか?
論文 参考訳(メタデータ) (2023-02-24T03:24:04Z) - Learnable Filters for Geometric Scattering Modules [64.03877398967282]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2022-08-15T22:30:07Z) - How Powerful are Spectral Graph Neural Networks [9.594432031144715]
スペクトルグラフニューラルネットワーク(Spectral Graph Neural Network)は、グラフ信号フィルタに基づくグラフニューラルネットワークの一種である。
まず、非線形性のないスペクトルGNNでさえ任意のグラフ信号を生成することを証明した。
また、スペクトルGNNの表現力とグラフアイソモーフィズム(GI)テストの関連性を確立する。
論文 参考訳(メタデータ) (2022-05-23T10:22:12Z) - Graph Neural Networks with Adaptive Frequency Response Filter [55.626174910206046]
適応周波数応答フィルタを用いたグラフニューラルネットワークフレームワークAdaGNNを開発した。
提案手法の有効性を,様々なベンチマークデータセット上で実証的に検証した。
論文 参考訳(メタデータ) (2021-04-26T19:31:21Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。