論文の概要: Graph Neural Networks with Learnable and Optimal Polynomial Bases
- arxiv url: http://arxiv.org/abs/2302.12432v2
- Date: Sat, 1 Jul 2023 03:09:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-04 14:20:56.103076
- Title: Graph Neural Networks with Learnable and Optimal Polynomial Bases
- Title(参考訳): 学習可能および最適多項式ベースを有するグラフニューラルネットワーク
- Authors: Yuhe Guo and Zhewei Wei
- Abstract要約: グラフネットワークの一種である多項式フィルタは、通常、所定のベースを使用して、トレーニングデータから係数を学習する。
トレーニングデータから適切なベースを学べますか?
与えられたグラフとノードの最適な基底を決定できるだろうか?
- 参考スコア(独自算出の注目度): 14.8308791628821
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Polynomial filters, a kind of Graph Neural Networks, typically use a
predetermined polynomial basis and learn the coefficients from the training
data. It has been observed that the effectiveness of the model is highly
dependent on the property of the polynomial basis. Consequently, two natural
and fundamental questions arise: Can we learn a suitable polynomial basis from
the training data? Can we determine the optimal polynomial basis for a given
graph and node features?
In this paper, we propose two spectral GNN models that provide positive
answers to the questions posed above. First, inspired by Favard's Theorem, we
propose the FavardGNN model, which learns a polynomial basis from the space of
all possible orthonormal bases. Second, we examine the supposedly unsolvable
definition of optimal polynomial basis from Wang & Zhang (2022) and propose a
simple model, OptBasisGNN, which computes the optimal basis for a given graph
structure and graph signal. Extensive experiments are conducted to demonstrate
the effectiveness of our proposed models. Our code is available at
https://github.com/yuziGuo/FarOptBasis.
- Abstract(参考訳): グラフニューラルネットワークの一種である多項式フィルタは、通常、所定の多項式ベースを使用して、トレーニングデータから係数を学習する。
モデルの有効性は多項式基底の性質に大きく依存していることが観察されている。
トレーニングデータから適切な多項式基底を学習できるか?
与えられたグラフとノードの特徴の最適多項式基底を決定できるのか?
本稿では,上記の質問に対する肯定的な回答を提供する2つのスペクトルGNNモデルを提案する。
まず、ファバードの定理に着想を得て、すべての正則基底の空間から多項式基底を学習するファバードGNNモデルを提案する。
第二に,Wang & Zhang (2022) による最適多項式基底の解決不可能な定義を検証し,与えられたグラフ構造とグラフ信号の最適基底を計算する単純なモデル OptBasisGNN を提案する。
提案モデルの有効性を示すため, 大規模な実験を行った。
私たちのコードはhttps://github.com/yuziguo/faroptbasisで利用可能です。
関連論文リスト
- The Heterophilic Snowflake Hypothesis: Training and Empowering GNNs for Heterophilic Graphs [59.03660013787925]
ヘテロフィリー・スノーフレーク仮説を導入し、ヘテロ親和性グラフの研究をガイドし、促進するための効果的なソリューションを提供する。
観察の結果,我々のフレームワークは多種多様なタスクのための多目的演算子として機能することがわかった。
さまざまなGNNフレームワークに統合することができ、パフォーマンスを詳細に向上し、最適なネットワーク深さを選択するための説明可能なアプローチを提供する。
論文 参考訳(メタデータ) (2024-06-18T12:16:00Z) - GINN-LP: A Growing Interpretable Neural Network for Discovering
Multivariate Laurent Polynomial Equations [1.1142444517901018]
本稿では,解釈可能なニューラルネットワークであるGINN-LPを提案する。
私たちの知る限りでは、これは注文に関する事前情報なしで任意の項を発見できる最初のニューラルネットワークである。
GINN-LPは,データセット上での最先端のシンボル回帰手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-12-18T03:44:29Z) - An Effective Universal Polynomial Basis for Spectral Graph Neural
Networks [12.725906836609811]
スペクトルグラフニューラルネットワーク(GNN)はヘテロフィリーグラフの出現率を高めている。
グラフヘテロフィリー次数を導入して適応的なヘテロフィリー基底を開発する。
そして、このヘテロフィ基底をホモフィ基底と統合し、普遍基底UniBasisを作成する。
論文 参考訳(メタデータ) (2023-11-30T01:48:42Z) - LON-GNN: Spectral GNNs with Learnable Orthonormal Basis [40.78119135344598]
近年,多くのノードレベルのタスクにおいて,学習可能な係数をベースとして,スペクトルグラフニューラルネットワーク(GNN)手法が多用されている。
これらの手法のいわゆる超越問題を特定し、その非正規化戦略と非正規化基盤に何らかのルーツがあることを示す。
我々は,学習可能なオルソノルマルを持つ新しいスペクトルGNN,LON-GNNを設計し,正規化係数が学習フィルタ関数のノルムの正規化と等価であることを証明した。
論文 参考訳(メタデータ) (2023-03-24T02:07:46Z) - Graph Polynomial Convolution Models for Node Classification of
Non-Homophilous Graphs [52.52570805621925]
本研究では,高階グラフ畳み込みからの効率的な学習と,ノード分類のための隣接行列から直接学習する。
得られたモデルが新しいグラフと残留スケーリングパラメータをもたらすことを示す。
提案手法は,非親和性パラメータのノード分類における精度の向上を実証する。
論文 参考訳(メタデータ) (2022-09-12T04:46:55Z) - Convolutional Neural Networks on Graphs with Chebyshev Approximation,
Revisited [80.29747781984135]
ChebNetは、Chebyshevsを使ってスペクトルグラフの畳み込みを近似する初期の試みの1つである。
GCNはChebNetを単純化し、最初の2つのChebyshevしか利用せず、実際のデータセットでは依然としてパフォーマンスが優れている。
本稿では,Chebyshevに基づく新しいGNNモデルであるChebNetIIを提案する。
論文 参考訳(メタデータ) (2022-02-04T09:11:13Z) - A Piece-wise Polynomial Filtering Approach for Graph Neural Networks [0.45298395481707365]
グラフニューラルネットワーク(GNN)は、ノードの特徴と入力グラフトポロジからの信号を利用して、ノード分類タスクのパフォーマンスを向上させる。
これらのモデルは、連結ノードが異なるラベルを持つヘテロ親和性グラフ上では性能が良くない傾向にある。
提案モデルでは,最先端モデルに対して最大5%の性能向上を実現し,従来のフィルタ方式よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-12-07T05:16:53Z) - Graph Entropy Guided Node Embedding Dimension Selection for Graph Neural
Networks [74.26734952400925]
ノード埋め込み次元選択(NEDS)のための最小グラフエントロピー(MinGE)アルゴリズムを提案する。
ミンゲは、グラフ上の特徴エントロピーと構造エントロピーの両方を考えており、それらはそれらのリッチな情報の特徴に従って慎重に設計されている。
ベンチマークデータセット上で人気のグラフニューラルネットワーク(GNN)を用いた実験は,提案したMinGEの有効性と一般化性を示す。
論文 参考訳(メタデータ) (2021-05-07T11:40:29Z) - Graph Neural Networks with Adaptive Frequency Response Filter [55.626174910206046]
適応周波数応答フィルタを用いたグラフニューラルネットワークフレームワークAdaGNNを開発した。
提案手法の有効性を,様々なベンチマークデータセット上で実証的に検証した。
論文 参考訳(メタデータ) (2021-04-26T19:31:21Z) - GraphSVX: Shapley Value Explanations for Graph Neural Networks [81.83769974301995]
グラフニューラルネットワーク(GNN)は、幾何データに基づく様々な学習タスクにおいて大きな性能を発揮する。
本稿では,既存のGNN解説者の多くが満足する統一フレームワークを提案する。
GNN用に特別に設計されたポストホックローカルモデル非依存説明法であるGraphSVXを紹介します。
論文 参考訳(メタデータ) (2021-04-18T10:40:37Z) - Stacked Graph Filter [19.343260981528186]
グラフ信号処理の観点から,グラフ畳み込みネットワーク(GCN)について検討する。
学習可能な解パラメータでグラフフィルタを積み重ねることで、高度に適応的で堅牢なグラフ分類モデルを構築することができる。
論文 参考訳(メタデータ) (2020-11-22T11:20:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。