論文の概要: From ChebNet to ChebGibbsNet
- arxiv url: http://arxiv.org/abs/2412.01789v1
- Date: Mon, 02 Dec 2024 18:37:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:49:18.525828
- Title: From ChebNet to ChebGibbsNet
- Title(参考訳): ChebNetからChebGibbsNetへ
- Authors: Jie Zhang, Min-Te Sun,
- Abstract要約: スペクトルグラフ畳み込みネットワーク(SpecGCN)の可能性の解析
我々は、ChebNetが、GPR-GNNやBernNetのような他の先進的なSpecGCNよりも、均質グラフと異質グラフの両方において優れていることを示す。
我々の実験は、ChebGibbsNetが、GPR-GNNやBernNetのような他の先進的なSpecGCNよりも、均質グラフと不均一グラフの両方において優れていることを示している。
- 参考スコア(独自算出の注目度): 4.600280055873605
- License:
- Abstract: Recent advancements in Spectral Graph Convolutional Networks (SpecGCNs) have led to state-of-the-art performance in various graph representation learning tasks. To exploit the potential of SpecGCNs, we analyze corresponding graph filters via polynomial interpolation, the cornerstone of graph signal processing. Different polynomial bases, such as Bernstein, Chebyshev, and monomial basis, have various convergence rates that will affect the error in polynomial interpolation. Although adopting Chebyshev basis for interpolation can minimize maximum error, the performance of ChebNet is still weaker than GPR-GNN and BernNet. \textbf{We point out it is caused by the Gibbs phenomenon, which occurs when the graph frequency response function approximates the target function.} It reduces the approximation ability of a truncated polynomial interpolation. In order to mitigate the Gibbs phenomenon, we propose to add the Gibbs damping factor with each term of Chebyshev polynomials on ChebNet. As a result, our lightweight approach leads to a significant performance boost. Afterwards, we reorganize ChebNet via decoupling feature propagation and transformation. We name this variant as \textbf{ChebGibbsNet}. Our experiments indicate that ChebGibbsNet is superior to other advanced SpecGCNs, such as GPR-GNN and BernNet, in both homogeneous graphs and heterogeneous graphs.
- Abstract(参考訳): 近年のSpectral Graph Convolutional Networks (SpecGCNs) の進歩により,様々なグラフ表現学習タスクにおける最先端の性能が向上している。
SpecGCNのポテンシャルを活用するため,グラフ信号処理の基礎となる多項式補間によるグラフフィルタの解析を行った。
ベルンシュタイン、チェビシェフ、単項基底などの異なる多項式基底は、多項式補間における誤差に影響を与える様々な収束率を持つ。
補間のためのChebyshevベースを採用すると、最大エラーを最小限にすることができるが、ChebNetのパフォーマンスはGPR-GNNやBernNetよりも弱い。
グラフ周波数応答関数がターゲット関数に近似した場合に発生するギブス現象が原因であると指摘する。
truncated polynomial interpolation の近似能力を低下させる。
ギブズ現象を緩和するために、チェブネット上のチェビシェフ多項式の各項にギブズ減衰係数を加えることを提案する。
その結果、私たちの軽量なアプローチは、大幅なパフォーマンス向上につながります。
その後,ChebNetの機能伝播と変換を分離して再編成した。
この変種を \textbf{ChebGibbsNet} と呼ぶ。
我々の実験は、ChebGibbsNetが、GPR-GNNやBernNetのような他の先進的なSpecGCNよりも、均質グラフと異質グラフの両方において優れていることを示唆している。
関連論文リスト
- Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - Geometric Graph Filters and Neural Networks: Limit Properties and
Discriminability Trade-offs [122.06927400759021]
本稿では,グラフニューラルネットワーク (GNN) と多様体ニューラルネットワーク (MNN) の関係について検討する。
これらのグラフ上の畳み込みフィルタとニューラルネットワークが連続多様体上の畳み込みフィルタとニューラルネットワークに収束することを示す。
論文 参考訳(メタデータ) (2023-05-29T08:27:17Z) - Effects of Graph Convolutions in Deep Networks [8.937905773981702]
多層ネットワークにおけるグラフ畳み込みの効果に関する厳密な理論的理解を示す。
単一のグラフ畳み込みは、多層ネットワークがデータを分類できる手段間の距離のレギュレーションを拡大することを示す。
ネットワーク層間の異なる組み合わせに配置されたグラフ畳み込みの性能に関する理論的および実証的な知見を提供する。
論文 参考訳(メタデータ) (2022-04-20T08:24:43Z) - Convolutional Neural Networks on Graphs with Chebyshev Approximation,
Revisited [80.29747781984135]
ChebNetは、Chebyshevsを使ってスペクトルグラフの畳み込みを近似する初期の試みの1つである。
GCNはChebNetを単純化し、最初の2つのChebyshevしか利用せず、実際のデータセットでは依然としてパフォーマンスが優れている。
本稿では,Chebyshevに基づく新しいGNNモデルであるChebNetIIを提案する。
論文 参考訳(メタデータ) (2022-02-04T09:11:13Z) - Node Feature Kernels Increase Graph Convolutional Network Robustness [19.076912727990326]
グラフ畳み込みネットワーク(GCN)の入力の摂動に対する堅牢性は、ますます重要になっているトピックになりつつある。
本稿では,ランダム行列理論解析が可能である。
グラフ構造の隣接行列にノード特徴カーネルを追加することで、GCNにおけるメッセージパッシングステップの強化がこの問題を解決することが観察された。
論文 参考訳(メタデータ) (2021-09-04T04:20:45Z) - Multi-hop Graph Convolutional Network with High-order Chebyshev
Approximation for Text Reasoning [15.65069702939315]
我々は高次動的チェビシェフ近似(HDGCN)を用いてスペクトルグラフ畳み込みネットワークを定義する。
高次チェビシェフ近似の過度な平滑化を緩和するために、線形計算複雑性を持つマルチボイトベースのクロスアテンション(MVCAttn)も提案されている。
論文 参考訳(メタデータ) (2021-06-08T07:49:43Z) - Factorizable Graph Convolutional Networks [90.59836684458905]
本稿では,グラフに符号化された相互に絡み合った関係を明示的に解消する新しいグラフ畳み込みネットワーク(GCN)を提案する。
FactorGCNは単純なグラフを入力として取り、それをいくつかの分解グラフに分解する。
提案したFacterGCNは,合成および実世界のデータセットに対して質的かつ定量的に評価する。
論文 参考訳(メタデータ) (2020-10-12T03:01:40Z) - Infinitely Wide Graph Convolutional Networks: Semi-supervised Learning
via Gaussian Processes [144.6048446370369]
グラフ畳み込みニューラルネットワーク(GCN)は近年,グラフに基づく半教師付き半教師付き分類において有望な結果を示した。
グラフに基づく半教師付き学習のためのGCN(GPGC)を用いたGP回帰モデルを提案する。
GPGCを評価するための広範囲な実験を行い、他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-26T10:02:32Z) - The Power of Graph Convolutional Networks to Distinguish Random Graph
Models: Short Version [27.544219236164764]
グラフ畳み込みネットワーク(GCN)はグラフ表現学習において広く使われている手法である。
サンプルグラフの埋め込みに基づいて異なるランダムグラフモデルを区別するGCNのパワーについて検討する。
論文 参考訳(メタデータ) (2020-02-13T17:58:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。