論文の概要: Convolutional Neural Networks on Graphs with Chebyshev Approximation,
Revisited
- arxiv url: http://arxiv.org/abs/2202.03580v5
- Date: Tue, 12 Mar 2024 09:27:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 02:45:11.219017
- Title: Convolutional Neural Networks on Graphs with Chebyshev Approximation,
Revisited
- Title(参考訳): Chebyshev近似を用いたグラフ上の畳み込みニューラルネットワークの再検討
- Authors: Mingguo He, Zhewei Wei, Ji-Rong Wen
- Abstract要約: ChebNetは、Chebyshevsを使ってスペクトルグラフの畳み込みを近似する初期の試みの1つである。
GCNはChebNetを単純化し、最初の2つのChebyshevしか利用せず、実際のデータセットでは依然としてパフォーマンスが優れている。
本稿では,Chebyshevに基づく新しいGNNモデルであるChebNetIIを提案する。
- 参考スコア(独自算出の注目度): 80.29747781984135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Designing spectral convolutional networks is a challenging problem in graph
learning. ChebNet, one of the early attempts, approximates the spectral graph
convolutions using Chebyshev polynomials. GCN simplifies ChebNet by utilizing
only the first two Chebyshev polynomials while still outperforming it on
real-world datasets. GPR-GNN and BernNet demonstrate that the Monomial and
Bernstein bases also outperform the Chebyshev basis in terms of learning the
spectral graph convolutions. Such conclusions are counter-intuitive in the
field of approximation theory, where it is established that the Chebyshev
polynomial achieves the optimum convergent rate for approximating a function.
In this paper, we revisit the problem of approximating the spectral graph
convolutions with Chebyshev polynomials. We show that ChebNet's inferior
performance is primarily due to illegal coefficients learnt by ChebNet
approximating analytic filter functions, which leads to over-fitting. We then
propose ChebNetII, a new GNN model based on Chebyshev interpolation, which
enhances the original Chebyshev polynomial approximation while reducing the
Runge phenomenon. We conducted an extensive experimental study to demonstrate
that ChebNetII can learn arbitrary graph convolutions and achieve superior
performance in both full- and semi-supervised node classification tasks. Most
notably, we scale ChebNetII to a billion graph ogbn-papers100M, showing that
spectral-based GNNs have superior performance. Our code is available at
https://github.com/ivam-he/ChebNetII.
- Abstract(参考訳): スペクトル畳み込みネットワークの設計は、グラフ学習において難しい問題である。
初期の試みの一つであるchebnetは、チェビシェフ多項式を用いたスペクトルグラフ畳み込みを近似している。
GCNはChebNetを単純化し、最初の2つのChebyshev多項式のみを使用しながら、実世界のデータセットでそれより優れている。
GPR-GNNとBernNetは、スペクトルグラフの畳み込みを学習するという点で、モノミアル基底とベルンシュタイン基底もチェビシェフ基底より優れていることを示した。
このような結論は近似理論の分野では直感的ではなく、チェビシェフ多項式が函数を近似するための最適収束率を達成することが証明される。
本稿では,チェビシェフ多項式を用いたスペクトルグラフ畳み込みの近似問題を再検討する。
我々は,ChebNetが解析フィルタ関数を近似することで学習した不正な係数が,過度に適合することを示す。
次に,チェビシェフ補間に基づく新しいGNNモデルであるChebNetIIを提案する。
我々は、ChebNetIIが任意のグラフ畳み込みを学習し、完全なノード分類タスクと半教師付きノード分類タスクの両方において優れた性能を発揮することを示すために、広範な実験を行った。
最も注目すべきは、chebnetiiを10億のグラフogbn-papers100mにスケールすることです。
私たちのコードはhttps://github.com/ivam-he/chebnetiiで利用可能です。
関連論文リスト
- Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - Spectral GNN via Two-dimensional (2-D) Graph Convolution [26.79625547648669]
既存のスペクトルGNNは、スペクトルグラフ畳み込みの実行において重要な欠点を残していることを示す。
2次元グラフ畳み込みという新しい畳み込みパラダイムを提案する。
2次元グラフ畳み込みは既存のグラフ畳み込みパラダイムを統一し、任意の目標出力を構築することができることを示す。
論文 参考訳(メタデータ) (2024-04-06T08:53:26Z) - VC dimension of Graph Neural Networks with Pfaffian activation functions [4.141514895639094]
グラフニューラルネットワーク(GNN)は、近年、広範囲のグラフドメインでタスクを学習する強力なツールとして登場している。
我々の研究の目的は、GNNのVC次元に関するこの分析を、シグモイドや双曲タンジェントといった他のよく使われる活性化関数に拡張することである。
論文 参考訳(メタデータ) (2024-01-22T21:11:22Z) - Geometric Graph Filters and Neural Networks: Limit Properties and
Discriminability Trade-offs [122.06927400759021]
本稿では,グラフニューラルネットワーク (GNN) と多様体ニューラルネットワーク (MNN) の関係について検討する。
これらのグラフ上の畳み込みフィルタとニューラルネットワークが連続多様体上の畳み込みフィルタとニューラルネットワークに収束することを示す。
論文 参考訳(メタデータ) (2023-05-29T08:27:17Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - BernNet: Learning Arbitrary Graph Spectral Filters via Bernstein
Approximation [47.88982193039535]
任意のグラフスペクトルフィルタを設計・学習するためのシンプルで効果的なスキームを提供する理論的サポートを備えた新しいグラフニューラルネットワークであるtextitBernNet$を提案する。
特に、グラフの正規化ラプラススペクトル上のフィルターに対して、ベルンネットはそれをK$バーンスタイン近似により推定し、ベルンシュタイン基底の係数を設定することでスペクトル特性を設計する。
実験により,BernNetは複雑なバンドリジェクションやコムフィルタを含む任意のスペクトルフィルタを学習でき,実世界のグラフモデリングタスクにおいて優れた性能が得られることを示した。
論文 参考訳(メタデータ) (2021-06-21T11:26:06Z) - Multi-hop Graph Convolutional Network with High-order Chebyshev
Approximation for Text Reasoning [15.65069702939315]
我々は高次動的チェビシェフ近似(HDGCN)を用いてスペクトルグラフ畳み込みネットワークを定義する。
高次チェビシェフ近似の過度な平滑化を緩和するために、線形計算複雑性を持つマルチボイトベースのクロスアテンション(MVCAttn)も提案されている。
論文 参考訳(メタデータ) (2021-06-08T07:49:43Z) - GraphSVX: Shapley Value Explanations for Graph Neural Networks [81.83769974301995]
グラフニューラルネットワーク(GNN)は、幾何データに基づく様々な学習タスクにおいて大きな性能を発揮する。
本稿では,既存のGNN解説者の多くが満足する統一フレームワークを提案する。
GNN用に特別に設計されたポストホックローカルモデル非依存説明法であるGraphSVXを紹介します。
論文 参考訳(メタデータ) (2021-04-18T10:40:37Z) - Towards Efficient Graph Convolutional Networks for Point Cloud Handling [181.59146413326056]
ポイントクラウド上で学習するためのグラフ畳み込みネットワーク(GCN)の計算効率の向上を目指します。
一連の実験により、最適化されたネットワークは計算複雑性を減らし、メモリ消費を減らし、推論速度を加速した。
論文 参考訳(メタデータ) (2021-04-12T17:59:16Z) - Bridging the Gap Between Spectral and Spatial Domains in Graph Neural
Networks [8.563354084119062]
空間領域やスペクトル領域におけるグラフ畳み込み過程の等価性を示す。
提案フレームワークは、空間領域に適用しながら、独自の周波数プロファイルを持つスペクトル領域の新しい畳み込みを設計するために使用される。
論文 参考訳(メタデータ) (2020-03-26T01:49:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。