論文の概要: Return of ChebNet: Understanding and Improving an Overlooked GNN on Long Range Tasks
- arxiv url: http://arxiv.org/abs/2506.07624v1
- Date: Mon, 09 Jun 2025 10:41:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.914834
- Title: Return of ChebNet: Understanding and Improving an Overlooked GNN on Long Range Tasks
- Title(参考訳): ChebNetの返却: 長いタスクにおける見落としているGNNの理解と改善
- Authors: Ali Hariri, Álvaro Arroyo, Alessio Gravina, Moshe Eliasof, Carola-Bibiane Schönlieb, Davide Bacciu, Kamyar Azizzadenesheli, Xiaowen Dong, Pierre Vandergheynst,
- Abstract要約: 我々はChebNetを再訪し、遠く離れたノードの相互作用をモデル化する能力について光を当てる。
我々はChebNetを安定かつ非散逸的力学系とみなし、Stable-ChebNetを造語した。
- 参考スコア(独自算出の注目度): 37.738726537018294
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: ChebNet, one of the earliest spectral GNNs, has largely been overshadowed by Message Passing Neural Networks (MPNNs), which gained popularity for their simplicity and effectiveness in capturing local graph structure. Despite their success, MPNNs are limited in their ability to capture long-range dependencies between nodes. This has led researchers to adapt MPNNs through rewiring or make use of Graph Transformers, which compromises the computational efficiency that characterized early spatial message-passing architectures, and typically disregards the graph structure. Almost a decade after its original introduction, we revisit ChebNet to shed light on its ability to model distant node interactions. We find that out-of-box, ChebNet already shows competitive advantages relative to classical MPNNs and GTs on long-range benchmarks, while maintaining good scalability properties for high-order polynomials. However, we uncover that this polynomial expansion leads ChebNet to an unstable regime during training. To address this limitation, we cast ChebNet as a stable and non-dissipative dynamical system, which we coin Stable-ChebNet. Our Stable-ChebNet model allows for stable information propagation, and has controllable dynamics which do not require the use of eigendecompositions, positional encodings, or graph rewiring. Across several benchmarks, Stable-ChebNet achieves near state-of-the-art performance.
- Abstract(参考訳): 初期のスペクトルGNNの1つであるChebNetは、メッセージパッシングニューラルネットワーク(MPNN)によって大半が隠蔽され、局所グラフ構造の取得における単純さと有効性で人気を博した。
その成功にもかかわらず、MPNNはノード間の長距離依存関係をキャプチャする能力に制限がある。
これにより、初期の空間的メッセージパッシングアーキテクチャを特徴とする計算効率を損なうグラフ変換器を書き換えたり使用したりすることで、MPNNを適応させることができ、グラフ構造を無視するのが一般的である。
最初の導入から10年近く経ち、我々はChebNetを再訪して、遠く離れたノード間の相互作用をモデル化する能力について光を当てた。
この結果,ChebNetは,従来のMPNNやGTと比較して,高次多項式に対する優れたスケーラビリティ特性を維持しつつも,従来型のMPNNやGTと競合する優位性をすでに示していることがわかった。
しかし、この多項式展開がChebNetをトレーニング中に不安定な状態に導くことが判明した。
この制限に対処するため、我々はChebNetを安定かつ非散逸的力学系とみなし、Stable-ChebNetを造語した。
我々の安定-ChebNetモデルは安定した情報伝達を可能にし、固有分解、位置エンコーディング、グラフリウィリングを必要としない制御可能なダイナミクスを持つ。
複数のベンチマークで、Stable-ChebNetは最先端のパフォーマンスをほぼ達成している。
関連論文リスト
- From ChebNet to ChebGibbsNet [4.600280055873605]
スペクトルグラフ畳み込みネットワーク(SpecGCN)の可能性の解析
我々は、ChebNetが、GPR-GNNやBernNetのような他の先進的なSpecGCNよりも、均質グラフと異質グラフの両方において優れていることを示す。
我々の実験は、ChebGibbsNetが、GPR-GNNやBernNetのような他の先進的なSpecGCNよりも、均質グラフと不均一グラフの両方において優れていることを示している。
論文 参考訳(メタデータ) (2024-12-02T18:37:45Z) - Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - Multicoated and Folded Graph Neural Networks with Strong Lottery Tickets [3.0894823679470087]
本稿では,アーキテクチャとパラメータの両面から検索空間を拡張するためのマルチステージ・フォールディング法とアンシャレッド・マスク法を提案する。
高空間性、競争性能、高メモリ効率を最大98.7%の削減で達成することにより、エネルギー効率の高いグラフ処理に適していることを示す。
論文 参考訳(メタデータ) (2023-12-06T02:16:44Z) - Regularization of polynomial networks for image recognition [78.4786845859205]
PN(Polynomial Networks)は、将来性があり、解釈可能性も向上した代替手法として登場した。
6つのベンチマークでResNetのパフォーマンスに到達できるPNのクラスを紹介します。
論文 参考訳(メタデータ) (2023-03-24T10:05:22Z) - Unifying Label-inputted Graph Neural Networks with Deep Equilibrium
Models [12.71307159013144]
この研究は、LGNNをインプリシットGNN(IGNN)理論で解釈することで、2つのグラフニューラルネットワーク(GNN)を統一する。
IGNNはグラフ全体の情報を利用して長距離依存を捕捉するが、そのネットワークは平衡の存在を保証するよう制約されている。
本研究では、IGNNの暗黙的な微分を導入し、その無限範囲ラベル伝搬定数メモリを区別し、伝播を遠方かつ適応的にする。
論文 参考訳(メタデータ) (2022-11-19T09:28:53Z) - Lipschitz Continuity Retained Binary Neural Network [52.17734681659175]
我々は,BNNのモデルロバスト性を定義するための厳密な基準として,リプシッツ連続性を導入する。
次に、モデルロバスト性を改善するための正規化項としてリプシッツ連続性を維持することを提案する。
実験により,我々のBNN固有の正規化手法は,BNNの堅牢性を効果的に強化できることが証明された。
論文 参考訳(メタデータ) (2022-07-13T22:55:04Z) - Convolutional Neural Networks on Graphs with Chebyshev Approximation,
Revisited [80.29747781984135]
ChebNetは、Chebyshevsを使ってスペクトルグラフの畳み込みを近似する初期の試みの1つである。
GCNはChebNetを単純化し、最初の2つのChebyshevしか利用せず、実際のデータセットでは依然としてパフォーマンスが優れている。
本稿では,Chebyshevに基づく新しいGNNモデルであるChebNetIIを提案する。
論文 参考訳(メタデータ) (2022-02-04T09:11:13Z) - From Stars to Subgraphs: Uplifting Any GNN with Local Structure
Awareness [23.279464786779787]
私たちはMPNNをより表現力のあるものにするための一般的なフレームワークを導入します。
私たちのフレームワークは1&2-WLよりも強力で、3WLよりも強力です。
本手法は,いくつかのよく知られたグラフMLタスクに対して,新たな最先端性能を大きなマージンで設定する。
論文 参考訳(メタデータ) (2021-10-07T19:08:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。