論文の概要: Position: Message-passing and spectral GNNs are two sides of the same coin
- arxiv url: http://arxiv.org/abs/2602.10031v1
- Date: Tue, 10 Feb 2026 17:53:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.723226
- Title: Position: Message-passing and spectral GNNs are two sides of the same coin
- Title(参考訳): 位置: メッセージパッシングとスペクトルGNNは同じコインの2つの側面である
- Authors: Antonis Vasileiou, Juan Cervino, Pascal Frossard, Charilaos I. Kanatsoulis, Christopher Morris, Michael T. Schaub, Pierre Vandergheynst, Zhiyang Wang, Guy Wolf, Ron Levie,
- Abstract要約: グラフニューラルネットワーク(GNN)は通常、メッセージパッシングニューラルネットワーク(MPNN)とスペクトルグラフニューラルネットワーク(SGN)に分けられる。
本稿は、この分割が主に人工的であり、この分野の進歩を妨げると主張している。
- 参考スコア(独自算出の注目度): 60.47572761832418
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) are commonly divided into message-passing neural networks (MPNNs) and spectral graph neural networks, reflecting two largely separate research traditions in machine learning and signal processing. This paper argues that this divide is mostly artificial, hindering progress in the field. We propose a viewpoint in which both MPNNs and spectral GNNs are understood as different parametrizations of permutation-equivariant operators acting on graph signals. From this perspective, many popular architectures are equivalent in expressive power, while genuine gaps arise only in specific regimes. We further argue that MPNNs and spectral GNNs offer complementary strengths. That is, MPNNs provide a natural language for discrete structure and expressivity analysis using tools from logic and graph isomorphism research, while the spectral perspective provides principled tools for understanding smoothing, bottlenecks, stability, and community structure. Overall, we posit that progress in graph learning will be accelerated by clearly understanding the key similarities and differences between these two types of GNNs, and by working towards unifying these perspectives within a common theoretical and conceptual framework rather than treating them as competing paradigms.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、一般的に、メッセージパッシングニューラルネットワーク(MPNN)とスペクトルグラフニューラルネットワークに分けられ、機械学習と信号処理において、大きく異なる2つの研究伝統を反映している。
本稿は、この分割が主に人工的であり、この分野の進歩を妨げると主張している。
本稿では、MPNNとスペクトルGNNの両方を、グラフ信号に作用する置換同変演算子の異なるパラメトリゼーションとして理解する視点を提案する。
この観点では、多くの一般的な建築は表現力で等価であるが、真のギャップは特定の体制でのみ発生する。
さらに、MPNNとスペクトルGNNは相補的な長所を提供すると主張する。
すなわち、MPNNは、論理およびグラフ同型研究のツールを用いて、離散的な構造と表現率の分析のための自然言語を提供する一方、スペクトルの観点からは、スムージング、ボトルネック、安定性、コミュニティ構造を理解するための原則化されたツールを提供する。
全体として、グラフ学習の進歩は、これらの2つのタイプのGNNの主な類似点と相違点を明確に理解し、これらの視点を競合するパラダイムとして扱うのではなく、共通の理論的、概念的な枠組みで統一することによって加速されると仮定する。
関連論文リスト
- The Correspondence Between Bounded Graph Neural Networks and Fragments of First-Order Logic [8.430502131775723]
本稿では,一階述語論理(FO)の顕著な断片に対応するGNNアーキテクチャを提案する。
FO内のGNNの論理的表現性を理解するための統一的なフレームワークを提供する。
論文 参考訳(メタデータ) (2025-05-12T19:45:45Z) - Generalization Limits of Graph Neural Networks in Identity Effects
Learning [12.302336258860116]
グラフニューラルネットワーク(GNN)は、さまざまなグラフドメインでデータ駆動学習を行う強力なツールとして登場した。
我々は、いわゆるアイデンティティ効果の学習において、GNNの新たな一般化特性と基本的限界を確立する。
我々の研究は、単純な認知タスクを行う際に、GNNの能力を理解する必要性によって動機付けられている。
論文 参考訳(メタデータ) (2023-06-30T20:56:38Z) - Quantifying the Optimization and Generalization Advantages of Graph Neural Networks Over Multilayer Perceptrons [50.33260238739837]
グラフネットワーク(GNN)は、グラフ構造化データから学習する際、顕著な能力を示した。
最適化と一般化の観点から、GNNと一般化を比較した分析の欠如がまだ残っている。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - Privacy-Preserving Representation Learning for Text-Attributed Networks
with Simplicial Complexes [24.82096971322501]
simplicial Complex (RT4SC) のためのテキスト属性を用いた学習ネットワーク表現について, simplicial Neural Network (SNN) を用いて検討する。
SNNの表現出力に対する2つの潜在的攻撃について検討する。
本稿では,SNNからセキュアな表現出力を学習するための乗算器のプライバシー保護決定性差分的個人交互方向法について検討する。
論文 参考訳(メタデータ) (2023-02-09T00:32:06Z) - Graph Neural Networks with Learnable Structural and Positional
Representations [83.24058411666483]
任意のグラフの大きな問題は、ノードの標準位置情報の欠如である。
ノードの位置ノード(PE)を導入し、Transformerのように入力層に注入する。
両方のGNNクラスで学習可能なPEを考えると、分子データセットのパフォーマンスは2.87%から64.14%に向上する。
論文 参考訳(メタデータ) (2021-10-15T05:59:15Z) - Bridging the Gap between Spatial and Spectral Domains: A Survey on Graph
Neural Networks [52.76042362922247]
グラフニューラルネットワーク(GNN)は、非ユークリッドグラフ構造を扱うように設計されている。
既存のGNNは様々な手法を用いて提示され、直接比較と相互参照がより複雑になる。
既存のGNNを空間およびスペクトル領域に整理し、各領域内の接続を公開する。
論文 参考訳(メタデータ) (2020-02-27T01:15:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。