論文の概要: Breaking Symmetry Bottlenecks in GNN Readouts
- arxiv url: http://arxiv.org/abs/2602.05950v1
- Date: Thu, 05 Feb 2026 18:08:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:09.105515
- Title: Breaking Symmetry Bottlenecks in GNN Readouts
- Title(参考訳): GNN読み出しにおけるBreaking Symmetry Bottlenecks
- Authors: Mouad Talhi, Arne Wolf, Anthea Monod,
- Abstract要約: グラフニューラルネットワーク(GNN)は構造化データの学習に広く用いられているが、非同型グラフを識別する能力は基本的に制限されている。
読み出し段階で独立したボトルネックが発生することを示す。
本稿では,ノード表現を対称対応チャネルに分解するプロジェクタベースの不変読み出し手法を提案する。
- 参考スコア(独自算出の注目度): 0.764671395172401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) are widely used for learning on structured data, yet their ability to distinguish non-isomorphic graphs is fundamentally limited. These limitations are usually attributed to message passing; in this work we show that an independent bottleneck arises at the readout stage. Using finite-dimensional representation theory, we prove that all linear permutation-invariant readouts, including sum and mean pooling, factor through the Reynolds (group-averaging) operator and therefore project node embeddings onto the fixed subspace of the permutation action, erasing all non-trivial symmetry-aware components regardless of encoder expressivity. This yields both a new expressivity barrier and an interpretable characterization of what global pooling preserves or destroys. To overcome this collapse, we introduce projector-based invariant readouts that decompose node representations into symmetry-aware channels and summarize them with nonlinear invariant statistics, preserving permutation invariance while retaining information provably invisible to averaging. Empirically, swapping only the readout enables fixed encoders to separate WL-hard graph pairs and improves performance across multiple benchmarks, demonstrating that readout design is a decisive and under-appreciated factor in GNN expressivity.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は構造化データの学習に広く用いられているが、非同型グラフを識別する能力は基本的に制限されている。
これらの制限は通常、メッセージパッシングによるもので、この研究では、読み取り時に独立したボトルネックが発生することを示す。
有限次元表現理論を用いて、和と平均プーリングを含むすべての線形置換不変読み出し、レイノルズ作用素を経由する因子、したがってプロジェクトノードが置換作用の固定部分空間に埋め込み、エンコーダ表現によらずすべての非自明な対称性対応成分を消去することを証明する。
これにより、新しい表現力障壁と、グローバルプールが保存または破壊するものの解釈可能な特性の両方が得られる。
この崩壊を克服するために、我々は、ノード表現を対称性を意識したチャネルに分解するプロジェクタベースの不変読み出しを導入し、それらを非線形不変統計で要約し、順列不変性を保ちながら、平均的に見えない情報を保持する。
経験的に、リードアウトのみをスワップアウトすることで、固定エンコーダはWL-ハードグラフペアを分離し、複数のベンチマークのパフォーマンスを改善し、リードアウト設計がGNN表現率の決定的かつ過小評価された要素であることを実証した。
関連論文リスト
- Variational Bayesian Flow Network for Graph Generation [54.94088904387278]
グラフ生成のための変分ベイズフローネットワーク(VBFN)を提案する。
VBFNは、構造化精度で支配されるトラクタブルジョイントガウス変分信念ファミリーに対して変分リフトを行う。
合成グラフと分子グラフのデータセットでは、VBFNは忠実度と多様性を改善し、ベースライン法を超えている。
論文 参考訳(メタデータ) (2026-01-30T03:59:38Z) - Resolving Node Identifiability in Graph Neural Processes via Laplacian Spectral Encodings [9.343292907600913]
固有ベクトル符号のフリップや固有空間内の回転の基底に不変なラプラシアン位置符号化の理論を提供する。
この符号化により、一定数の観測からノード識別性が得られ、Weisfeiler-Lehmanテストで制約されたアーキテクチャからサンプル複雑度を分離することが証明される。
論文 参考訳(メタデータ) (2025-11-24T12:20:36Z) - Learning Efficient Positional Encodings with Graph Neural Networks [109.8653020407373]
グラフのための学習可能なPEの新しいフレームワークであるPEARLを紹介する。
PEARL は線形複雑性を持つ固有ベクトルの同変関数を近似し、その安定性と高表現力を厳密に確立する。
解析の結果、PEARLは線形複雑度を持つ固有ベクトルの同変関数を近似し、その安定性と高表現能を厳密に確立することを示した。
論文 参考訳(メタデータ) (2025-02-03T07:28:53Z) - Towards Stable, Globally Expressive Graph Representations with Laplacian Eigenvectors [29.055130767451036]
本稿では,ラプラシアン固有ベクトルを用いて,安定かつグローバルに表現可能なグラフ表現を生成する手法を提案する。
提案手法は, 数値的近接固有値を円滑に処理し, 摂動に対するロバスト性を向上する。
論文 参考訳(メタデータ) (2024-10-13T06:02:25Z) - Parseval Convolution Operators and Neural Networks [16.78532039510369]
まず、Parseval畳み込み演算子をエネルギー保存フィルタバンクのクラスとして同定する。
次に,基本Parsevalモジュールの連鎖によるフィルタバンクの設計・特定のための構築的アプローチを提案する。
生体医用画像の反復的再構成のためのCNNアルゴリズムの設計により,これらのツールの使用例を示す。
論文 参考訳(メタデータ) (2024-08-19T13:31:16Z) - Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - Equivariant Machine Learning on Graphs with Nonlinear Spectral Filters [12.709930975472698]
グラフ汎函数シフトを対称性群、つまりグラフシフト作用素と可換なユニタリ作用素と考える。
グラフ関数シフトに完全同値な非線形スペクトルフィルタ(NLSF)を提案する。
ノードおよびグラフ分類ベンチマークにおいて、既存のスペクトルGNNよりもNLSFの方が優れた性能を示す。
論文 参考訳(メタデータ) (2024-06-03T12:07:01Z) - Neural Tangent Kernels Motivate Graph Neural Networks with
Cross-Covariance Graphs [94.44374472696272]
グラフニューラルネットワーク(GNN)の文脈におけるNTKとアライメントについて検討する。
その結果、2層GNNのアライメントの最適性に関する理論的保証が確立された。
これらの保証は、入力と出力データの相互共分散の関数であるグラフシフト演算子によって特徴づけられる。
論文 参考訳(メタデータ) (2023-10-16T19:54:21Z) - GRAFENNE: Learning on Graphs with Heterogeneous and Dynamic Feature Sets [19.71442902979904]
グラフニューラルネットワーク(GNN)は、グラフの各ノードを特徴付ける静的な特徴セットの仮定に基づいて構築される。
本稿では,GRAFENNE と呼ばれる新しい GNN フレームワークを用いて,制約に対処する。
Wesfeiler-Leman テストでは,GRAFENNE が既存のメッセージパス GNN よりも少なくとも表現力が高いことが証明されている。
論文 参考訳(メタデータ) (2023-06-06T07:00:24Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。