論文の概要: Deeper with Riemannian Geometry: Overcoming Oversmoothing and Oversquashing for Graph Foundation Models
- arxiv url: http://arxiv.org/abs/2510.17457v1
- Date: Mon, 20 Oct 2025 11:41:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.435179
- Title: Deeper with Riemannian Geometry: Overcoming Oversmoothing and Oversquashing for Graph Foundation Models
- Title(参考訳): Riemannian Geometryによるより深く - グラフ基礎モデルのオーバースムーシングとオーバースキャッシングを克服する
- Authors: Li Sun, Zhenhao Huang, Ming Zhang, Philip S. Yu,
- Abstract要約: メッセージパッシングニューラルネットワーク(MPNN)は、グラフ基盤モデルのブロックを構築している。
MPNNは過密と過密に悩まされている。
ローカル構造に基づくメッセージパッシングを調整するためのtextbflocalアプローチを提案する。
- 参考スコア(独自算出の注目度): 47.23316001059971
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Message Passing Neural Networks (MPNNs) is the building block of graph foundation models, but fundamentally suffer from oversmoothing and oversquashing. There has recently been a surge of interest in fixing both issues. Existing efforts primarily adopt global approaches, which may be beneficial in some regions but detrimental in others, ultimately leading to the suboptimal expressiveness. In this paper, we begin by revisiting oversquashing through a global measure -- spectral gap $\lambda$ -- and prove that the increase of $\lambda$ leads to gradient vanishing with respect to the input features, thereby undermining the effectiveness of message passing. Motivated by such theoretical insights, we propose a \textbf{local} approach that adaptively adjusts message passing based on local structures. To achieve this, we connect local Riemannian geometry with MPNNs, and establish a novel nonhomogeneous boundary condition to address both oversquashing and oversmoothing. Building on the Robin condition, we design a GBN network with local bottleneck adjustment, coupled with theoretical guarantees. Extensive experiments on homophilic and heterophilic graphs show the expressiveness of GBN. Furthermore, GBN does not exhibit performance degradation even when the network depth exceeds $256$ layers.
- Abstract(参考訳): Message Passing Neural Networks (MPNN) はグラフ基盤モデルのビルディングブロックであるが、基本的には過剰なスムーシングとオーバーシャッシングに悩まされている。
最近、両方の問題を解決することへの関心が高まっている。
既存の取り組みは主にグローバルなアプローチを採用しており、これは一部の地域では有益であるが、他の地域では有害であり、最終的には準最適表現に繋がる。
本稿では、まず、大域的な測度(スペクトルギャップ$\lambda$)を通してオーバーカッシングを再考し、$\lambda$の増加が入力機能に対する勾配を減少させ、メッセージパッシングの有効性を損なうことを証明する。
このような理論的な知見により、局所構造に基づくメッセージパッシングを適応的に調整する \textbf{local} アプローチを提案する。
これを実現するために、局所リーマン幾何学とMPNNを結合し、オーバー・スキャッシングとオーバー・スムーシングの両方に対処する新しい非均一境界条件を確立する。
Robin条件に基づいて、局所的なボトルネック調整を伴うGBNネットワークを設計し、理論的保証を得る。
ホモ親和グラフとヘテロ親和グラフの広範な実験は、GBNの表現性を示している。
さらに、ネットワーク深さが256ドルを超える場合でも、GBNは性能劣化を示しない。
関連論文リスト
- Simplifying Graph Convolutional Networks with Redundancy-Free Neighbors [8.793707476780304]
グラフ畳み込みネットワーク(GCN)の固有メッセージパッシング機構の解析
この低次隣人への繰り返し依存は、過剰集約(over-aggregation)という現象である冗長な情報集約につながる。
分析の結果,過剰凝集は大きな冗長性をもたらすだけでなく,GCNの過密化の原因となることが示唆された。
論文 参考訳(メタデータ) (2025-04-18T02:56:21Z) - A Signed Graph Approach to Understanding and Mitigating Oversmoothing in GNNs [54.62268052283014]
署名されたグラフの枠組みに基づく統一的な理論的視点を示す。
既存の戦略の多くは、メッセージパッシングを変えて過度な操作に抵抗する負のエッジを暗黙的に導入している。
本稿では,ラベルや特徴の類似性に基づいて署名されたエッジを割り当てるプラグイン・アンド・プレイ方式であるStructure Balanced Propagation (SBP)を提案する。
論文 参考訳(メタデータ) (2025-02-17T03:25:36Z) - Minimum Topology Attacks for Graph Neural Networks [70.17791814425148]
グラフニューラルネットワーク(GNN)は、敵対的トポロジ攻撃に対する堅牢性において大きな注目を集めている。
本稿では,各ノードに対する攻撃を成功させるのに十分な最小摂動を適応的に見つけることを目的とした,最小予算トポロジ攻撃という新しいタイプのトポロジ攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-05T07:29:12Z) - Neighborhood Homophily-based Graph Convolutional Network [4.511171093050241]
グラフニューラルネットワーク(GNN)は、グラフ指向のタスクにおいて強力であることが証明されている。
多くの実世界のグラフは異性を持ち、古典的なGNNのホモフィリーな仮定に挑戦する。
最近の研究では、ホモフィリーを特徴付ける新しい指標を提案するが、提案する指標とモデルの相関を考えることは稀である。
本稿ではまず,ノード近傍におけるラベルの複雑さや純度を測定するため,新しい指標であるNeighborhood Homophily(textitNH)を設計する。
論文 参考訳(メタデータ) (2023-01-24T07:56:44Z) - ResNorm: Tackling Long-tailed Degree Distribution Issue in Graph Neural
Networks via Normalization [80.90206641975375]
本稿では,正規化によるGNNの性能向上に焦点をあてる。
グラフ中のノード次数の長期分布を調べることにより、GNNの新しい正規化法を提案する。
ResNormの$scale$操作は、尾ノードの精度を向上させるために、ノード単位の標準偏差(NStd)分布を再設定する。
論文 参考訳(メタデータ) (2022-06-16T13:49:09Z) - Tackling Over-Smoothing for General Graph Convolutional Networks [88.71154017107257]
一般的なGCNは、GCN, GCN with bias, ResGCN, APPNPを含む深度の増加とともにどのように振る舞うかを検討する。
そこで我々はDropEdgeを提案し,各トレーニングエポックにおいて一定数のエッジをランダムに除去することで過度なスムース化を緩和する。
論文 参考訳(メタデータ) (2020-08-22T16:14:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。