論文の概要: Over-Squashing in Riemannian Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2311.15945v1
- Date: Mon, 27 Nov 2023 15:51:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 14:26:23.798337
- Title: Over-Squashing in Riemannian Graph Neural Networks
- Title(参考訳): リーマングラフニューラルネットワークにおけるオーバースカッシング
- Authors: Julia Balla
- Abstract要約: ほとんどのグラフニューラルネットワーク(GNN)は、オーバースカッシング(over-squashing)という現象を起こしやすい。
最近の研究では、グラフのトポロジがオーバー・スカッシングに最も大きな影響を与えることが示されている。
我々は, GNN の埋め込み空間を通じて, オーバースカッシングを緩和できるかどうかを考察する。
- 参考スコア(独自算出の注目度): 1.6317061277457001
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most graph neural networks (GNNs) are prone to the phenomenon of
over-squashing in which node features become insensitive to information from
distant nodes in the graph. Recent works have shown that the topology of the
graph has the greatest impact on over-squashing, suggesting graph rewiring
approaches as a suitable solution. In this work, we explore whether
over-squashing can be mitigated through the embedding space of the GNN. In
particular, we consider the generalization of Hyperbolic GNNs (HGNNs) to
Riemannian manifolds of variable curvature in which the geometry of the
embedding space is faithful to the graph's topology. We derive bounds on the
sensitivity of the node features in these Riemannian GNNs as the number of
layers increases, which yield promising theoretical and empirical results for
alleviating over-squashing in graphs with negative curvature.
- Abstract(参考訳): ほとんどのグラフニューラルネットワーク(gnn)は、グラフの遠方のノードからの情報にノードの特徴が敏感になる過剰スワッシング現象に起因している。
近年の研究では、グラフのトポロジがオーバースカッシングに最も大きな影響を与えていることが示されており、グラフ再構成アプローチを適切な解として提案している。
本研究は,GNN の埋め込み空間を通じてオーバー・スクワッシングを緩和できるかどうかを考察する。
特に、埋め込み空間の幾何学がグラフの位相に忠実であるような変数曲率のリーマン多様体への双曲GNN(HGNN)の一般化を考える。
これらのリーマン GNN におけるノードの特徴の感度は、層数の増加に伴って導出され、負の曲率を持つグラフのオーバー・スクアッシングを緩和する有望な理論的および経験的な結果が得られる。
関連論文リスト
- A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
グラフニューラルネットワーク(GNN)は、グラフ畳み込みの連続的な応用により、隣接ノードからの情報を結合する。
ノードレベルとグラフレベルの両方のタスクにおけるGNNの一般化ギャップについて検討する。
トレーニンググラフのノード数によって一般化ギャップが減少することを示す。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - DeepRicci: Self-supervised Graph Structure-Feature Co-Refinement for
Alleviating Over-squashing [72.70197960100677]
グラフ構造学習(GSL)はグラフニューラルネットワーク(GNN)を改良したグラフで強化する上で重要な役割を果たしている。
GSLソリューションは、通常、タスク固有の監督(ノード分類)による構造改善に焦点を当てるか、GNN自体の固有の弱点を見落としている。
本稿では,典型的なGNNにおけるオーバー・スカッシングの問題を効果的に緩和する,自己教師付きグラフ構造-機能共分法について検討する。
論文 参考訳(メタデータ) (2024-01-23T14:06:08Z) - Robust Graph Neural Network based on Graph Denoising [10.564653734218755]
グラフニューラルネットワーク(GNN)は、非ユークリッドデータセットを扱う学習問題に対して、悪名高い代替手段として登場した。
本研究は,観測トポロジにおける摂動の存在を明示的に考慮した,GNNの堅牢な実装を提案する。
論文 参考訳(メタデータ) (2023-12-11T17:43:57Z) - How Curvature Enhance the Adaptation Power of Framelet GCNs [27.831929635701886]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力に実証されている。
本稿では,離散グラフリッチ曲率によるGNNの拡張手法を提案する。
曲率に基づくGNNモデルは、ホモフィリーグラフとヘテロフィリーグラフの両方において、最先端のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-19T06:05:33Z) - Geometric Graph Filters and Neural Networks: Limit Properties and
Discriminability Trade-offs [122.06927400759021]
本稿では,グラフニューラルネットワーク (GNN) と多様体ニューラルネットワーク (MNN) の関係について検討する。
これらのグラフ上の畳み込みフィルタとニューラルネットワークが連続多様体上の畳み込みフィルタとニューラルネットワークに収束することを示す。
論文 参考訳(メタデータ) (2023-05-29T08:27:17Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Oversquashing in GNNs through the lens of information contraction and
graph expansion [6.8222473597904845]
本稿では,情報収縮に基づく過疎分析のためのフレームワークを提案する。
オーバーカッシングを緩和するグラフ再配線アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-06T08:44:39Z) - Graph Neural Network Bandits [89.31889875864599]
グラフ構造データ上で定義された報酬関数を用いた帯域最適化問題を考察する。
この設定の主な課題は、大きなドメインへのスケーリングと、多くのノードを持つグラフへのスケーリングである。
グラフニューラルネットワーク(GNN)を用いて報酬関数を推定できることを示す。
論文 参考訳(メタデータ) (2022-07-13T18:12:36Z) - Understanding over-squashing and bottlenecks on graphs via curvature [17.359098638324546]
オーバースカッシング(Over-squashing)は、$k$ホップの隣人の数が、$k$で急速に増加する現象である。
我々は新しいエッジベースの曲率を導入し、負の湾曲したエッジがオーバースカッシングの原因であることを証明した。
また,オーバーカッシングを緩和するための曲率に基づく再配線法を提案し,実験的に検証した。
論文 参考訳(メタデータ) (2021-11-29T13:27:56Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。