論文の概要: Over-Squashing in GNNs and Causal Inference of Rewiring Strategies
- arxiv url: http://arxiv.org/abs/2508.09265v1
- Date: Tue, 12 Aug 2025 18:16:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.658889
- Title: Over-Squashing in GNNs and Causal Inference of Rewiring Strategies
- Title(参考訳): GNNにおけるオーバーカッシングとスイッチング戦略の因果推論
- Authors: Danial Saber, Amirali Salehi-Abari,
- Abstract要約: グラフニューラルネットワーク(GNN)は、レコメンダシステム、マテリアルデザイン、薬物再資源化など、幅広い領域で最先端のパフォーマンスを示している。
メッセージパッシングGNNは、遠く離れたノードからの長距離情報の指数的圧縮、過剰な監視に悩まされている。
再配線技術はこのボトルネックを緩和することができるが、直接的な実証的なオーバーカッシング指標が欠如していることから、その実践的影響は明らかではない。
- 参考スコア(独自算出の注目度): 1.6574413179773764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) have exhibited state-of-the-art performance across wide-range of domains such as recommender systems, material design, and drug repurposing. Yet message-passing GNNs suffer from over-squashing -- exponential compression of long-range information from distant nodes -- which limits expressivity. Rewiring techniques can ease this bottleneck; but their practical impacts are unclear due to the lack of a direct empirical over-squashing metric. We propose a rigorous, topology-focused method for assessing over-squashing between node pairs using the decay rate of their mutual sensitivity. We then extend these pairwise assessments to four graph-level statistics (prevalence, intensity, variability, extremity). Coupling these metrics with a within-graph causal design, we quantify how rewiring strategies affect over-squashing on diverse graph- and node-classification benchmarks. Our extensive empirical analyses show that most graph classification datasets suffer from over-squashing (but to various extents), and rewiring effectively mitigates it -- though the degree of mitigation, and its translation into performance gains, varies by dataset and method. We also found that over-squashing is less notable in node classification datasets, where rewiring often increases over-squashing, and performance variations are uncorrelated with over-squashing changes. These findings suggest that rewiring is most beneficial when over-squashing is both substantial and corrected with restraint -- while overly aggressive rewiring, or rewiring applied to minimally over-squashed graphs, is unlikely to help and may even harm performance. Our plug-and-play diagnostic tool lets practitioners decide -- before any training -- whether rewiring is likely to pay off.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、レコメンダシステム、マテリアルデザイン、薬物再資源化など、幅広い領域で最先端のパフォーマンスを示している。
しかし、メッセージパッシングのGNNは、過剰な監視、すなわち遠く離れたノードからの長距離情報の指数的圧縮に苦しむため、表現性を制限している。
再配線技術はこのボトルネックを緩和することができるが、直接的な実証的なオーバーカッシング指標が欠如していることから、その実践的影響は明らかではない。
そこで本稿では,ノード間の過疎化を相互感度の減衰率を用いて評価する,厳密なトポロジに着目した手法を提案する。
次に、これらのペアワイズアセスメントを4つのグラフレベル統計(頻度、強度、可変性、極限性)に拡張する。
これらのメトリクスをグラフ内因果設計と組み合わせることで、さまざまなグラフとノードの分類ベンチマークにおいて、リウィリング戦略がオーバーカッシングにどのように影響するかを定量化する。
我々の広範な実証分析によると、ほとんどのグラフ分類データセットはオーバーシャッシング(ただし、様々な範囲)に悩まされており、緩和の度合いと性能向上への変換はデータセットとメソッドによって異なるものの、効果的にリワイシングすることで軽減される。
また、ノード分類データセットではオーバー・スクアッシングがあまり目立たず、リワイアリングはオーバー・スクアッシングを頻繁に増加させ、パフォーマンスのばらつきはオーバー・スクアッシングの変更とは無関係であることがわかった。
過度にアグレッシブなリライトや、最小限に過度に過度に過度に過度なグラフに適用されたリライトは、パフォーマンスを損なう可能性さえあり得ない。
当社のプラグアンドプレイ診断ツールは、トレーニング前に、リライトが報われるかどうかを、実践者が判断できるようにしています。
関連論文リスト
- Mitigating Over-Squashing in Graph Neural Networks by Spectrum-Preserving Sparsification [81.06278257153835]
本稿では,構造的ボトルネック低減とグラフ特性保存のバランスをとるグラフ再構成手法を提案する。
本手法は、疎性を維持しながら接続性を高めたグラフを生成し、元のグラフスペクトルを大半保存する。
論文 参考訳(メタデータ) (2025-06-19T08:01:00Z) - Rewiring Techniques to Mitigate Oversquashing and Oversmoothing in GNNs: A Survey [0.0]
グラフニューラルネットワーク(GNN)は,グラフ構造化データから学習するための強力なツールだが,その有効性は2つの重要な課題によって制約されることが多い。
オーバーキャッシング(Oversquashing) – 遠いノードからの情報の過剰な圧縮が大きな情報損失と過度なスムース化をもたらし、繰り返しメッセージパッシングの繰り返しがノード表現を均質化し、意味のある区別を隠蔽する。
本研究では,グラフトポロジを改良して情報拡散を高めることで,これらの構造的ボトルネックに対処する手法であるグラフリウィリング手法について検討する。
論文 参考訳(メタデータ) (2024-11-26T13:38:12Z) - The Effectiveness of Curvature-Based Rewiring and the Role of Hyperparameters in GNNs Revisited [0.7373617024876725]
グラフニューラルネットワーク(GNN)におけるメッセージパッシングは支配的なパラダイムである
近年、データと計算グラフから入力グラフを切断し、メッセージパッシングを行うグラフリウィリング技術に力を入れている。
オーバーシャッシングは合成データセットで実証されているが、この研究では、曲率ベースのリワイアリングが現実のデータセットにもたらすパフォーマンス向上を再評価する。
論文 参考訳(メタデータ) (2024-07-12T16:03:58Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Latent Graph Inference with Limited Supervision [58.54674649232757]
潜在グラフ推論(LGI)は、データ特徴から基礎となるグラフ構造とノード表現を共同で学習することを目的としている。
既存のLGI手法は、意味的な監督なしに巨大なエッジウェイトが学習され、トレーニング損失に寄与しない、監督飢餓の問題に悩まされることが一般的である。
本稿では,この問題の原因はグラフスカラー化操作であり,重要なノードとラベル付きノード間の接続を著しく破壊する。
論文 参考訳(メタデータ) (2023-10-06T15:22:40Z) - Mitigating Over-Smoothing and Over-Squashing using Augmentations of Forman-Ricci Curvature [1.1126342180866644]
スケーラブルな曲率表記法であるAFRC(Augmented Forman-Ricci curvature)に基づく書き換え手法を提案する。
AFRCはメッセージパッシングGNNにおける過剰なスムースと過剰なスキャッシング効果を効果的に特徴付ける。
論文 参考訳(メタデータ) (2023-09-17T21:43:18Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Understanding and Resolving Performance Degradation in Graph
Convolutional Networks [105.14867349802898]
グラフ畳み込みネットワーク(GCN)は複数のレイヤを積み重ね、グラフ構造化データ上でノード表現を学習するためのPROPとTRANを実行する。
GCNはモデルが深くなるとパフォーマンスが低下する傾向がある。
本稿では,TRANやPROPのみを積み重ねることによるGCNの性能劣化について実験的に検討する。
論文 参考訳(メタデータ) (2020-06-12T12:12:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。