論文の概要: Structural Invariance Matters: Rethinking Graph Rewiring through Graph Metrics
- arxiv url: http://arxiv.org/abs/2510.20556v1
- Date: Thu, 23 Oct 2025 13:38:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:18.025979
- Title: Structural Invariance Matters: Rethinking Graph Rewiring through Graph Metrics
- Title(参考訳): 構造的不変性 - グラフメトリックによるグラフリライトの再考
- Authors: Alexandre Benoit, Catherine Aitken, Yu He,
- Abstract要約: 我々は、リワイアが様々なグラフ構造指標にどのように影響するかを、初めて体系的に分析する。
ノード分類精度と局所的および大域的グラフ特性の変化の相関関係を考察した。
提案手法は,グローバル接続の柔軟性を確保しつつ,局所的な構造を保ちながら再配線を成功させる傾向にある。
- 参考スコア(独自算出の注目度): 52.077620040518646
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Graph rewiring has emerged as a key technique to alleviate over-squashing in Graph Neural Networks (GNNs) and Graph Transformers by modifying the graph topology to improve information flow. While effective, rewiring inherently alters the graph's structure, raising the risk of distorting important topology-dependent signals. Yet, despite the growing use of rewiring, little is known about which structural properties must be preserved to ensure both performance gains and structural fidelity. In this work, we provide the first systematic analysis of how rewiring affects a range of graph structural metrics, and how these changes relate to downstream task performance. We study seven diverse rewiring strategies and correlate changes in local and global graph properties with node classification accuracy. Our results reveal a consistent pattern: successful rewiring methods tend to preserve local structure while allowing for flexibility in global connectivity. These findings offer new insights into the design of effective rewiring strategies, bridging the gap between graph theory and practical GNN optimization.
- Abstract(参考訳): グラフトポロジを変更して情報フローを改善することにより、グラフニューラルネットワーク(GNN)とグラフトランスフォーマーのオーバースカッシングを緩和する重要なテクニックとして、グラフリワイアが登場した。
有効ではあるが、リワイアは本質的にグラフの構造を変え、重要なトポロジに依存した信号を歪ませるリスクを増大させる。
しかし、再配線の利用が増加しているにもかかわらず、性能向上と構造的忠実性の両立を保証するため、どの構造特性を保存する必要があるかは分かっていない。
本研究では,リウィリングがグラフ構造指標にどのように影響するか,そしてこれらの変化が下流タスクのパフォーマンスにどのように影響するかを,初めて体系的に分析する。
ノード分類精度と局所的および大域的グラフ特性の変化の相関関係を考察した。
提案手法は,グローバル接続の柔軟性を確保しつつ,局所的な構造を保ちながら再配線を成功させる傾向にある。
これらの知見は,グラフ理論と実用的なGNN最適化のギャップを埋める,効果的なスイッチング戦略の設計に関する新たな洞察を与える。
関連論文リスト
- Mitigating Over-Squashing in Graph Neural Networks by Spectrum-Preserving Sparsification [81.06278257153835]
本稿では,構造的ボトルネック低減とグラフ特性保存のバランスをとるグラフ再構成手法を提案する。
本手法は、疎性を維持しながら接続性を高めたグラフを生成し、元のグラフスペクトルを大半保存する。
論文 参考訳(メタデータ) (2025-06-19T08:01:00Z) - Rewiring Techniques to Mitigate Oversquashing and Oversmoothing in GNNs: A Survey [0.0]
グラフニューラルネットワーク(GNN)は,グラフ構造化データから学習するための強力なツールだが,その有効性は2つの重要な課題によって制約されることが多い。
オーバーキャッシング(Oversquashing) – 遠いノードからの情報の過剰な圧縮が大きな情報損失と過度なスムース化をもたらし、繰り返しメッセージパッシングの繰り返しがノード表現を均質化し、意味のある区別を隠蔽する。
本研究では,グラフトポロジを改良して情報拡散を高めることで,これらの構造的ボトルネックに対処する手法であるグラフリウィリング手法について検討する。
論文 参考訳(メタデータ) (2024-11-26T13:38:12Z) - Learning to Model Graph Structural Information on MLPs via Graph Structure Self-Contrasting [50.181824673039436]
本稿では,グラフ構造情報をメッセージパッシングなしで学習するグラフ構造自己コントラスト(GSSC)フレームワークを提案する。
提案するフレームワークは,構造情報を事前知識として暗黙的にのみ組み込む,MLP(Multi-Layer Perceptrons)に基づいている。
これはまず、近傍の潜在的非形式的あるいはノイズの多いエッジを取り除くために構造的スペーシングを適用し、その後、スペーシングされた近傍で構造的自己コントラストを行い、ロバストなノード表現を学ぶ。
論文 参考訳(メタデータ) (2024-09-09T12:56:02Z) - Greener GRASS: Enhancing GNNs with Encoding, Rewiring, and Attention [12.409982249220812]
本稿では,新しいGNNアーキテクチャであるGraph Attention with Structures (GRASS)を紹介する。
GRASSはランダムな正規グラフを重畳して入力グラフをリワイヤし、長距離情報伝搬を実現する。
また、グラフ構造化データに適した新しい付加的注意機構も採用している。
論文 参考訳(メタデータ) (2024-07-08T06:21:56Z) - Locality-Aware Graph-Rewiring in GNNs [5.356465360780597]
グラフニューラルネットワーク(GNN)は、グラフ上の機械学習の一般的なモデルである。
本研究では,グラフ検索のための3つのデシラタを同定する: (i) オーバー・スクアッシングを減らし, (ii) グラフの局所性を尊重し, (iii) グラフの空間性を保存する。
i)iii のすべてを満たす新しいリウィリングフレームワークを,局所性を考慮したリウィリング操作のシーケンスを通じて提案する。
論文 参考訳(メタデータ) (2023-10-02T21:59:44Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Spectral Graph Convolutional Networks With Lifting-based Adaptive Graph
Wavelets [81.63035727821145]
スペクトルグラフ畳み込みネットワーク(SGCN)はグラフ表現学習において注目を集めている。
本稿では,適応グラフウェーブレットを用いたグラフ畳み込みを実装した新しいスペクトルグラフ畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-03T17:57:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。