論文の概要: Local Virtual Nodes for Alleviating Over-Squashing in Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2508.20597v1
- Date: Thu, 28 Aug 2025 09:39:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.29604
- Title: Local Virtual Nodes for Alleviating Over-Squashing in Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおけるオーバースカッシングを軽減するローカル仮想ノード
- Authors: Tuğrul Hasan Karabulut, İnci M. Baytaş,
- Abstract要約: オーバースカッシングは、長距離依存関係を含むタスクに対して、グラフニューラルネットワークをトレーニングする上での課題である。
本研究では,局所仮想ノード(Local Virtual Nodes,LVN)をトレーニング可能な埋め込みで提案し,オーバースカッシングの効果を緩和する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Over-squashing is a challenge in training graph neural networks for tasks involving long-range dependencies. In such tasks, a GNN's receptive field should be large enough to enable communication between distant nodes. However, gathering information from a wide range of neighborhoods and squashing its content into fixed-size node representations makes message-passing vulnerable to bottlenecks. Graph rewiring and adding virtual nodes are commonly studied remedies that create additional pathways around bottlenecks to mitigate over-squashing. However, these techniques alter the input graph's global topology and disrupt the domain knowledge encoded in the original graph structure, both of which could be essential to specific tasks and domains. This study presents Local Virtual Nodes (LVN) with trainable embeddings to alleviate the effects of over-squashing without significantly corrupting the global structure of the input graph. The position of the LVNs is determined by the node centrality, which indicates the existence of potential bottlenecks. Thus, the proposed approach aims to improve the connectivity in the regions with likely bottlenecks. Furthermore, trainable LVN embeddings shared across selected central regions facilitate communication between distant nodes without adding more layers. Extensive experiments on benchmark datasets demonstrate that LVNs can enhance structural connectivity and significantly improve performance on graph and node classification tasks. The code can be found at https://github.com/ALLab-Boun/LVN/}{https://github.com/ALLab-Boun/LVN/.
- Abstract(参考訳): オーバースカッシングは、長距離依存関係を含むタスクに対して、グラフニューラルネットワークをトレーニングする上での課題である。
このようなタスクでは、GNNの受信フィールドは、遠く離れたノード間の通信を可能にするのに十分な大きさでなければならない。
しかし、様々な地域から情報を収集し、そのコンテンツを固定サイズのノード表現に分割することで、ボトルネックに対してメッセージパッシングが脆弱になる。
グラフのリライトと仮想ノードの追加が一般的に研究されている。
しかし、これらの手法は入力グラフのグローバルなトポロジを変え、元のグラフ構造に符号化されたドメイン知識を破壊する。
本研究では,入力グラフのグローバル構造を著しく損なうことなく,オーバースカッシングの効果を軽減するため,トレーニング可能な埋め込み付きローカル仮想ノード(LVN)を提案する。
LVNの位置は、潜在的なボトルネックの存在を示すノード中心性によって決定される。
したがって、提案手法は、ボトルネックの可能性のある領域における接続性を改善することを目的としている。
さらに、選択された中央領域間で共有されるトレーニング可能なLVN埋め込みは、より多くのレイヤを追加することなく、離れたノード間の通信を容易にする。
ベンチマークデータセットの大規模な実験により、LVNは構造的な接続性を高め、グラフやノードの分類タスクのパフォーマンスを大幅に改善できることが示された。
コードはhttps://github.com/ALLab-Boun/LVN/}{https://github.com/ALLab-Boun/LVN/にある。
関連論文リスト
- Understanding Virtual Nodes: Oversquashing and Node Heterogeneity [4.59357989139429]
仮想ノード(VN)によるMPNNの拡張は、さまざまなベンチマークのパフォーマンス向上に寄与している。
我々は,VNの役割とその利益に関する包括的理論的分析を行った。
グラフ構造に基づいてノードに対して異なる感度を持つ計算複雑性を持つVNの変種を提案する。
論文 参考訳(メタデータ) (2024-05-22T10:51:12Z) - Graph Elimination Networks [8.806990624643333]
グラフニューラルネットワーク(GNN)は、様々な領域に広く適用されているが、深い層では性能が良くない。
深層層におけるGNNの性能劣化の根本原因は,非効率な近傍特徴伝搬にあることを示す。
本稿では,周辺伝播における冗長性を排除するために,特定のアルゴリズムを用いたグラフ除去ネットワーク(gens)を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:58:59Z) - Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - Collaborative Graph Neural Networks for Attributed Network Embedding [63.39495932900291]
グラフニューラルネットワーク(GNN)は、属性付きネットワーク埋め込みにおいて顕著な性能を示している。
本稿では,ネットワーク埋め込みに適したGNNアーキテクチャであるCulaborative graph Neural Networks-CONNを提案する。
論文 参考訳(メタデータ) (2023-07-22T04:52:27Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - DOTIN: Dropping Task-Irrelevant Nodes for GNNs [119.17997089267124]
最近のグラフ学習アプローチでは、学習のためのグラフのサイズを減らすためのプール戦略が導入されている。
我々はDOTIN(underlineDrunderlineopping underlineTask-underlineIrrelevant underlineNodes)と呼ばれる新しいアプローチを設計し、グラフのサイズを減らす。
本手法は,グラフ分類やグラフ編集距離を含むグラフレベルのタスクにおいて,GATを約50%高速化する。
論文 参考訳(メタデータ) (2022-04-28T12:00:39Z) - Local Augmentation for Graph Neural Networks [78.48812244668017]
本稿では,局所的な部分グラフ構造によりノード特性を向上する局所拡張を提案する。
局所的な拡張に基づいて、プラグイン・アンド・プレイ方式で任意のGNNモデルに適用可能な、LA-GNNという新しいフレームワークをさらに設計する。
論文 参考訳(メタデータ) (2021-09-08T18:10:08Z) - Integrating Network Embedding and Community Outlier Detection via
Multiclass Graph Description [15.679313861083239]
そこで本稿では,ノード埋め込みとアウトレーヤとコミュニティ検出を統合した非教師なしグラフ埋め込み手法(DMGD)を提案する。
DMGDにより検出された外れ値の数に関する理論的境界を示す。
我々の定式化は、外れ値、コミュニティ割り当て、ノード埋め込み関数の間の興味深いミニマックスゲームに起因する。
論文 参考訳(メタデータ) (2020-07-20T16:21:07Z) - Graph Highway Networks [77.38665506495553]
グラフ畳み込みネットワーク(GCN)は、グラフ表現の有効性と効率性から、グラフ表現の学習に広く利用されている。
彼らは、多くの層が積み重ねられたとき、学習された表現が類似したベクトルに収束するという悪名高い過度に滑らかな問題に悩まされる。
本稿では,GCN学習プロセスにおける均一性と不均一性との間のトレードオフのバランスをとるため,ゲーティングユニットを利用したグラフハイウェイネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-09T16:26:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。