論文の概要: Asynchronous Message Passing for Addressing Oversquashing in Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2509.06777v1
- Date: Mon, 08 Sep 2025 15:03:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:04.204373
- Title: Asynchronous Message Passing for Addressing Oversquashing in Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおけるアドレスオーバーカッシングのための非同期メッセージパッシング
- Authors: Kushal Bose, Swagatam Das,
- Abstract要約: グラフニューラルネットワーク(GNN)は、タスクが長距離インタラクションを必要とする場合に発生するオーバーカッシングに悩まされる。
本稿では,従来の同期メッセージパッシングGNNとは異なり,ノード機能を非同期に更新する効率的なモデルに依存しないフレームワークを提案する。
本フレームワークは6つの標準グラフデータセットと2つの長距離データセットに適用してグラフ分類を行う。
- 参考スコア(独自算出の注目度): 21.49824162847618
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) suffer from Oversquashing, which occurs when tasks require long-range interactions. The problem arises from the presence of bottlenecks that limit the propagation of messages among distant nodes. Recently, graph rewiring methods modify edge connectivity and are expected to perform well on long-range tasks. Yet, graph rewiring compromises the inductive bias, incurring significant information loss in solving the downstream task. Furthermore, increasing channel capacity may overcome information bottlenecks but enhance the parameter complexity of the model. To alleviate these shortcomings, we propose an efficient model-agnostic framework that asynchronously updates node features, unlike traditional synchronous message passing GNNs. Our framework creates node batches in every layer based on the node centrality values. The features of the nodes belonging to these batches will only get updated. Asynchronous message updates process information sequentially across layers, avoiding simultaneous compression into fixed-capacity channels. We also theoretically establish that our proposed framework maintains higher feature sensitivity bounds compared to standard synchronous approaches. Our framework is applied to six standard graph datasets and two long-range datasets to perform graph classification and achieves impressive performances with a $5\%$ and $4\%$ improvements on REDDIT-BINARY and Peptides-struct, respectively.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、タスクが長距離インタラクションを必要とする場合に発生するオーバーカッシングに悩まされる。
この問題は、遠く離れたノード間のメッセージの伝播を制限するボトルネックの存在から生じる。
近年,エッジ接続が変更され,長距離タスクでも良好に動作することが期待されている。
しかし、グラフの書き換えは帰納バイアスを損なうため、下流タスクの解決において重大な情報損失が生じる。
さらに、チャネル容量の増大は情報のボトルネックを克服するが、モデルのパラメータの複雑さを増大させる。
これらの欠点を軽減するために、従来の同期メッセージパッシングGNNとは異なり、ノード機能を非同期に更新する効率的なモデルに依存しないフレームワークを提案する。
当社のフレームワークは,ノード集中度値に基づいて,各レイヤにノードバッチを生成します。
これらのバッチに属するノードの機能は、更新されるのみである。
非同期メッセージ更新は、レイヤ間で順次情報を処理し、固定容量チャネルへの同時圧縮を回避する。
また,提案するフレームワークが標準同期手法よりも高い特徴感度境界を維持していることも理論的に証明した。
本フレームワークは6つの標準グラフデータセットと2つの長距離データセットに適用してグラフ分類を行い,REDDIT-BINARYとPeptides-structをそれぞれ5.5%,4.%で改善した。
関連論文リスト
- DeltaGNN: Graph Neural Network with Information Flow Control [5.563171090433323]
グラフニューラルネットワーク(GNN)は、メッセージパッシングプロセスの近傍集約を通じてグラフ構造化データを処理するように設計されている。
メッセージパッシングにより、GNNは短距離空間的相互作用を理解できるだけでなく、過度なスムーシングや過度なスカッシングに悩まされる。
本稿では,線形計算オーバーヘッドを伴うオーバー・スムーシングとオーバー・スキャッシングに対処するための,emph情報フロー制御機構を提案する。
さまざまなサイズ、トポロジ、密度、ホモフィリック比のグラフを含む10の実世界のデータセットを対象に、我々のモデルをベンチマークし、優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-01-10T14:34:20Z) - Multi-Scene Generalized Trajectory Global Graph Solver with Composite
Nodes for Multiple Object Tracking [61.69892497726235]
複合ノードメッセージパッシングネットワーク(CoNo-Link)は、超長いフレーム情報を関連付けるためのフレームワークである。
オブジェクトをノードとして扱う従来の方法に加えて、このネットワークは情報インタラクションのためのノードとしてオブジェクトトラジェクトリを革新的に扱う。
我々のモデルは、合成ノードを追加することで、より長い時間スケールでより良い予測を学習することができる。
論文 参考訳(メタデータ) (2023-12-14T14:00:30Z) - STAG: Enabling Low Latency and Low Staleness of GNN-based Services with
Dynamic Graphs [20.94927463359297]
本稿では,GNN ベースのサービスの低レイテンシと低安定化を実現する GNN サービスフレームワーク STAG を提案する。
実験の結果、STAGは更新フェーズを1.3x90.1xで加速し、応答遅延をわずかに増加させ、安定化時間を劇的に短縮することがわかった。
論文 参考訳(メタデータ) (2023-09-27T05:15:02Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - DRew: Dynamically Rewired Message Passing with Delay [7.474662887810221]
グラフの段階的な密度化を保証するために,レイヤ依存のリウィリングを行うフレームワークを提案する。
また,各層と相互距離に依存するノード間の接続をスキップする遅延機構を提案する。
いくつかの長距離タスクに対するアプローチを検証するとともに,グラフトランスフォーマーやマルチホップMPNNよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-13T22:47:40Z) - Temporal Aggregation and Propagation Graph Neural Networks for Dynamic
Representation [67.26422477327179]
時間グラフは連続時間を通してノード間の動的相互作用を示す。
本研究では,周辺地域全体と時間的グラフ畳み込みの新たな手法を提案する。
提案するTAP-GNNは,予測性能とオンライン推論遅延の両面で,既存の時間グラフ手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-15T08:17:18Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - AEGNN: Asynchronous Event-based Graph Neural Networks [54.528926463775946]
イベントベースのグラフニューラルネットワークは、標準のGNNを一般化して、イベントを"進化的"時間グラフとして処理する。
AEGNNは同期入力で容易に訓練でき、テスト時に効率的な「非同期」ネットワークに変換できる。
論文 参考訳(メタデータ) (2022-03-31T16:21:12Z) - Causal Incremental Graph Convolution for Recommender System Retraining [89.25922726558875]
実世界のレコメンデーションシステムは、新しいデータを維持するために定期的に再トレーニングする必要がある。
本研究では,GCNに基づくレコメンデータモデルを用いて,グラフ畳み込みネットワーク(GCN)を効率的に再学習する方法を検討する。
論文 参考訳(メタデータ) (2021-08-16T04:20:09Z) - Graph Convolutional Neural Networks with Node Transition
Probability-based Message Passing and DropNode Regularization [32.260055351563324]
最近、グラフ構造化データを扱う能力のため、グラフ畳み込みニューラルネットワーク(GCNN)が注目されている。
本研究は,ノード遷移確率に基づくメッセージパッシングプロセスを改善するための新しい手法を提案する。
また,DropNodeと呼ばれる新しい正規化手法を提案する。
論文 参考訳(メタデータ) (2020-08-28T10:51:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。