論文の概要: Towards Understanding and Avoiding Limitations of Convolutions on Graphs
- arxiv url: http://arxiv.org/abs/2602.04709v1
- Date: Wed, 04 Feb 2026 16:21:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.615003
- Title: Towards Understanding and Avoiding Limitations of Convolutions on Graphs
- Title(参考訳): グラフ上の畳み込みの限界の理解と回避に向けて
- Authors: Andreas Roth,
- Abstract要約: 我々は、メッセージパッシングニューラルネットワーク(MPNN)の詳細な理論的解析を提供する。
我々はMPNNの性能を制限するいくつかの重要な特性を同定する。
これらの欠点に対処するフレームワークをいくつか提案する。
- 参考スコア(独自算出の注目度): 0.152292571922932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While message-passing neural networks (MPNNs) have shown promising results, their real-world impact remains limited. Although various limitations have been identified, their theoretical foundations remain poorly understood, leading to fragmented research efforts. In this thesis, we provide an in-depth theoretical analysis and identify several key properties limiting the performance of MPNNs. Building on these findings, we propose several frameworks that address these shortcomings. We identify two properties exhibited by many MPNNs: shared component amplification (SCA), where each message-passing iteration amplifies the same components across all feature channels, and component dominance (CD), where a single component gets increasingly amplified as more message-passing steps are applied. These properties lead to the observable phenomenon of rank collapse of node representations, which generalizes the established over-smoothing phenomenon. By generalizing and decomposing over-smoothing, we enable a deeper understanding of MPNNs, more targeted solutions, and more precise communication within the field. To avoid SCA, we show that utilizing multiple computational graphs or edge relations is necessary. Our multi-relational split (MRS) framework transforms any existing MPNN into one that leverages multiple edge relations. Additionally, we introduce the spectral graph convolution for multiple feature channels (MIMO-GC), which naturally uses multiple computational graphs. A localized variant, LMGC, approximates the MIMO-GC while inheriting its beneficial properties. To address CD, we demonstrate a close connection between MPNNs and the PageRank algorithm. Based on personalized PageRank, we propose a variant of MPNNs that allows for infinitely many message-passing iterations, while preserving initial node features. Collectively, these results deepen the theoretical understanding of MPNNs.
- Abstract(参考訳): メッセージパッシングニューラルネットワーク(MPNN)は有望な結果を示しているが、実際の影響は限られている。
様々な制限が特定されているが、理論上の基礎は理解されていないままであり、研究の断片化につながっている。
本論文では,MPNNの性能を規定するいくつかの重要な特性を詳細に解析し,同定する。
これらの知見に基づいて,これらの欠点に対処するいくつかのフレームワークを提案する。
我々は、多くのMPNNが示す2つの特性を識別する:共有コンポーネント増幅(SCA)、各メッセージパッシングイテレーションは、すべての特徴チャネルで同じコンポーネントを増幅する、コンポーネント支配(CD)。
これらの性質はノード表現の階数崩壊の観測可能な現象をもたらし、これは確立された過平滑化現象を一般化する。
オーバー・スムーシングを一般化し分解することにより、MPNN、よりターゲットを絞ったソリューション、およびフィールド内のより正確なコミュニケーションをより深く理解することができる。
SCAを避けるためには,複数の計算グラフやエッジ関係を利用する必要がある。
我々のマルチリレーショナルスプリット(MRS)フレームワークは、既存のMPNNを複数のエッジ関係を利用するものに変換します。
さらに、複数の特徴チャネル(MIMO-GC)に対するスペクトルグラフ畳み込みを導入し、複数の計算グラフを自然に利用する。
ローカライズされた変種LMGCはMIMO-GCを近似し、その有益な性質を継承する。
CDに対処するため,MPNNとPageRankアルゴリズムの密接な関係を示す。
パーソナライズされたPageRankに基づいてMPNNの変種を提案する。
これらの結果はMPNNの理論的理解を深める。
関連論文リスト
- Improving the Effective Receptive Field of Message-Passing Neural Networks [17.98720458446544]
本稿では,MPNNにおける限定的有効受容場問題について,理論的に解説する。
本稿では,これらの問題に対処するインターリーブ型マルチスケールメッセージパッシングニューラルネットワークアーキテクチャを提案する。
本手法では,グラフの階層的粗大化を取り入れ,マルチスケール表現を横断するメッセージパッシングを実現する。
論文 参考訳(メタデータ) (2025-05-29T07:23:07Z) - Multigraph Message Passing with Bi-Directional Multi-Edge Aggregations [5.193718340934995]
MEGA-GNNは、マルチグラフ上のメッセージパッシングのための統一されたフレームワークである。
我々は, MEGA-GNN が置換同変であるだけでなく,エッジ上で厳密な全順序付けを与えられることも示す。
実験の結果、MEGA-GNNはアンチ・モニー・ロンダリングのデータセットで最先端のソリューションを最大13%上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-29T20:15:18Z) - Preventing Representational Rank Collapse in MPNNs by Splitting the Computational Graph [9.498398257062641]
複数の有向非巡回グラフ上での操作が常に我々の条件を満たすことを示し、ノードの厳密な部分順序付けを定義することによってそれらを得る提案をする。
我々は、より情報的なノード表現を実現するために、マルチリレーショナルグラフ上での操作の利点を確認する包括的な実験を行う。
論文 参考訳(メタデータ) (2024-09-17T19:16:03Z) - Sign is Not a Remedy: Multiset-to-Multiset Message Passing for Learning on Heterophilic Graphs [77.42221150848535]
我々は、Multiset to Multiset GNN(M2M-GNN)と呼ばれる新しいメッセージパッシング機能を提案する。
M2M-GNNは上述のSMPの限界を効果的に緩和し, 比較性能が向上することを示した。
論文 参考訳(メタデータ) (2024-05-31T07:39:22Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - DPGNN: Dual-Perception Graph Neural Network for Representation Learning [21.432960458513826]
グラフニューラルネットワーク(GNN)は近年注目を集め、グラフベースのタスクの多くで顕著なパフォーマンスを実現している。
既存のGNNの多くは、メッセージパッシングパラダイムに基づいて、1つのトポロジ空間内の近隣情報を反復的に集約している。
本稿では,マルチステップメッセージソースの特性,ノード固有のメッセージ出力,マルチスペースメッセージインタラクションに基づく新しいメッセージパッシングパラダイムを提案する。
論文 参考訳(メタデータ) (2021-10-15T05:47:26Z) - Reinforced Neighborhood Selection Guided Multi-Relational Graph Neural
Networks [68.9026534589483]
RioGNNはReinforceed, recursive, flexible neighborhood selection guided multi-relational Graph Neural Network architectureである。
RioGNNは、各関係の個々の重要性の認識により、説明性を高めた差別的なノード埋め込みを学ぶことができる。
論文 参考訳(メタデータ) (2021-04-16T04:30:06Z) - Permutation-equivariant and Proximity-aware Graph Neural Networks with
Stochastic Message Passing [88.30867628592112]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
置換等価性と近接認識性は、GNNにとって非常に望ましい2つの重要な特性である。
既存のGNNは、主にメッセージパッシング機構に基づいており、同時に2つの特性を保存できないことを示す。
ノードの近さを保つため,既存のGNNをノード表現で拡張する。
論文 参考訳(メタデータ) (2020-09-05T16:46:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。