論文の概要: GCN-MPPR: Enhancing the Propagation of Message Passing Neural Networks via Motif-Based Personalized PageRank
- arxiv url: http://arxiv.org/abs/2602.07903v1
- Date: Sun, 08 Feb 2026 10:49:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.862261
- Title: GCN-MPPR: Enhancing the Propagation of Message Passing Neural Networks via Motif-Based Personalized PageRank
- Title(参考訳): GCN-MPPR: モチーフに基づくパーソナライズされたPageRankによるメッセージパッシングニューラルネットワークの伝播促進
- Authors: Mingcan Wang, Junchang Xin, Zhongming Yao, Kaifu Long, Zhiqiong Wang,
- Abstract要約: 本稿では、モチーフベースパーソナライズされたPageRank(MPPR)という新しいPageRankについて述べる。
MPPRは、高次モチーフ関係を考慮し、あるノードから別のノードへの影響を測定するために提案される。
実験の結果,提案手法は精度,安定性,時間消費の基準線をほぼ全て上回ることがわかった。
- 参考スコア(独自算出の注目度): 3.3894571022475066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The algorithms based on message passing neural networks (MPNNs) on graphs have recently achieved great success for various graph applications. However, studies find that these methods always propagate the information to very limited neighborhoods with shallow depth, particularly due to over-smoothing. That means most of the existing MPNNs fail to be so `deep'. Although some previous work tended to handle this challenge via optimization- or structure-level remedies, the overall performance of GCNs still suffers from limited accuracy, poor stability, and unaffordable computational cost. Moreover, neglect of higher-order relationships during the propagation of MPNNs has further limited the performance of them. To overcome these challenges, a novel variant of PageRank named motif-based personalized PageRank (MPPR) is proposed to measure the influence of one node to another on the basis of considering higher-order motif relationships. Secondly, the MPPR is utilized to the message passing process of GCNs, thereby guiding the message passing process at a relatively `high' level. The experimental results show that the proposed method outperforms almost all of the baselines on accuracy, stability, and time consumption. Additionally, the proposed method can be considered as a component that can underpin almost all GCN tasks, with DGCRL being demonstrated in the experiment. The anonymous code repository is available at: https://anonymous.4open.science/r/GCN-MPPR-AFD6/.
- Abstract(参考訳): グラフ上のメッセージパッシングニューラルネットワーク(MPNN)に基づくアルゴリズムは、近年、さまざまなグラフアプリケーションで大きな成功を収めている。
しかし、これらの手法は、特に過度なスムーシングのため、非常に限られた深度で情報を伝達している。
つまり、既存のMPNNのほとんどが'deep'にはならないということだ。
以前の研究では最適化や構造レベルの改善によってこの問題に対処する傾向があったが、GCNの全体的な性能は依然として限られた精度、不安定な安定性、計算コストに悩まされている。
さらに,MPNNの伝播に伴う高次関係の無視は,その性能をさらに制限している。
これらの課題を克服するため、高次モチーフ関係を考慮したPageRank(MPPR)と呼ばれる新しいPageRank(PageRank)を提案する。
第二に、MPPRはGCNのメッセージパッシングプロセスに利用され、それによってメッセージパッシングプロセスを比較的「ハイ」レベルに導く。
実験の結果,提案手法は精度,安定性,時間消費の基準線をほぼ全て上回ることがわかった。
さらに、提案手法は、ほぼすべてのGCNタスクの基盤となるコンポーネントとみなすことができ、DGCRLは実験で実証されている。
匿名のコードリポジトリは、https://anonymous.4open.science/r/GCN-MPPR-AFD6/で入手できる。
関連論文リスト
- Statistical physics analysis of graph neural networks: Approaching optimality in the contextual stochastic block model [0.0]
グラフニューラルネットワーク(GNN)は、グラフに関連するデータを処理するように設計されている。
GNNは、繰り返し集約ステップによって遠く離れたノードから情報を集めるのに苦労する可能性がある。
我々は,GCNのアーキテクチャが過度なスムーシングを避けるために,深さとともにスケールしなければならないことを示す。
論文 参考訳(メタデータ) (2025-03-03T09:55:10Z) - FIT-GNN: Faster Inference Time for GNNs that 'FIT' in Memory Using Coarsening [1.1345413192078595]
本稿では,グラフ粗化を用いた推論フェーズにおける計算負担を軽減することにより,グラフニューラルネットワーク(GNN)のスケーラビリティを向上させる新しい手法を提案する。
本研究は,グラフ分類やグラフ回帰を含むグラフレベルのタスクに対するグラフ粗化の適用を拡大する。
その結果,提案手法は従来の手法に比べて単一ノード推定時間において桁違いに改善されていることがわかった。
論文 参考訳(メタデータ) (2024-10-19T06:27:24Z) - Revisiting Heterophily For Graph Neural Networks [42.41238892727136]
グラフニューラルネットワーク(GNN)は、関係帰納バイアスに基づくグラフ構造を用いて基本ニューラルネットワーク(NN)を拡張する(ホモフィリー仮定)
最近の研究は、NNと比較してパフォーマンスが不十分な、非自明なデータセットのセットを特定している。
論文 参考訳(メタデータ) (2022-10-14T08:00:26Z) - ResNorm: Tackling Long-tailed Degree Distribution Issue in Graph Neural
Networks via Normalization [80.90206641975375]
本稿では,正規化によるGNNの性能向上に焦点をあてる。
グラフ中のノード次数の長期分布を調べることにより、GNNの新しい正規化法を提案する。
ResNormの$scale$操作は、尾ノードの精度を向上させるために、ノード単位の標準偏差(NStd)分布を再設定する。
論文 参考訳(メタデータ) (2022-06-16T13:49:09Z) - Boosting Graph Neural Networks by Injecting Pooling in Message Passing [4.952681349410351]
オーバースムーシングを防止するために,新しい,適応可能な,強力なMPフレームワークを提案する。
我々の両側MPは、ノードのクラス情報を利用して、ペアワイズなモジュラー勾配を推定する。
5つの中規模ベンチマークデータセットの実験から、二値MPは過度なスムーシングを緩和することで性能を向上させることが示されている。
論文 参考訳(メタデータ) (2022-02-08T08:21:20Z) - Contrastive Adaptive Propagation Graph Neural Networks for Efficient
Graph Learning [65.08818785032719]
グラフネットワーク(GNN)は、構造認識特徴の抽出と伝播によってグラフデータの処理に成功している。
近年,地域と高階の双方からなる拡張された隣人を直接扱えるように,近隣住民に焦点を絞った局所的伝播計画から拡張的伝播計画へと発展してきた。
優れた性能にもかかわらず、既存のアプローチは、局所的および高次隣人の影響を適応的に調整できる効率的で学習可能な拡張伝搬スキームを構築するのにはまだ不十分である。
論文 参考訳(メタデータ) (2021-12-02T10:35:33Z) - Tackling Over-Smoothing for General Graph Convolutional Networks [88.71154017107257]
一般的なGCNは、GCN, GCN with bias, ResGCN, APPNPを含む深度の増加とともにどのように振る舞うかを検討する。
そこで我々はDropEdgeを提案し,各トレーニングエポックにおいて一定数のエッジをランダムに除去することで過度なスムース化を緩和する。
論文 参考訳(メタデータ) (2020-08-22T16:14:01Z) - DeeperGCN: All You Need to Train Deeper GCNs [66.64739331859226]
グラフ畳み込みネットワーク(GCN)はグラフ上での表現学習の力で注目されている。
非常に深いレイヤを積み重ねることのできる畳み込みニューラルネットワーク(CNN)とは異なり、GCNはより深く進むと、勾配の消失、過度なスムース化、過度に適合する問題に悩まされる。
本稿では,非常に深いGCNを正常かつ確実に訓練できるDeeperGCNを提案する。
論文 参考訳(メタデータ) (2020-06-13T23:00:22Z) - Understanding and Resolving Performance Degradation in Graph
Convolutional Networks [105.14867349802898]
グラフ畳み込みネットワーク(GCN)は複数のレイヤを積み重ね、グラフ構造化データ上でノード表現を学習するためのPROPとTRANを実行する。
GCNはモデルが深くなるとパフォーマンスが低下する傾向がある。
本稿では,TRANやPROPのみを積み重ねることによるGCNの性能劣化について実験的に検討する。
論文 参考訳(メタデータ) (2020-06-12T12:12:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。