論文の概要: Rethinking Node-wise Propagation for Large-scale Graph Learning
- arxiv url: http://arxiv.org/abs/2402.06128v1
- Date: Fri, 9 Feb 2024 01:19:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 18:18:29.371393
- Title: Rethinking Node-wise Propagation for Large-scale Graph Learning
- Title(参考訳): 大規模グラフ学習のためのノード間伝播の再考
- Authors: Xunkai Li, Jingyuan Ma, Zhengyu Wu, Daohan Su, Wentao Zhang, Rong-Hua
Li, Guoren Wang
- Abstract要約: textbfAdaptive textbfTopology-aware textbfPropagation (ATP)
ATPは潜在的な高バイアス伝播を低減し、各ノードの構造パターンをスケーラブルに抽出し、実行効率と予測性能を改善する。
ATPは、半教師付きノード分類のための広範でスケーラブルなGNNの性能を改善するのに効率的であることが証明されている。
- 参考スコア(独自算出の注目度): 42.29535580297932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scalable graph neural networks (GNNs) have emerged as a promising technique,
which exhibits superior predictive performance and high running efficiency
across numerous large-scale graph-based web applications. However, (i) Most
scalable GNNs tend to treat all nodes in graphs with the same propagation
rules, neglecting their topological uniqueness; (ii) Existing node-wise
propagation optimization strategies are insufficient on web-scale graphs with
intricate topology, where a full portrayal of nodes' local properties is
required. Intuitively, different nodes in web-scale graphs possess distinct
topological roles, and therefore propagating them indiscriminately or neglect
local contexts may compromise the quality of node representations. This
intricate topology in web-scale graphs cannot be matched by small-scale
scenarios. To address the above issues, we propose \textbf{A}daptive
\textbf{T}opology-aware \textbf{P}ropagation (ATP), which reduces potential
high-bias propagation and extracts structural patterns of each node in a
scalable manner to improve running efficiency and predictive performance.
Remarkably, ATP is crafted to be a plug-and-play node-wise propagation
optimization strategy, allowing for offline execution independent of the graph
learning process in a new perspective. Therefore, this approach can be
seamlessly integrated into most scalable GNNs while remain orthogonal to
existing node-wise propagation optimization strategies. Extensive experiments
on 12 datasets, including the most representative large-scale ogbn-papers100M,
have demonstrated the effectiveness of ATP. Specifically, ATP has proven to be
efficient in improving the performance of prevalent scalable GNNs for
semi-supervised node classification while addressing redundant computational
costs.
- Abstract(参考訳): スケーラブルグラフニューラルネットワーク(GNN)は,多数の大規模グラフベースのWebアプリケーションに対して,優れた予測性能と高い実行効率を示す,有望なテクニックとして登場した。
しかし、
(i)ほとんどのスケーラブルなGNNは、グラフ内のすべてのノードを同じ伝搬規則で扱い、そのトポロジ的特異性を無視する傾向がある。
(II) ノードの局所特性の完全な表現が必要な複雑なトポロジを持つWebスケールグラフでは,既存のノードワイズ最適化戦略が不十分である。
直感的には、Webスケールグラフの異なるノードは異なるトポロジ的役割を持つので、それらを非差別的に伝播するか、あるいは無視するかは、ノード表現の品質を損なう可能性がある。
このwebスケールグラフの複雑なトポロジーは、小規模のシナリオでは一致しない。
以上の問題に対処するため,我々は,潜在的な高バイアス伝播を低減し,各ノードの構造パターンをスケーラブルに抽出し,実行効率と予測性能を向上させることを目的とした, \textbf{A}daptive \textbf{T}opology-aware \textbf{P}ropagation (ATP)を提案する。
注目すべきは、ATPは、新しい視点でグラフ学習プロセスとは独立してオフライン実行を可能にする、プラグインとプレイのノードワイドな伝搬最適化戦略として設計されていることだ。
したがって、このアプローチは最もスケーラブルなgnnにシームレスに統合でき、既存のノード毎の伝搬最適化戦略と直交する。
大規模なOgbn-papers100Mを含む12のデータセットに対する大規模な実験は、ATPの有効性を実証した。
具体的には、ATPは、冗長な計算コストに対処しながら、半教師付きノード分類のための拡張性のあるGNNの性能を向上させるのに効率的であることが証明されている。
関連論文リスト
- GraphRARE: Reinforcement Learning Enhanced Graph Neural Network with Relative Entropy [21.553180564868306]
GraphRAREはノード相対エントロピーと深層強化学習に基づいて構築されたフレームワークである。
革新的なノード相対エントロピーは、ノードペア間の相互情報を測定するために使用される。
グラフトポロジを最適化するために,深層強化学習に基づくアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-15T11:30:18Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - DAG Matters! GFlowNets Enhanced Explainer For Graph Neural Networks [30.19635147123557]
我々はGFlowNetsベースのGNN Explainer(GFlowExplainer)という生成構造を提案する。
我々のGFlowExplainerは、サブグラフの確率がその報酬に比例するサブグラフの分布を生成するポリシーを学習することを目的としています。
我々は合成データと実データの両方について広範な実験を行い、質的および定量的な結果はGFlowExplainerの優位性を示している。
論文 参考訳(メタデータ) (2023-03-04T16:15:25Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - Uniting Heterogeneity, Inductiveness, and Efficiency for Graph
Representation Learning [68.97378785686723]
グラフニューラルネットワーク(GNN)は,グラフ上のノード表現学習の性能を大幅に向上させた。
GNNの過半数クラスは均質グラフのためにのみ設計されており、より有益な異種グラフに劣る適応性をもたらす。
本稿では,低次ノードと高次ノードの両方のエッジに付随するヘテロジニアスなノード特徴をパッケージ化する,新しい帰納的メタパスフリーメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2021-04-04T23:31:39Z) - Meta-path Free Semi-supervised Learning for Heterogeneous Networks [16.641434334366227]
グラフニューラルネットワーク(GNN)はグラフの表現学習に広く使われており、ノード分類などのタスクにおいて優れたパフォーマンスを実現している。
本稿では,メタパスを除く異種グラフに対して,単純かつ効率的なグラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-18T06:01:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。