論文の概要: Uniting Heterogeneity, Inductiveness, and Efficiency for Graph
Representation Learning
- arxiv url: http://arxiv.org/abs/2104.01711v1
- Date: Sun, 4 Apr 2021 23:31:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 14:19:08.582458
- Title: Uniting Heterogeneity, Inductiveness, and Efficiency for Graph
Representation Learning
- Title(参考訳): グラフ表現学習における不均一性,帰納性,効率性の統合
- Authors: Tong Chen, Hongzhi Yin, Jie Ren, Zi Huang, Xiangliang Zhang, Hao Wang
- Abstract要約: グラフニューラルネットワーク(GNN)は,グラフ上のノード表現学習の性能を大幅に向上させた。
GNNの過半数クラスは均質グラフのためにのみ設計されており、より有益な異種グラフに劣る適応性をもたらす。
本稿では,低次ノードと高次ノードの両方のエッジに付随するヘテロジニアスなノード特徴をパッケージ化する,新しい帰納的メタパスフリーメッセージパッシング方式を提案する。
- 参考スコア(独自算出の注目度): 68.97378785686723
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the ubiquitous graph-structured data in various applications, models
that can learn compact but expressive vector representations of nodes have
become highly desirable. Recently, bearing the message passing paradigm, graph
neural networks (GNNs) have greatly advanced the performance of node
representation learning on graphs. However, a majority class of GNNs are only
designed for homogeneous graphs, leading to inferior adaptivity to the more
informative heterogeneous graphs with various types of nodes and edges. Also,
despite the necessity of inductively producing representations for completely
new nodes (e.g., in streaming scenarios), few heterogeneous GNNs can bypass the
transductive learning scheme where all nodes must be known during training.
Furthermore, the training efficiency of most heterogeneous GNNs has been
hindered by their sophisticated designs for extracting the semantics associated
with each meta path or relation. In this paper, we propose WIde and DEep
message passing Network (WIDEN) to cope with the aforementioned problems about
heterogeneity, inductiveness, and efficiency that are rarely investigated
together in graph representation learning. In WIDEN, we propose a novel
inductive, meta path-free message passing scheme that packs up heterogeneous
node features with their associated edges from both low- and high-order
neighbor nodes. To further improve the training efficiency, we innovatively
present an active downsampling strategy that drops unimportant neighbor nodes
to facilitate faster information propagation. Experiments on three real-world
heterogeneous graphs have further validated the efficacy of WIDEN on both
transductive and inductive node representation learning, as well as the
superior training efficiency against state-of-the-art baselines.
- Abstract(参考訳): 様々なアプリケーションにおけるユビキタスグラフ構造化データにより、コンパクトだが表現力のあるベクトル表現を学習できるモデルは、非常に望ましいものとなっている。
近年,メッセージパッシングパラダイムを取り入れたグラフニューラルネットワーク(GNN)は,グラフ上でのノード表現学習の性能を大幅に向上させた。
しかし、GNNの大多数のクラスは均質グラフのためにのみ設計されており、様々な種類のノードとエッジを持つより情報に富む不均一グラフへの適応性が劣る。
また、完全に新しいノード(例えばストリーミングシナリオ)を誘導的に表現する必要性にもかかわらず、トレーニング中にすべてのノードを知っていなければならないトランスダクティブ学習スキームをバイパスできる異種GNNは少ない。
さらに、多くの異種GNNの訓練効率は、メタパスや関係に関連する意味を抽出するための洗練された設計によって妨げられている。
本稿では,不均一性,帰納性,効率性といった,グラフ表現学習においてほとんど研究されない問題に対処するために,WIde と DEEP メッセージパッシングネットワーク (WIDEN) を提案する。
widenでは、低次と高次の両方の隣接ノードから、異種ノードの機能を関連するエッジにまとめる、新しい帰納的、メタパスフリーメッセージパッシングスキームを提案する。
学習効率をさらに向上させるために,重要でない隣接ノードを落として情報伝達を高速化するアクティブダウンサンプリング戦略を革新的に提示する。
3つの実世界の異種グラフの実験は、トランスダクティブおよびインダクティブノード表現学習におけるWIDENの有効性と、最先端のベースラインに対する優れたトレーニング効率を更に検証した。
関連論文リスト
- Learn from Heterophily: Heterophilous Information-enhanced Graph Neural Network [4.078409998614025]
論理的に異なるラベルを持つノードは意味論的意味に基づいて接続される傾向があるが、グラフニューラルネットワーク(GNN)は、しばしば最適以下の性能を示す。
ヘテロフィリーに固有の意味情報をグラフ学習において効果的に活用できることを示す。
ノード分布を利用して異種情報を統合する新しいグラフ構造を構築する革新的な手法であるHiGNNを提案する。
論文 参考訳(メタデータ) (2024-03-26T03:29:42Z) - GraphRARE: Reinforcement Learning Enhanced Graph Neural Network with Relative Entropy [21.553180564868306]
GraphRAREはノード相対エントロピーと深層強化学習に基づいて構築されたフレームワークである。
革新的なノード相対エントロピーは、ノードペア間の相互情報を測定するために使用される。
グラフトポロジを最適化するために,深層強化学習に基づくアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-15T11:30:18Z) - Breaking the Entanglement of Homophily and Heterophily in
Semi-supervised Node Classification [25.831508778029097]
統計的観点から,ノードプロファイルとトポロジの関係を定量化するAMUDを提案する。
また、AMUDのための新しい有向グラフ学習パラダイムとしてADPAを提案する。
論文 参考訳(メタデータ) (2023-12-07T07:54:11Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Graph Condensation for Inductive Node Representation Learning [59.76374128436873]
マッピング対応グラフ凝縮法(MCond)を提案する。
MCondは、帰納的表現学習のための合成グラフに新しいノードを統合する。
Redditデータセットでは、最大121.5倍の推論スピードアップと55.9倍のストレージ要求の削減を実現している。
論文 参考訳(メタデータ) (2023-07-29T12:11:14Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。