論文の概要: H$^3$GNNs: Harmonizing Heterophily and Homophily in GNNs via Joint Structural Node Encoding and Self-Supervised Learning
- arxiv url: http://arxiv.org/abs/2504.11699v1
- Date: Wed, 16 Apr 2025 01:51:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 14:38:26.875197
- Title: H$^3$GNNs: Harmonizing Heterophily and Homophily in GNNs via Joint Structural Node Encoding and Self-Supervised Learning
- Title(参考訳): H$3$GNNs:統合構造ノードエンコーディングと自己監督学習によるGNNにおけるヘテロフィリとホモフィリの調和
- Authors: Rui Xue, Tianfu Wu,
- Abstract要約: グラフニューラルネットワーク(GNN)は、表現学習においてヘテロフィリとホモフィリのバランスをとるのに苦労する。
両構造特性を調和させるエンドツーエンドの自己教師型学習フレームワークであるH$3$GNNを提案する。
クロスアテンション機構は、ヘテロフィリーおよびホモフィリーに対する認識と適応性を高める。
- 参考スコア(独自算出の注目度): 8.838408139306825
- License:
- Abstract: Graph Neural Networks (GNNs) struggle to balance heterophily and homophily in representation learning, a challenge further amplified in self-supervised settings. We propose H$^3$GNNs, an end-to-end self-supervised learning framework that harmonizes both structural properties through two key innovations: (i) Joint Structural Node Encoding. We embed nodes into a unified space combining linear and non-linear feature projections with K-hop structural representations via a Weighted Graph Convolution Network(WGCN). A cross-attention mechanism enhances awareness and adaptability to heterophily and homophily. (ii) Self-Supervised Learning Using Teacher-Student Predictive Architectures with Node-Difficulty Driven Dynamic Masking Strategies. We use a teacher-student model, the student sees the masked input graph and predicts node features inferred by the teacher that sees the full input graph in the joint encoding space. To enhance learning difficulty, we introduce two novel node-predictive-difficulty-based masking strategies. Experiments on seven benchmarks (four heterophily datasets and three homophily datasets) confirm the effectiveness and efficiency of H$^3$GNNs across diverse graph types. Our H$^3$GNNs achieves overall state-of-the-art performance on the four heterophily datasets, while retaining on-par performance to previous state-of-the-art methods on the three homophily datasets.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、表現学習においてヘテロフィリとホモフィリのバランスをとるのに苦労している。
H$^3$GNNsは,2つの重要なイノベーションを通じて両構造特性を調和させる,エンドツーエンドの自己教師型学習フレームワークである。
i) 共同構造ノードの符号化
重み付きグラフ畳み込みネットワーク(WGCN)を介して、線形および非線形特徴投影とKホップ構造表現を組み合わせた統一空間にノードを埋め込む。
クロスアテンション機構は、ヘテロフィリーおよびホモフィリーに対する認識と適応性を高める。
(II)Node-difficulty Driven Dynamic Masking Strategiesを用いた教師学習型予測アーキテクチャによる自己指導型学習
教師-学生モデルを用いて、学生はマスクされた入力グラフを見て、教師が推論したノードの特徴を予測し、その全入力グラフを共同符号化空間で見る。
学習の難しさを高めるために,2つの新しいノード予測型マスキング手法を導入する。
7つのベンチマーク(4つのヘテロフィリーデータセットと3つのホモフィリーデータセット)の実験により、多様なグラフタイプにわたるH$3$GNNの有効性と効率が確認された。
我々のH$3$GNNは4つのヘテロフィリデータセット上での最先端性能を総合的に達成し、3つのホモフィリデータセット上での従来の最先端手法と同等性能を維持する。
関連論文リスト
- When Heterophily Meets Heterogeneous Graphs: Latent Graphs Guided Unsupervised Representation Learning [6.2167203720326025]
非教師付きヘテロジニアスグラフ表現学習(UHGRL)は,ラベルのない実用的なグラフを扱うことの重要性から注目されている。
我々はセマンティックなヘテロフィリーを定義し、この問題に対処するためにLatGRL(Latent Graphs Guided Unsupervised Representation Learning)と呼ばれる革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-01T10:25:06Z) - Learn from Heterophily: Heterophilous Information-enhanced Graph Neural Network [4.078409998614025]
論理的に異なるラベルを持つノードは意味論的意味に基づいて接続される傾向があるが、グラフニューラルネットワーク(GNN)は、しばしば最適以下の性能を示す。
ヘテロフィリーに固有の意味情報をグラフ学習において効果的に活用できることを示す。
ノード分布を利用して異種情報を統合する新しいグラフ構造を構築する革新的な手法であるHiGNNを提案する。
論文 参考訳(メタデータ) (2024-03-26T03:29:42Z) - Self-Attention Empowered Graph Convolutional Network for Structure
Learning and Node Embedding [5.164875580197953]
グラフ構造化データの表現学習では、多くの人気のあるグラフニューラルネットワーク(GNN)が長距離依存をキャプチャできない。
本稿では,自己注意型グラフ畳み込みネットワーク(GCN-SA)と呼ばれる新しいグラフ学習フレームワークを提案する。
提案手法はノードレベルの表現学習において例外的な一般化能力を示す。
論文 参考訳(メタデータ) (2024-03-06T05:00:31Z) - Breaking the Entanglement of Homophily and Heterophily in
Semi-supervised Node Classification [25.831508778029097]
統計的観点から,ノードプロファイルとトポロジの関係を定量化するAMUDを提案する。
また、AMUDのための新しい有向グラフ学習パラダイムとしてADPAを提案する。
論文 参考訳(メタデータ) (2023-12-07T07:54:11Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Hierarchical Contrastive Learning Enhanced Heterogeneous Graph Neural
Network [59.860534520941485]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、異種情報ネットワーク(HIN)を扱う能力に優れていた。
近年,自己指導型学習は最もエキサイティングな学習パラダイムの1つとなり,ラベルがない場合に大きな可能性を示す。
本稿では,自己教師型HGNNの問題点を考察し,HGNNのための新しいコントラスト学習機構であるHeCoを提案する。
論文 参考訳(メタデータ) (2023-04-24T16:17:21Z) - T2-GNN: Graph Neural Networks for Graphs with Incomplete Features and
Structure via Teacher-Student Distillation [65.43245616105052]
グラフニューラルネットワーク(GNN)は,様々な解析タスクをグラフデータ上で処理する手法として普及している。
本稿では,教師による蒸留に基づく一般GNNフレームワークを提案し,不完全グラフ上でのGNNの性能向上を図る。
論文 参考訳(メタデータ) (2022-12-24T13:49:44Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - Uniting Heterogeneity, Inductiveness, and Efficiency for Graph
Representation Learning [68.97378785686723]
グラフニューラルネットワーク(GNN)は,グラフ上のノード表現学習の性能を大幅に向上させた。
GNNの過半数クラスは均質グラフのためにのみ設計されており、より有益な異種グラフに劣る適応性をもたらす。
本稿では,低次ノードと高次ノードの両方のエッジに付随するヘテロジニアスなノード特徴をパッケージ化する,新しい帰納的メタパスフリーメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2021-04-04T23:31:39Z) - Graph Neural Networks with Heterophily [40.23690407583509]
我々は、ホモフィリーなグラフとヘテロフィリーなグラフのGNNを一般化するCPGNNと呼ばれる新しいフレームワークを提案する。
フレームワークの互換性行列を(純粋なホモフィリーを表す)同一性に置き換えると、GCNに還元されることを示す。
論文 参考訳(メタデータ) (2020-09-28T18:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。