論文の概要: Learning Robust Heterogeneous Graph Representations via Contrastive-Reconstruction under Sparse Semantics
- arxiv url: http://arxiv.org/abs/2506.06682v1
- Date: Sat, 07 Jun 2025 06:35:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.427629
- Title: Learning Robust Heterogeneous Graph Representations via Contrastive-Reconstruction under Sparse Semantics
- Title(参考訳): スパース意味論に基づくコントラスト再構成によるロバスト不均一グラフ表現の学習
- Authors: Di Lin, Wanjing Ren, Xuanbin Li, Rui Zhang,
- Abstract要約: マスケードオートエンコーダ(MAE)とコントラスト学習(CL)はグラフ自己教師学習において2つの重要なパラダイムである。
本稿ではヘテロジニアスグラフのための新しい二チャンネル自己教師型学習フレームワークHetCRFを紹介する。
HetCRFは2段階のアグリゲーション戦略を用いて埋め込みセマンティクスを適応し、MAEとCLの両方と互換性がある。
- 参考スコア(独自算出の注目度): 13.555683316315683
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In graph self-supervised learning, masked autoencoders (MAE) and contrastive learning (CL) are two prominent paradigms. MAE focuses on reconstructing masked elements, while CL maximizes similarity between augmented graph views. Recent studies highlight their complementarity: MAE excels at local feature capture, and CL at global information extraction. Hybrid frameworks for homogeneous graphs have been proposed, but face challenges in designing shared encoders to meet the semantic requirements of both tasks. In semantically sparse scenarios, CL struggles with view construction, and gradient imbalance between positive and negative samples persists. This paper introduces HetCRF, a novel dual-channel self-supervised learning framework for heterogeneous graphs. HetCRF uses a two-stage aggregation strategy to adapt embedding semantics, making it compatible with both MAE and CL. To address semantic sparsity, it enhances encoder output for view construction instead of relying on raw features, improving efficiency. Two positive sample augmentation strategies are also proposed to balance gradient contributions. Node classification experiments on four real-world heterogeneous graph datasets demonstrate that HetCRF outperforms state-of-the-art baselines. On datasets with missing node features, such as Aminer and Freebase, at a 40% label rate in node classification, HetCRF improves the Macro-F1 score by 2.75% and 2.2% respectively compared to the second-best baseline, validating its effectiveness and superiority.
- Abstract(参考訳): グラフ自己教師学習において、マスク付きオートエンコーダ(MAE)とコントラスト学習(CL)は2つの重要なパラダイムである。
MAEはマスクされた要素の再構築に重点を置いており、CLは拡張グラフビューの類似性を最大化している。
MAEは局所的特徴キャプチャで、CLはグローバル情報抽出で優れている。
均質グラフのためのハイブリッドフレームワークが提案されているが、両タスクのセマンティック要件を満たすために共有エンコーダを設計する際の課題に直面している。
意味的に疎いシナリオでは、CLはビュー構築に苦慮し、正と負のサンプル間の勾配不均衡が持続する。
本稿ではヘテロジニアスグラフのための新しい二チャンネル自己教師型学習フレームワークHetCRFを紹介する。
HetCRFは2段階のアグリゲーション戦略を用いて埋め込みセマンティクスを適応し、MAEとCLの両方と互換性がある。
セマンティック・スペシャリティに対処するため、生のフィーチャに頼るのではなく、ビュー構築のためのエンコーダ出力を強化し、効率を向上する。
勾配寄与のバランスをとるために2つの正のサンプル増強戦略も提案されている。
4つの実世界の異種グラフデータセットのノード分類実験は、HetCRFが最先端のベースラインより優れていることを示した。
AminerやFreebaseのようなノード機能を持たないデータセットでは、ノード分類の40%のラベルレートで、HetCRFは第2ベットベースラインと比較してマクロF1スコアを2.75%と2.2%改善し、その有効性と優位性を検証している。
関連論文リスト
- CIMAGE: Exploiting the Conditional Independence in Masked Graph Auto-encoders [3.700463358780727]
条件付き独立性(CI)は本質的に最小冗長性と最大関連基準を満たすが、その適用は通常下流ラベルへのアクセスを必要とする。
CIMAGEは、条件付き独立を利用して、潜伏空間における効果的なマスキング戦略を導出する新しいアプローチである。
我々の理論解析は,CIMAGEの新しいCI対応マスキング手法の優位性をさらに裏付けるものである。
論文 参考訳(メタデータ) (2025-03-10T20:59:27Z) - Graph Structure Refinement with Energy-based Contrastive Learning [56.957793274727514]
グラフの構造と表現を学習するための生成訓練と識別訓練のジョイントに基づく教師なし手法を提案する。
本稿では,ECL-GSR(Energy-based Contrastive Learning)によるグラフ構造再構成(GSR)フレームワークを提案する。
ECL-GSRは、主要なベースラインに対するサンプルやメモリの少ない高速なトレーニングを実現し、下流タスクの単純さと効率性を強調している。
論文 参考訳(メタデータ) (2024-12-20T04:05:09Z) - GRE^2-MDCL: Graph Representation Embedding Enhanced via Multidimensional Contrastive Learning [0.0]
グラフ表現学習は、ノードをベクトル表現にマッピングする際にグラフトポロジを保存する強力なツールとして登場した。
現在のグラフニューラルネットワークモデルは、広範なラベル付きデータを必要とするという課題に直面している。
多次元コントラスト学習によるグラフ表現埋め込みを提案する。
論文 参考訳(メタデータ) (2024-09-12T03:09:05Z) - Rethinking Graph Masked Autoencoders through Alignment and Uniformity [26.86368034133612]
グラフ上の自己教師付き学習は、対照的で生成的な方法に分岐することができる。
グラフマスク付きオートエンコーダ(GraphMAE)の最近の出現は、生成法の背後にあるモーメントを回復させる。
論文 参考訳(メタデータ) (2024-02-11T15:21:08Z) - Generative and Contrastive Paradigms Are Complementary for Graph
Self-Supervised Learning [56.45977379288308]
Masked Autoencoder (MAE)は、マスク付きグラフエッジやノード機能の再構築を学ぶ。
Contrastive Learning (CL)は、同じグラフの拡張ビュー間の類似性を最大化する。
我々は,MAE と CL を統一するグラフコントラッシブマスク付きオートエンコーダ (GCMAE) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-24T05:06:06Z) - GraphLearner: Graph Node Clustering with Fully Learnable Augmentation [76.63963385662426]
Contrastive Deep Graph Clustering (CDGC)は、異なるクラスタにノードをグループ化するために、コントラスト学習のパワーを活用する。
我々は、GraphLearnerと呼ばれる、完全学習可能な拡張を備えたグラフノードクラスタリングを提案する。
学習可能な拡張器を導入し、CDGCのための高品質でタスク固有の拡張サンプルを生成する。
論文 参考訳(メタデータ) (2022-12-07T10:19:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。