論文の概要: Less is More: Towards Simple Graph Contrastive Learning
- arxiv url: http://arxiv.org/abs/2509.25742v1
- Date: Tue, 30 Sep 2025 03:56:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:45:00.009093
- Title: Less is More: Towards Simple Graph Contrastive Learning
- Title(参考訳): より少ないもの - シンプルなグラフコントラスト学習を目指して
- Authors: Yanan Zhao, Feng Ji, Jingyang Dai, Jiaze Ma, Wee Peng Tay,
- Abstract要約: グラフコントラスト学習(GCL)は教師なしグラフ表現学習に対して強い期待を示しているが、ヘテロ親和性グラフに対する効果は限定的である。
既存の手法の多くは、複雑な拡張スキーム、複雑なエンコーダ、あるいは負のサンプリングに依存している。
グラフトポロジから構造的特徴を集約することでノード特徴雑音を緩和する。
- 参考スコア(独自算出の注目度): 28.21633108265473
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Contrastive Learning (GCL) has shown strong promise for unsupervised graph representation learning, yet its effectiveness on heterophilic graphs, where connected nodes often belong to different classes, remains limited. Most existing methods rely on complex augmentation schemes, intricate encoders, or negative sampling, which raises the question of whether such complexity is truly necessary in this challenging setting. In this work, we revisit the foundations of supervised and unsupervised learning on graphs and uncover a simple yet effective principle for GCL: mitigating node feature noise by aggregating it with structural features derived from the graph topology. This observation suggests that the original node features and the graph structure naturally provide two complementary views for contrastive learning. Building on this insight, we propose an embarrassingly simple GCL model that uses a GCN encoder to capture structural features and an MLP encoder to isolate node feature noise. Our design requires neither data augmentation nor negative sampling, yet achieves state-of-the-art results on heterophilic benchmarks with minimal computational and memory overhead, while also offering advantages in homophilic graphs in terms of complexity, scalability, and robustness. We provide theoretical justification for our approach and validate its effectiveness through extensive experiments, including robustness evaluations against both black-box and white-box adversarial attacks.
- Abstract(参考訳): グラフコントラスト学習(GCL)は、教師なしグラフ表現学習の強い可能性を示しているが、連結ノードがしばしば異なるクラスに属するヘテロ親和性グラフに対する効果は、依然として限定的である。
既存の手法の多くは、複雑な拡張スキーム、複雑なエンコーダ、あるいは負のサンプリングに依存しており、この困難な環境ではそのような複雑さが本当に必要かどうかという疑問を提起している。
本研究では,グラフ上の教師あり教師なし学習の基礎を再考し,GCLのシンプルかつ効果的な原理を明らかにする。
この観察から,元のノードの特徴とグラフ構造が,対照的な学習のための2つの相補的な視点を自然に提供することが示唆された。
この知見に基づいて,GCNエンコーダを用いて構造的特徴を捕捉し,MLPエンコーダを用いてノード特徴雑音を分離する,恥ずかしい単純なGCLモデルを提案する。
我々の設計では、データの増大も、負のサンプリングも必要とせず、計算とメモリのオーバーヘッドが最小限であるヘテロ親和性ベンチマークの最先端結果を達成する一方で、複雑さ、スケーラビリティ、堅牢性の点でホモ親和性グラフの利点を提供する。
我々は,ブラックボックス攻撃とホワイトボックス攻撃の両方に対するロバストネス評価を含む,我々のアプローチの理論的正当性を提供し,その有効性を検証する。
関連論文リスト
- GLANCE: Graph Logic Attention Network with Cluster Enhancement for Heterophilous Graph Representation Learning [47.674647127050186]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習する上で大きな成功を収めている。
本稿では,論理誘導推論,動的グラフ改善,適応クラスタリングを統合し,グラフ表現学習を強化する新しいフレームワークであるGLANCEを提案する。
論文 参考訳(メタデータ) (2025-07-24T15:45:26Z) - Graph Structure Refinement with Energy-based Contrastive Learning [56.957793274727514]
グラフの構造と表現を学習するための生成訓練と識別訓練のジョイントに基づく教師なし手法を提案する。
本稿では,ECL-GSR(Energy-based Contrastive Learning)によるグラフ構造再構成(GSR)フレームワークを提案する。
ECL-GSRは、主要なベースラインに対するサンプルやメモリの少ない高速なトレーニングを実現し、下流タスクの単純さと効率性を強調している。
論文 参考訳(メタデータ) (2024-12-20T04:05:09Z) - LightGCL: Simple Yet Effective Graph Contrastive Learning for
Recommendation [9.181689366185038]
グラフニューラルクラスタリングネットワーク(GNN)は、グラフベースのレコメンデータシステムのための強力な学習手法である。
本稿では,単純なグラフコントラスト学習パラダイムであるLightGCLを提案する。
論文 参考訳(メタデータ) (2023-02-16T10:16:21Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Single-Pass Contrastive Learning Can Work for Both Homophilic and
Heterophilic Graph [60.28340453547902]
グラフコントラッシブ・ラーニング(GCL)技術は通常、コントラッシブ・ロスを構築するために単一のインスタンスに対して2つのフォワードパスを必要とする。
既存のGCLアプローチは、強力なパフォーマンス保証を提供していない。
我々はSingle-Pass Graph Contrastive Learning法(SP-GCL)を実装した。
経験的に、SP-GCLが学んだ機能は、計算オーバーヘッドを著しく少なくして、既存の強いベースラインにマッチまたは性能を向上することができる。
論文 参考訳(メタデータ) (2022-11-20T07:18:56Z) - Structure-Aware Hard Negative Mining for Heterogeneous Graph Contrastive
Learning [21.702342154458623]
本稿では,グラフニューラルネットワーク(GNN)におけるコントラスト学習(CL)について検討する。
まず、メタパスとネットワークスキーマに基づいて複数のセマンティックビューを生成します。
次に、異なるセマンティックビューに対応するノードの埋め込み(陽性)を押して、他の埋め込み(負)を引き離します。
複雑なグラフ構造とGNNの滑らかな性質を考慮し,構造を考慮した強負のマイニング手法を提案する。
論文 参考訳(メタデータ) (2021-08-31T14:44:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。