論文の概要: AS-GCL: Asymmetric Spectral Augmentation on Graph Contrastive Learning
- arxiv url: http://arxiv.org/abs/2502.13525v1
- Date: Wed, 19 Feb 2025 08:22:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-20 13:59:25.818014
- Title: AS-GCL: Asymmetric Spectral Augmentation on Graph Contrastive Learning
- Title(参考訳): AS-GCL:グラフコントラスト学習における非対称スペクトル拡張
- Authors: Ruyue Liu, Rong Yin, Yong Liu, Xiaoshuai Hao, Haichao Shi, Can Ma, Weiping Wang,
- Abstract要約: グラフ・コントラシブ・ラーニング(GCL)は,グラフ構造化データの自己教師型学習における最前線として登場した。
グラフのコントラスト学習に非対称スペクトル拡張を取り入れたAS-GCLという新しいパラダイムを提案する。
提案手法は各コンポーネントに大幅な拡張をもたらす。
- 参考スコア(独自算出の注目度): 25.07818336162072
- License:
- Abstract: Graph Contrastive Learning (GCL) has emerged as the foremost approach for self-supervised learning on graph-structured data. GCL reduces reliance on labeled data by learning robust representations from various augmented views. However, existing GCL methods typically depend on consistent stochastic augmentations, which overlook their impact on the intrinsic structure of the spectral domain, thereby limiting the model's ability to generalize effectively. To address these limitations, we propose a novel paradigm called AS-GCL that incorporates asymmetric spectral augmentation for graph contrastive learning. A typical GCL framework consists of three key components: graph data augmentation, view encoding, and contrastive loss. Our method introduces significant enhancements to each of these components. Specifically, for data augmentation, we apply spectral-based augmentation to minimize spectral variations, strengthen structural invariance, and reduce noise. With respect to encoding, we employ parameter-sharing encoders with distinct diffusion operators to generate diverse, noise-resistant graph views. For contrastive loss, we introduce an upper-bound loss function that promotes generalization by maintaining a balanced distribution of intra- and inter-class distance. To our knowledge, we are the first to encode augmentation views of the spectral domain using asymmetric encoders. Extensive experiments on eight benchmark datasets across various node-level tasks demonstrate the advantages of the proposed method.
- Abstract(参考訳): グラフ・コントラシブ・ラーニング(GCL)は,グラフ構造化データの自己教師型学習における最前線として登場した。
GCLは、様々な拡張ビューから堅牢な表現を学習することで、ラベル付きデータへの依存を減らす。
しかし、既存のGCL法は一般に一貫した確率的拡張に依存し、スペクトル領域の固有構造への影響を見落とし、モデルが効果的に一般化する能力を制限する。
これらの制約に対処するため、グラフのコントラスト学習に非対称スペクトル拡張を取り入れたAS-GCLという新しいパラダイムを提案する。
典型的なGCLフレームワークは、グラフデータ拡張、ビューエンコーディング、コントラスト損失の3つの重要なコンポーネントで構成されている。
提案手法は各コンポーネントに大幅な拡張をもたらす。
具体的には、データ拡張のためにスペクトルベースの拡張を適用し、スペクトルの変動を最小限に抑え、構造的不変性を強化し、ノイズを低減する。
符号化に関しては、異なる拡散演算子を持つパラメータ共有エンコーダを用いて、多種多様な耐雑音グラフビューを生成する。
対照的に,クラス内距離とクラス間距離のバランスの取れた分布を維持することにより,一般化を促進する上界損失関数を導入する。
我々の知る限りでは、非対称エンコーダを用いてスペクトル領域の拡張ビューをエンコードするのは初めてである。
ノードレベルのタスクにまたがる8つのベンチマークデータセットの大規模な実験により,提案手法の利点が示された。
関連論文リスト
- Graph Structure Refinement with Energy-based Contrastive Learning [56.957793274727514]
グラフの構造と表現を学習するための生成訓練と識別訓練のジョイントに基づく教師なし手法を提案する。
本稿では,ECL-GSR(Energy-based Contrastive Learning)によるグラフ構造再構成(GSR)フレームワークを提案する。
ECL-GSRは、主要なベースラインに対するサンプルやメモリの少ない高速なトレーニングを実現し、下流タスクの単純さと効率性を強調している。
論文 参考訳(メタデータ) (2024-12-20T04:05:09Z) - Revisiting Self-Supervised Heterogeneous Graph Learning from Spectral Clustering Perspective [52.662463893268225]
自己教師付きヘテロジニアスグラフ学習(SHGL)は様々なシナリオにおいて有望な可能性を示している。
既存のSHGLメソッドには2つの大きな制限がある。
ランクと二重整合性制約によって強化された新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2024-12-01T09:33:20Z) - SpeGCL: Self-supervised Graph Spectrum Contrastive Learning without Positive Samples [44.315865532262876]
グラフコントラスト学習(GCL)は、入力データのノイズやゆらぎの管理に優れており、様々な分野で人気がある。
既存のGCL法は主にノードの特徴表現の時間領域(低周波情報)に焦点を当てている。
正のサンプルを持たない新しいスペクトルGCLフレームワークSpeGCLを提案する。
論文 参考訳(メタデータ) (2024-10-14T10:39:38Z) - Hodge-Aware Contrastive Learning [101.56637264703058]
単純コンプレックスは、マルチウェイ依存によるデータのモデリングに有効である。
我々は、単純なデータを処理するための対照的な自己教師付き学習手法を開発した。
論文 参考訳(メタデータ) (2023-09-14T00:40:07Z) - LightGCL: Simple Yet Effective Graph Contrastive Learning for
Recommendation [9.181689366185038]
グラフニューラルクラスタリングネットワーク(GNN)は、グラフベースのレコメンデータシステムのための強力な学習手法である。
本稿では,単純なグラフコントラスト学習パラダイムであるLightGCLを提案する。
論文 参考訳(メタデータ) (2023-02-16T10:16:21Z) - MA-GCL: Model Augmentation Tricks for Graph Contrastive Learning [41.963242524220654]
グラフコントラスト学習(GCL)のための3つの簡易実装モデル拡張手法を提案する。
具体的には,GCLに対して,非対称,ランダム,シャッフルという,実装が容易なモデル拡張トリックを3つ提示する。
実験の結果,MA-GCLはノード分類ベンチマークで最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2022-12-14T05:04:10Z) - Spectral Feature Augmentation for Graph Contrastive Learning and Beyond [64.78221638149276]
グラフ(および画像)におけるコントラスト学習のための新しいスペクトル特徴論法を提案する。
各データビューに対して,特徴写像毎の低ランク近似を推定し,その近似を地図から抽出して補数を求める。
これは、2つの価値ある副産物(単に1つまたは2つのイテレーション)を楽しむ非標準パワーレジームである、ここで提案された不完全パワーイテレーションによって達成される。
グラフ/画像データセットの実験では、スペクトルフィーチャの増大がベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-02T08:48:11Z) - Revisiting Graph Contrastive Learning from the Perspective of Graph
Spectrum [91.06367395889514]
グラフ拡張によるノード表現の学習には,GCL(Graph Contrastive Learning)が注目されている。
GCLとグラフスペクトルの関連性を確立することで,これらの疑問に答える。
汎用かつGCLフレンドリなプラグインであるスペクトルグラフコントラスト学習モジュール(SpCo)を提案する。
論文 参考訳(メタデータ) (2022-10-05T15:32:00Z) - Spectral Augmentation for Self-Supervised Learning on Graphs [43.19199994575821]
グラフコントラスト学習(GCL)は、インスタンス識別を通じて表現を学習することを目的としている。
これは、小さな摂動に対して堅牢な不変パターンを反映するためにグラフ拡張に依存する。
最近の研究は、空間領域における一様ランダムなトポロジー拡張を主に実施している。
スペクトル変化を最大化することによりトポロジ拡張を導出するスペクトル拡張を開発する。
論文 参考訳(メタデータ) (2022-10-02T22:20:07Z) - Let Invariant Rationale Discovery Inspire Graph Contrastive Learning [98.10268114789775]
ハイパフォーマンスな拡張は、インスタンス識別に関するアンカーグラフの健全な意味を保存すべきである。
新たなフレームワーク Rationale-aware Graph Contrastive Learning (RGCL) を提案する。
RGCLは有理数生成器を使用して、グラフのインスタンス識別に関する健全な特徴を論理として明らかにし、対照的な学習のための有理数認識ビューを生成する。
論文 参考訳(メタデータ) (2022-06-16T01:28:40Z) - Augmentation-Free Graph Contrastive Learning [16.471928573824854]
グラフコントラッシブ・ラーニング(GCL)は、グラフ構造化データに対する最も代表的で一般的な自己教師付き学習手法である。
既存のGCLメソッドは、様々な拡張ビューで不変な表現を学習するための拡張スキームに依存している。
AF-GCLは,グラフニューラルネットワークによって集約された特徴を利用して,拡張ではなく自己超越信号を構築する。
論文 参考訳(メタデータ) (2022-04-11T05:37:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。