論文の概要: Simple Graph Contrastive Learning via Fractional-order Neural Diffusion Networks
- arxiv url: http://arxiv.org/abs/2504.16748v2
- Date: Thu, 24 Apr 2025 14:26:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 15:56:33.35232
- Title: Simple Graph Contrastive Learning via Fractional-order Neural Diffusion Networks
- Title(参考訳): フラクショナルオーダーニューラル拡散ネットワークを用いた簡易グラフコントラスト学習
- Authors: Yanan Zhao, Feng Ji, Kai Zhao, Xuhao Li, Qiyu Kang, Wenfei Liang, Yahya Alkhatib, Xingchao Jian, Wee Peng Tay,
- Abstract要約: グラフコントラスト学習(GCL)は、教師なしグラフ表現学習パラダイムとして最近進歩している。
本稿では,グラフニューラル拡散モデルに基づく拡張フリーGCLフレームワークを提案する。
我々のモデルはトレーニングに負のサンプルを必要としないことを実証し、ホモ親和性データセットとヘテロ親和性データセットの両方に適用できることを示した。
- 参考スコア(独自算出の注目度): 24.778889911467438
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Contrastive Learning (GCL) has recently made progress as an unsupervised graph representation learning paradigm. GCL approaches can be categorized into augmentation-based and augmentation-free methods. The former relies on complex data augmentations, while the latter depends on encoders that can generate distinct views of the same input. Both approaches may require negative samples for training. In this paper, we introduce a novel augmentation-free GCL framework based on graph neural diffusion models. Specifically, we utilize learnable encoders governed by Fractional Differential Equations (FDE). Each FDE is characterized by an order parameter of the differential operator. We demonstrate that varying these parameters allows us to produce learnable encoders that generate diverse views, capturing either local or global information, for contrastive learning. Our model does not require negative samples for training and is applicable to both homophilic and heterophilic datasets. We demonstrate its effectiveness across various datasets, achieving state-of-the-art performance.
- Abstract(参考訳): グラフコントラスト学習(GCL)は、教師なしグラフ表現学習パラダイムとして最近進歩している。
GCLアプローチは、拡張ベースおよび拡張フリーメソッドに分類することができる。
前者は複雑なデータ拡張に依存し、後者は同一入力の異なるビューを生成するエンコーダに依存している。
どちらのアプローチもトレーニングには負のサンプルを必要とすることがある。
本稿では,グラフニューラル拡散モデルに基づく拡張自由なGCLフレームワークを提案する。
具体的には、FDE(Frictional Differential Equations)によって制御される学習可能なエンコーダを利用する。
各FDEは、微分演算子の順序パラメータによって特徴づけられる。
これらのパラメータの変動により、学習可能なエンコーダを作成でき、多様なビューを生成し、ローカルまたはグローバルな情報をキャプチャして、対照的な学習を可能にします。
我々のモデルは、トレーニングに負のサンプルを必要としないため、ホモ親和性データセットとヘテロ親和性データセットの両方に適用できる。
さまざまなデータセットにまたがってその有効性を実証し、最先端のパフォーマンスを実現する。
関連論文リスト
- Generative-Enhanced Heterogeneous Graph Contrastive Learning [11.118517297006894]
異種グラフ(HG)は、実世界の複雑な関係をマルチタイプのノードとエッジによって効果的にモデル化することができる。
近年、自己教師型学習にインスパイアされたHGNN(Heterogeneous Graphs Neural Networks)は、下流タスクにデータ拡張とコントラッシブ・ディミネータを活用することで大きな可能性を示している。
本稿では,GHGCL(Generative-Enhanced Heterogeneous Graph Contrastive Learning)を提案する。
論文 参考訳(メタデータ) (2024-04-03T15:31:18Z) - DiffAug: Enhance Unsupervised Contrastive Learning with Domain-Knowledge-Free Diffusion-based Data Augmentation [48.25619775814776]
本稿では,拡散モードに基づく正データ生成を用いた新しい教師なしコントラスト学習手法であるDiffAugを提案する。
DiffAugはセマンティックエンコーダと条件拡散モデルから構成されており、条件拡散モデルはセマンティックエンコーダに条件付された新しい正のサンプルを生成する。
実験的評価により、DiffAugは、DNA配列、視覚、および生体機能データセットのハンドデザインおよびSOTAモデルに基づく拡張手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-09-10T13:28:46Z) - LightGCL: Simple Yet Effective Graph Contrastive Learning for
Recommendation [9.181689366185038]
グラフニューラルクラスタリングネットワーク(GNN)は、グラフベースのレコメンデータシステムのための強力な学習手法である。
本稿では,単純なグラフコントラスト学習パラダイムであるLightGCLを提案する。
論文 参考訳(メタデータ) (2023-02-16T10:16:21Z) - GraphLearner: Graph Node Clustering with Fully Learnable Augmentation [76.63963385662426]
Contrastive Deep Graph Clustering (CDGC)は、異なるクラスタにノードをグループ化するために、コントラスト学習のパワーを活用する。
我々は、GraphLearnerと呼ばれる、完全学習可能な拡張を備えたグラフノードクラスタリングを提案する。
学習可能な拡張器を導入し、CDGCのための高品質でタスク固有の拡張サンプルを生成する。
論文 参考訳(メタデータ) (2022-12-07T10:19:39Z) - ARIEL: Adversarial Graph Contrastive Learning [51.14695794459399]
ARIELは、ノードレベルとグラフレベルの両方の分類タスクにおいて、現在のグラフコントラスト学習法よりも一貫して優れている。
ARIELは敵の攻撃に対してより堅牢である。
論文 参考訳(メタデータ) (2022-08-15T01:24:42Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - Integrating Prior Knowledge in Contrastive Learning with Kernel [4.050766659420731]
我々は、カーネル理論を用いて、(i)事前知識の統合を可能にし、(i)元のInfoNCE損失における負の正の結合を取り除くという、分離均一性(decoupled uniformity)と呼ばれる新しい損失を提案する。
教師なしの環境では、CLは自然画像と医用画像の両方で表現を改善するために生成モデルから恩恵を受けることを実証的に実証する。
論文 参考訳(メタデータ) (2022-06-03T15:43:08Z) - AutoGCL: Automated Graph Contrastive Learning via Learnable View
Generators [22.59182542071303]
本稿では,Automated Graph Contrastive Learning (AutoGCL) という新しいフレームワークを提案する。
AutoGCLは、オート拡張戦略によって編成された学習可能なグラフビュージェネレータのセットを採用している。
半教師付き学習、教師なし学習、移動学習の実験は、グラフの対照的な学習における最先端技術よりも、我々のフレームワークの優位性を証明している。
論文 参考訳(メタデータ) (2021-09-21T15:34:11Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。