論文の概要: Adversarial Learning Data Augmentation for Graph Contrastive Learning in
Recommendation
- arxiv url: http://arxiv.org/abs/2302.02317v1
- Date: Sun, 5 Feb 2023 06:55:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 18:52:46.564036
- Title: Adversarial Learning Data Augmentation for Graph Contrastive Learning in
Recommendation
- Title(参考訳): レコメンデーションにおけるグラフコントラスト学習のためのadversarial learning data augmentation
- Authors: Junjie Huang, Qi Cao, Ruobing Xie, Shaoliang Zhang, Feng Xia, Huawei
Shen, Xueqi Cheng
- Abstract要約: グラフコントラスト学習のための学習可能なデータ拡張法(LDA-GCL)を提案する。
提案手法は,InfoMin と InfoMax の原則に従うデータ強化学習とグラフコントラスト学習を含む。
本手法は,データ拡張とユーザやアイテムの効果的な表現を学習するために,対向損失関数を最適化する。
- 参考スコア(独自算出の注目度): 56.10351068286499
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, Graph Neural Networks (GNNs) achieve remarkable success in
Recommendation. To reduce the influence of data sparsity, Graph Contrastive
Learning (GCL) is adopted in GNN-based CF methods for enhancing performance.
Most GCL methods consist of data augmentation and contrastive loss (e.g.,
InfoNCE). GCL methods construct the contrastive pairs by hand-crafted graph
augmentations and maximize the agreement between different views of the same
node compared to that of other nodes, which is known as the InfoMax principle.
However, improper data augmentation will hinder the performance of GCL. InfoMin
principle, that the good set of views shares minimal information and gives
guidelines to design better data augmentation. In this paper, we first propose
a new data augmentation (i.e., edge-operating including edge-adding and
edge-dropping). Then, guided by InfoMin principle, we propose a novel
theoretical guiding contrastive learning framework, named Learnable Data
Augmentation for Graph Contrastive Learning (LDA-GCL). Our methods include data
augmentation learning and graph contrastive learning, which follow the InfoMin
and InfoMax principles, respectively. In implementation, our methods optimize
the adversarial loss function to learn data augmentation and effective
representations of users and items. Extensive experiments on four public
benchmark datasets demonstrate the effectiveness of LDA-GCL.
- Abstract(参考訳): 近年,グラフニューラルネットワーク (gnns) が推薦の成功をおさめている。
グラフコントラスト学習(GCL)は,データスポーシティの影響を低減するために,GNNベースのCF法で採用されている。
ほとんどのGCLメソッドはデータ拡張とコントラスト損失(InfoNCEなど)で構成されている。
GCL法は、手作りのグラフ拡張によってコントラスト対を構築し、InfoMax原則として知られる他のノードと比較して、同じノードの異なるビュー間の合意を最大化する。
しかし、不適切なデータ拡張はGCLの性能を阻害する。
InfoMin原則では、ビューのよいセットは最小限の情報を共有し、より良いデータ拡張を設計するためのガイドラインを提供する。
本稿ではまず,新しいデータ拡張(エッジ付加とエッジドロップを含むエッジ操作)を提案する。
次に、InfoMinの原理により、Learningable Data Augmentation for Graph Contrastive Learning (LDA-GCL) という、新しい理論的指導型コントラスト学習フレームワークを提案する。
提案手法は,InfoMin と InfoMax の原則に従うデータ強化学習とグラフコントラスト学習を含む。
本手法は,データ拡張とユーザやアイテムの効果的な表現を学習するために,対向損失関数を最適化する。
4つの公開ベンチマークデータセットに対する大規模な実験は、LDA-GCLの有効性を示す。
関連論文リスト
- LightGCL: Simple Yet Effective Graph Contrastive Learning for
Recommendation [9.181689366185038]
グラフニューラルクラスタリングネットワーク(GNN)は、グラフベースのレコメンデータシステムのための強力な学習手法である。
本稿では,単純なグラフコントラスト学習パラダイムであるLightGCLを提案する。
論文 参考訳(メタデータ) (2023-02-16T10:16:21Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Graph Contrastive Learning with Implicit Augmentations [36.57536688367965]
Inlicit Graph Contrastive Learning (iGCL)は、グラフトポロジ構造を再構築することにより、変分グラフオートエンコーダから学習した潜時空間の増大を利用する。
グラフレベルとノードレベルの両方のタスクに対する実験結果から,提案手法が最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-11-07T17:34:07Z) - ARIEL: Adversarial Graph Contrastive Learning [51.14695794459399]
ARIELは、ノードレベルとグラフレベルの両方の分類タスクにおいて、現在のグラフコントラスト学習法よりも一貫して優れている。
ARIELは敵の攻撃に対してより堅牢である。
論文 参考訳(メタデータ) (2022-08-15T01:24:42Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Adversarial Graph Augmentation to Improve Graph Contrastive Learning [21.54343383921459]
本稿では,GNNがトレーニング中に冗長な情報を捕捉することを避けるために,AD-GCL(adversarial-GCL)と呼ばれる新しい原理を提案する。
我々は、AD-GCLを最先端のGCL法と比較し、教師なしで最大$14%、転送で$6%、半教師なしの学習環境で$3%の性能向上を達成した。
論文 参考訳(メタデータ) (2021-06-10T15:34:26Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z) - Iterative Deep Graph Learning for Graph Neural Networks: Better and
Robust Node Embeddings [53.58077686470096]
グラフ構造とグラフ埋め込みを協調的かつ反復的に学習するための、エンドツーエンドのグラフ学習フレームワーク、すなわち、IDGL(Iterative Deep Graph Learning)を提案する。
実験の結果,提案したIDGLモデルは,最先端のベースラインを一貫して上回る,あるいは一致させることができることがわかった。
論文 参考訳(メタデータ) (2020-06-21T19:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。