論文の概要: SGCL: Unifying Self-Supervised and Supervised Learning for Graph Recommendation
- arxiv url: http://arxiv.org/abs/2507.13336v1
- Date: Thu, 17 Jul 2025 17:53:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.610121
- Title: SGCL: Unifying Self-Supervised and Supervised Learning for Graph Recommendation
- Title(参考訳): SGCL: グラフレコメンデーションのための自己監督型と教師付き学習の統合
- Authors: Weizhi Zhang, Liangwei Yang, Zihe Song, Henrry Peng Zou, Ke Xu, Yuanjie Zhu, Philip S. Yu,
- Abstract要約: 自己教師付きグラフ学習は,2部グラフの教師なし拡張による高次協調フィルタリング信号の活用を目指す。
分離設計では、追加のグラフ畳み込みプロセスを導入し、勾配方向の不整合を生成する。
本研究では,教師付きグラフコントラスト学習の統一フレームワークを推薦のために導入する。
- 参考スコア(独自算出の注目度): 34.93725892725111
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recommender systems (RecSys) are essential for online platforms, providing personalized suggestions to users within a vast sea of information. Self-supervised graph learning seeks to harness high-order collaborative filtering signals through unsupervised augmentation on the user-item bipartite graph, primarily leveraging a multi-task learning framework that includes both supervised recommendation loss and self-supervised contrastive loss. However, this separate design introduces additional graph convolution processes and creates inconsistencies in gradient directions due to disparate losses, resulting in prolonged training times and sub-optimal performance. In this study, we introduce a unified framework of Supervised Graph Contrastive Learning for recommendation (SGCL) to address these issues. SGCL uniquely combines the training of recommendation and unsupervised contrastive losses into a cohesive supervised contrastive learning loss, aligning both tasks within a single optimization direction for exceptionally fast training. Extensive experiments on three real-world datasets show that SGCL outperforms state-of-the-art methods, achieving superior accuracy and efficiency.
- Abstract(参考訳): オンラインプラットフォームにはレコメンダシステム(RecSys)が不可欠である。
自己教師付きグラフ学習は、主に教師付きレコメンデーション損失と自己教師付きコントラスト損失の両方を含むマルチタスク学習フレームワークを活用して、教師なし2部グラフの非教師付き拡張を通じて、高階の協調フィルタリング信号を活用することを目指している。
しかし、この分離された設計はグラフ畳み込みプロセスを導入し、異なる損失による勾配方向の不整合を生じさせ、長い訓練時間と準最適性能をもたらす。
本研究では,これらの問題に対処するために,SGCL(Supervised Graph Contrastive Learning for recommendation)の統一フレームワークを導入する。
SGCLは、リコメンデーションのトレーニングと教師なしのコントラストの損失を結合性のある教師付きコントラストの学習損失に一意に組み合わせ、例外的に高速なトレーニングのために、両方のタスクを単一の最適化方向に整列させる。
3つの実世界のデータセットに対する大規模な実験により、SGCLは最先端の手法よりも優れ、精度と効率が優れていることが示された。
関連論文リスト
- TwinCL: A Twin Graph Contrastive Learning Model for Collaborative Filtering [20.26347686022996]
本研究では,従来の拡張手法の冗長性を実証し,ランダム拡張の代わりにツインエンコーダを導入する。
提案したTwin Graph Contrastive Learningモデル -- TwinCL -- は、ユーザとアイテムの埋め込みとツインエンコーダからの表現の正のペアを調整する。
理論的解析と実験結果から,提案モデルが推薦精度の向上と学習効率の向上に寄与することが示された。
論文 参考訳(メタデータ) (2024-09-27T22:31:08Z) - Dual Adversarial Perturbators Generate rich Views for Recommendation [16.284670207195056]
AvoGCLは、グラフ構造に逆行訓練を適用し、摂動を埋め込むことでカリキュラム学習をエミュレートする。
3つの実世界のデータセットの実験では、AvoGCLが最先端の競合より大幅に優れていることが示されている。
論文 参考訳(メタデータ) (2024-08-26T15:19:35Z) - Towards Robust Recommendation via Decision Boundary-aware Graph Contrastive Learning [25.514007761856632]
グラフコントラスト学習(GCL)は、データ間隔によるバイアスの低減効果により、レコメンデータシステムにおいて注目を集めている。
これらの手法は, 動的学習過程における意味的不変性と難易度とのバランスをとるのに苦慮していると論じる。
本稿では,モデル能力の進化に伴い,コントラッシブペアのセマンティック不変性を効果的に維持し,動的に適応する新しいGCLベースのレコメンデーションフレームワークRGCLを提案する。
論文 参考訳(メタデータ) (2024-07-14T13:03:35Z) - Mixed Supervised Graph Contrastive Learning for Recommendation [34.93725892725111]
これらの問題に対処するために、MixSGCL (MixSGCL) を用いたグラフコントラスト学習を提案する。
3つの実世界のデータセットの実験では、MixSGCLが最先端の手法を超越し、精度と効率の両方で最高のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2024-04-24T16:19:11Z) - Structure-Aware Group Discrimination with Adaptive-View Graph Encoder: A
Fast Graph Contrastive Learning Framework [18.744939223003673]
本稿では、フォワードパスを高速化するために、限られた数のメッセージパスを持つ適応ビューグラフニューラルエンコーダ(AVGE)を提案する。
提案するフレームワークにより、ダウンストリームタスクのパフォーマンスを損なうことなく、大規模データセットのトレーニングと推論コストを、かなりのマージン(250倍高速な推論時間)で抑えることができる。
論文 参考訳(メタデータ) (2023-03-09T13:13:43Z) - Adversarial Learning Data Augmentation for Graph Contrastive Learning in
Recommendation [56.10351068286499]
グラフコントラスト学習のための学習可能なデータ拡張法(LDA-GCL)を提案する。
提案手法は,InfoMin と InfoMax の原則に従うデータ強化学習とグラフコントラスト学習を含む。
本手法は,データ拡張とユーザやアイテムの効果的な表現を学習するために,対向損失関数を最適化する。
論文 参考訳(メタデータ) (2023-02-05T06:55:51Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Diversified Multiscale Graph Learning with Graph Self-Correction [55.43696999424127]
2つのコア成分を組み込んだ多次元グラフ学習モデルを提案します。
情報埋め込みグラフを生成するグラフ自己補正(GSC)機構、および入力グラフの包括的な特性評価を達成するために多様性ブースト正規化(DBR)。
一般的なグラフ分類ベンチマークの実験は、提案されたGSCメカニズムが最先端のグラフプーリング方法よりも大幅に改善されることを示しています。
論文 参考訳(メタデータ) (2021-03-17T16:22:24Z) - Iterative Graph Self-Distillation [161.04351580382078]
我々は、IGSD(Iterative Graph Self-Distillation)と呼ばれる新しい教師なしグラフ学習パラダイムを提案する。
IGSDは、グラフ拡張による教師/学生の蒸留を反復的に行う。
我々は,教師なしと半教師なしの両方の設定において,さまざまなグラフデータセットに対して,有意かつ一貫したパフォーマンス向上を実現していることを示す。
論文 参考訳(メタデータ) (2020-10-23T18:37:06Z) - Self-supervised Graph Learning for Recommendation [69.98671289138694]
ユーザ・イテムグラフを用いた自己教師型学習を推奨する。
補助的自己監督タスクは、自己識別によるノード表現学習を強化する。
3つのベンチマークデータセットに関する実証的研究は、SGLの有効性を示す。
論文 参考訳(メタデータ) (2020-10-21T06:35:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。