論文の概要: Mixed Supervised Graph Contrastive Learning for Recommendation
- arxiv url: http://arxiv.org/abs/2404.15954v1
- Date: Wed, 24 Apr 2024 16:19:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 18:51:25.100329
- Title: Mixed Supervised Graph Contrastive Learning for Recommendation
- Title(参考訳): 推薦のための混合教師付きグラフコントラスト学習
- Authors: Weizhi Zhang, Liangwei Yang, Zihe Song, Henry Peng Zou, Ke Xu, Yuanjie Zhu, Philip S. Yu,
- Abstract要約: これらの問題に対処するために、MixSGCL (MixSGCL) を用いたグラフコントラスト学習を提案する。
3つの実世界のデータセットの実験では、MixSGCLが最先端の手法を超越し、精度と効率の両方で最高のパフォーマンスを達成している。
- 参考スコア(独自算出の注目度): 34.93725892725111
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommender systems (RecSys) play a vital role in online platforms, offering users personalized suggestions amidst vast information. Graph contrastive learning aims to learn from high-order collaborative filtering signals with unsupervised augmentation on the user-item bipartite graph, which predominantly relies on the multi-task learning framework involving both the pair-wise recommendation loss and the contrastive loss. This decoupled design can cause inconsistent optimization direction from different losses, which leads to longer convergence time and even sub-optimal performance. Besides, the self-supervised contrastive loss falls short in alleviating the data sparsity issue in RecSys as it learns to differentiate users/items from different views without providing extra supervised collaborative filtering signals during augmentations. In this paper, we propose Mixed Supervised Graph Contrastive Learning for Recommendation (MixSGCL) to address these concerns. MixSGCL originally integrates the training of recommendation and unsupervised contrastive losses into a supervised contrastive learning loss to align the two tasks within one optimization direction. To cope with the data sparsity issue, instead unsupervised augmentation, we further propose node-wise and edge-wise mixup to mine more direct supervised collaborative filtering signals based on existing user-item interactions. Extensive experiments on three real-world datasets demonstrate that MixSGCL surpasses state-of-the-art methods, achieving top performance on both accuracy and efficiency. It validates the effectiveness of MixSGCL with our coupled design on supervised graph contrastive learning.
- Abstract(参考訳): Recommender System(RecSys)は、オンラインプラットフォームにおいて重要な役割を担い、膨大な情報の中でパーソナライズされた提案を提供する。
グラフコントラスト学習は、二部グラフの教師なし強化を伴う高次協調フィルタリング信号から学習することを目的としており、これはペアワイズレコメンデーション損失とコントラストロスの両方を含むマルチタスク学習フレームワークに大きく依存している。
この分離された設計は、異なる損失から不整合最適化方向を引き起こす可能性があるため、収束時間が長くなり、サブ最適性能さえも生じる。
さらに、RecSysは、拡張中に追加の教師付き協調フィルタリング信号を提供することなく、異なるビューからユーザやイテムを区別することを学ぶため、自己監督によるコントラスト損失はRecSysのデータスパシティ問題を緩和するに足らない。
本稿では、これらの問題に対処するために、MixSGCL(Mixed Supervised Graph Contrastive Learning for Recommendation)を提案する。
MixSGCLはもともと、推奨と教師なしのコントラスト損失のトレーニングを教師付きコントラスト学習損失に統合し、2つのタスクを1つの最適化方向に整合させる。
データの分散性問題に対処するため,既存のユーザ・イテム相互作用に基づいて,より直接的な教師付き協調フィルタリング信号のマイニングを行うノードワイド・エッジワイド・ミックスアップを提案する。
3つの実世界のデータセットに対する大規模な実験は、MixSGCLが最先端の手法を超越し、精度と効率の両方で最高のパフォーマンスを達成していることを示している。
教師付きグラフコントラスト学習におけるMixSGCLの有効性を検証する。
関連論文リスト
- Neighborhood-Enhanced Supervised Contrastive Learning for Collaborative
Filtering [23.584619027605203]
協調フィルタリング(CF)技術は、データの分散性の課題に直面している。
コントラスト信号とコントラスト損失を効果的に組み合わせた2つのユニークな教師付きコントラスト損失関数を開発した。
グラフベースの協調フィルタリングモデルをバックボーンとして使用することにより,レコメンデーションモデルの性能を効果的に向上する。
論文 参考訳(メタデータ) (2024-02-18T09:46:51Z) - Gaussian Graph with Prototypical Contrastive Learning in E-Commerce
Bundle Recommendation [13.157762744149966]
既存のソリューションは、対照的なグラフ学習パラダイムに基づいている。
本稿では,これらの課題を克服するために,原型コントラスト学習フレームワークを用いたガウスグラフを提案する。
いくつかの公開データセットにおける従来の手法と比較して,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-07-25T12:56:41Z) - Unsupervised Visible-Infrared Person ReID by Collaborative Learning with
Neighbor-Guided Label Refinement [56.2070066714042]
教師なし学習 可視赤外人物再識別 (USL-VI-ReID) は、ラベルなしのクロスモダリティデータセットからモダリティ不変の特徴を学習することを目的としている。
本稿では,生成したラベルを1つのモダリティからそれに対応するモダリティに同時に割り当てる,Dual Optimal Transport Label Assignment (DOTLA) フレームワークを提案する。
提案したDOTLA機構は、相互強化と相互モダリティデータアソシエーションの効率的な解を定式化することにより、不十分でノイズの多いラベルアソシエーションの副作用を効果的に低減することができる。
論文 参考訳(メタデータ) (2023-05-22T04:40:30Z) - GUESR: A Global Unsupervised Data-Enhancement with Bucket-Cluster
Sampling for Sequential Recommendation [58.6450834556133]
本研究では,グローバルな視点から複雑な関連性を持つ項目表現を強化するために,グラフコントラスト学習を提案する。
本稿では,CapsNetモジュールを拡張したターゲットアテンション機構により,ユーザの動的嗜好を導出する。
提案したGUESRは,大幅な改善を達成できただけでなく,汎用的な拡張戦略ともみなすことができた。
論文 参考訳(メタデータ) (2023-03-01T05:46:36Z) - LightGCL: Simple Yet Effective Graph Contrastive Learning for
Recommendation [9.181689366185038]
グラフニューラルクラスタリングネットワーク(GNN)は、グラフベースのレコメンデータシステムのための強力な学習手法である。
本稿では,単純なグラフコントラスト学習パラダイムであるLightGCLを提案する。
論文 参考訳(メタデータ) (2023-02-16T10:16:21Z) - Adversarial Learning Data Augmentation for Graph Contrastive Learning in
Recommendation [56.10351068286499]
グラフコントラスト学習のための学習可能なデータ拡張法(LDA-GCL)を提案する。
提案手法は,InfoMin と InfoMax の原則に従うデータ強化学習とグラフコントラスト学習を含む。
本手法は,データ拡張とユーザやアイテムの効果的な表現を学習するために,対向損失関数を最適化する。
論文 参考訳(メタデータ) (2023-02-05T06:55:51Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Stacked Hybrid-Attention and Group Collaborative Learning for Unbiased
Scene Graph Generation [62.96628432641806]
Scene Graph Generationは、まず与えられた画像内の視覚的コンテンツをエンコードし、次にそれらをコンパクトな要約グラフに解析することを目的としている。
まず,モーダル内改良とモーダル間相互作用を容易にする新しいスタック型ハイブリッド・アテンションネットワークを提案する。
次に、デコーダを最適化するための革新的なグループ協調学習戦略を考案する。
論文 参考訳(メタデータ) (2022-03-18T09:14:13Z) - Supervised Contrastive Learning for Recommendation [6.407166061614783]
本稿では,2部グラフを事前学習し,グラフ畳み込みニューラルネットワークを微調整する,教師付きコントラスト学習フレームワークを提案する。
我々は、この学習方法をSupervised Contrastive Learning (SCL)と呼び、最も先進的なLightGCNに適用する。
論文 参考訳(メタデータ) (2022-01-10T03:11:42Z) - Self-supervised Graph Learning for Recommendation [69.98671289138694]
ユーザ・イテムグラフを用いた自己教師型学習を推奨する。
補助的自己監督タスクは、自己識別によるノード表現学習を強化する。
3つのベンチマークデータセットに関する実証的研究は、SGLの有効性を示す。
論文 参考訳(メタデータ) (2020-10-21T06:35:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。