論文の概要: Enhancing Graph Contrastive Learning with Reliable and Informative Augmentation for Recommendation
- arxiv url: http://arxiv.org/abs/2409.05633v1
- Date: Mon, 09 Sep 2024 14:04:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 15:56:08.368315
- Title: Enhancing Graph Contrastive Learning with Reliable and Informative Augmentation for Recommendation
- Title(参考訳): リコメンデーションのための信頼性とインフォーマティブ強化によるグラフコントラスト学習の強化
- Authors: Bowen Zheng, Junjie Zhang, Hongyu Lu, Yu Chen, Ming Chen, Wayne Xin Zhao, Ji-Rong Wen,
- Abstract要約: CoGCLは、離散コードを通じてより強力な協調情報でコントラスト的なビューを構築することで、グラフのコントラスト学習を強化することを目的としている。
ユーザとアイテムの表現を離散コードに定量化するために,マルチレベルベクトル量化器をエンドツーエンドで導入する。
近傍構造に対しては,離散符号を仮想隣人として扱うことにより,仮想隣人拡張を提案する。
意味的関連性については、共有された離散コードと相互作用ターゲットに基づいて類似のユーザ/イテムを識別し、意味的関連性のあるビューを生成する。
- 参考スコア(独自算出の注目度): 84.45144851024257
- License:
- Abstract: Graph neural network (GNN) has been a powerful approach in collaborative filtering (CF) due to its ability to model high-order user-item relationships. Recently, to alleviate the data sparsity and enhance representation learning, many efforts have been conducted to integrate contrastive learning (CL) with GNNs. Despite the promising improvements, the contrastive view generation based on structure and representation perturbations in existing methods potentially disrupts the collaborative information in contrastive views, resulting in limited effectiveness of positive alignment. To overcome this issue, we propose CoGCL, a novel framework that aims to enhance graph contrastive learning by constructing contrastive views with stronger collaborative information via discrete codes. The core idea is to map users and items into discrete codes rich in collaborative information for reliable and informative contrastive view generation. To this end, we initially introduce a multi-level vector quantizer in an end-to-end manner to quantize user and item representations into discrete codes. Based on these discrete codes, we enhance the collaborative information of contrastive views by considering neighborhood structure and semantic relevance respectively. For neighborhood structure, we propose virtual neighbor augmentation by treating discrete codes as virtual neighbors, which expands an observed user-item interaction into multiple edges involving discrete codes. Regarding semantic relevance, we identify similar users/items based on shared discrete codes and interaction targets to generate the semantically relevant view. Through these strategies, we construct contrastive views with stronger collaborative information and develop a triple-view graph contrastive learning approach. Extensive experiments on four public datasets demonstrate the effectiveness of our proposed approach.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、高次ユーザ-イテム関係をモデル化できるため、コラボレーティブフィルタリング(CF)において強力なアプローチである。
近年,データ疎度を緩和し,表現学習を強化するために,GNNとの対比学習(CL)の統合に多くの取り組みがなされている。
有望な改善にもかかわらず、既存の手法における構造と表現の摂動に基づくコントラストビュー生成は、コントラストビューにおける協調情報を妨害する可能性があり、正のアライメントの有効性が制限される。
この問題を克服するために,離散コードによるより強力な協調情報を用いたコントラスト的なビューを構築することにより,グラフのコントラスト学習を強化することを目的とした,新しいフレームワークであるCoGCLを提案する。
中心となる考え方は、ユーザとアイテムを協調情報に富んだ離散コードにマッピングし、信頼性と情報に富んだコントラッシブなビュー生成を可能にすることである。
この目的のために、まず、ユーザとアイテムの表現を離散コードに定量化するために、エンド・ツー・エンド方式でマルチレベルベクトル量化器を導入する。
これらの離散的なコードに基づいて、各地区構造と意味的関連性を考慮して、コントラスト的な視点の協調的な情報を強化する。
そこで本研究では,離散符号を仮想隣人として扱うことにより,複数のエッジにユーザとテムのインタラクションを拡張できる仮想隣人拡張を提案する。
意味的関連性については、共有された離散コードと相互作用ターゲットに基づいて類似のユーザ/イテムを識別し、意味的関連性のあるビューを生成する。
これらの戦略を通じて、より強力な協調情報を用いたコントラッシブ・ビューを構築し、トリプル・ビュー・グラフ・コントラッシブ・ラーニング・アプローチを開発する。
4つの公開データセットに対する大規模な実験により,提案手法の有効性が示された。
関連論文リスト
- Discriminative Anchor Learning for Efficient Multi-view Clustering [59.11406089896875]
マルチビュークラスタリング(DALMC)のための識別的アンカー学習を提案する。
元のデータセットに基づいて、識別的なビュー固有の特徴表現を学習する。
これらの表現に基づいて異なるビューからアンカーを構築することで、共有アンカーグラフの品質が向上します。
論文 参考訳(メタデータ) (2024-09-25T13:11:17Z) - Dual Advancement of Representation Learning and Clustering for Sparse and Noisy Images [14.836487514037994]
SNI(Sparse and Noisy Image)は、効果的な表現学習とクラスタリングに重要な課題を提起する。
本稿では、マスク画像モデリングから得られた表現を強化するために、DARLC(Dual Advancement of Representation Learning and Clustering)を提案する。
我々のフレームワークは、局所的な認識性、特異性、関係意味論の理解を高めることによって、表現の学習を改善する包括的なアプローチを提供する。
論文 参考訳(メタデータ) (2024-09-03T10:52:27Z) - CoSD: Collaborative Stance Detection with Contrastive Heterogeneous Topic Graph Learning [18.75039816544345]
我々はCoSD(CoSD)と呼ばれる新しい協調姿勢検出フレームワークを提案する。
CoSDは、テキスト、トピック、スタンスラベル間のトピック認識のセマンティクスと協調的なシグナルを学ぶ。
2つのベンチマークデータセットの実験では、CoSDの最先端検出性能が示されている。
論文 参考訳(メタデータ) (2024-04-26T02:04:05Z) - GUESR: A Global Unsupervised Data-Enhancement with Bucket-Cluster
Sampling for Sequential Recommendation [58.6450834556133]
本研究では,グローバルな視点から複雑な関連性を持つ項目表現を強化するために,グラフコントラスト学習を提案する。
本稿では,CapsNetモジュールを拡張したターゲットアテンション機構により,ユーザの動的嗜好を導出する。
提案したGUESRは,大幅な改善を達成できただけでなく,汎用的な拡張戦略ともみなすことができた。
論文 参考訳(メタデータ) (2023-03-01T05:46:36Z) - A Clustering-guided Contrastive Fusion for Multi-view Representation
Learning [7.630965478083513]
本稿では、ビュー固有表現をビュー共通表現に融合する深層融合ネットワークを提案する。
また、ビュー共通表現とビュー固有表現を一致させる非対称なコントラスト戦略を設計する。
不完全な視点では,提案手法は競合相手よりもノイズ干渉に抵抗する。
論文 参考訳(メタデータ) (2022-12-28T07:21:05Z) - Hypergraph Contrastive Collaborative Filtering [44.8586906335262]
新たな自己監督型推薦フレームワークHypergraph Contrastive Collaborative Filtering (HCCF)を提案する。
HCCFは、ハイパーグラフを拡張したクロスビューコントラスト学習アーキテクチャと、ローカルおよびグローバルなコラボレーティブな関係をキャプチャする。
提案モデルでは,ハイパーグラフ構造と自己教師付き学習を効果的に統合し,レコメンダシステムの表現品質を向上する。
論文 参考訳(メタデータ) (2022-04-26T10:06:04Z) - ACTIVE:Augmentation-Free Graph Contrastive Learning for Partial
Multi-View Clustering [52.491074276133325]
部分的マルチビュークラスタリングの問題を解決するために,拡張自由グラフコントラスト学習フレームワークを提案する。
提案手法は、インスタンスレベルのコントラスト学習と欠落データ推論をクラスタレベルに高め、個々の欠落データがクラスタリングに与える影響を効果的に軽減する。
論文 参考訳(メタデータ) (2022-03-01T02:32:25Z) - Improving Graph Collaborative Filtering with Neighborhood-enriched
Contrastive Learning [29.482674624323835]
そこで我々は,NCL(Nighborhood-enriched Contrastive Learning)という新しいコントラスト学習手法を提案する。
相互作用グラフ上の構造的隣人に対しては、ユーザ(またはアイテム)とその構造的隣人を正のコントラスト的対とみなす新しい構造的対照的な目的を開発する。
実装では、ユーザ(またはアイテム)と隣人の表現は異なるGNN層の出力に対応する。
論文 参考訳(メタデータ) (2022-02-13T04:18:18Z) - Disentangled Graph Collaborative Filtering [100.26835145396782]
Disentangled Graph Collaborative Filtering (DGCF)は、インタラクションデータからユーザとアイテムの情報表現を学ぶための新しいモデルである。
ユーザ・イテムのインタラクション毎に意図を超越した分布をモデル化することにより、インテント・アウェアなインタラクショングラフと表現を反復的に洗練する。
DGCFはNGCF、DisenGCN、MacridVAEといった最先端モデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-07-03T15:37:25Z) - Mining Implicit Entity Preference from User-Item Interaction Data for
Knowledge Graph Completion via Adversarial Learning [82.46332224556257]
本稿では,知識グラフ補完タスクにおけるユーザインタラクションデータを活用することで,新たな逆学習手法を提案する。
我々のジェネレータはユーザインタラクションデータから分離されており、識別器の性能を向上させるのに役立ちます。
利用者の暗黙の実体的嗜好を発見するために,グラフニューラルネットワークに基づく精巧な協調学習アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-03-28T05:47:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。