論文の概要: Neighborhood-Enhanced Supervised Contrastive Learning for Collaborative
Filtering
- arxiv url: http://arxiv.org/abs/2402.11523v1
- Date: Sun, 18 Feb 2024 09:46:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 20:32:08.713231
- Title: Neighborhood-Enhanced Supervised Contrastive Learning for Collaborative
Filtering
- Title(参考訳): 協調フィルタリングのための周辺環境改善型コントラスト学習
- Authors: Peijie Sun, Le Wu, Kun Zhang, Xiangzhi Chen, and Meng Wang
- Abstract要約: 協調フィルタリング(CF)技術は、データの分散性の課題に直面している。
コントラスト信号とコントラスト損失を効果的に組み合わせた2つのユニークな教師付きコントラスト損失関数を開発した。
グラフベースの協調フィルタリングモデルをバックボーンとして使用することにより,レコメンデーションモデルの性能を効果的に向上する。
- 参考スコア(独自算出の注目度): 23.584619027605203
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While effective in recommendation tasks, collaborative filtering (CF)
techniques face the challenge of data sparsity. Researchers have begun
leveraging contrastive learning to introduce additional self-supervised signals
to address this. However, this approach often unintentionally distances the
target user/item from their collaborative neighbors, limiting its efficacy. In
response, we propose a solution that treats the collaborative neighbors of the
anchor node as positive samples within the final objective loss function. This
paper focuses on developing two unique supervised contrastive loss functions
that effectively combine supervision signals with contrastive loss. We analyze
our proposed loss functions through the gradient lens, demonstrating that
different positive samples simultaneously influence updating the anchor node's
embeddings. These samples' impact depends on their similarities to the anchor
node and the negative samples. Using the graph-based collaborative filtering
model as our backbone and following the same data augmentation methods as the
existing contrastive learning model SGL, we effectively enhance the performance
of the recommendation model. Our proposed Neighborhood-Enhanced Supervised
Contrastive Loss (NESCL) model substitutes the contrastive loss function in SGL
with our novel loss function, showing marked performance improvement. On three
real-world datasets, Yelp2018, Gowalla, and Amazon-Book, our model surpasses
the original SGL by 10.09%, 7.09%, and 35.36% on NDCG@20, respectively.
- Abstract(参考訳): レコメンデーションタスクでは有効だが、コラボレーティブフィルタリング(CF)技術はデータの分散性の課題に直面している。
研究者は、これに対処するために、コントラスト学習を利用して、追加の自己監督信号を導入し始めた。
しかし、このアプローチは意図せずターゲットのユーザ/テーマを隣人から遠ざけ、その効果を制限していることが多い。
そこで本研究では,アンカーノードの協調近傍を最終目的損失関数内の正のサンプルとして扱う手法を提案する。
本稿では,監督信号とコントラスト損失を効果的に結合する2つの一意な教師付きコントラスト損失関数の開発に着目する。
提案する損失関数を勾配レンズを通して解析し,異なる正のサンプルがアンカーノードの埋め込みの更新に同時に影響を与えることを示した。
これらのサンプルの影響は、アンカーノードと負のサンプルとの類似性に依存する。
グラフベースの協調フィルタリングモデルを我々のバックボーンとし、既存のコントラスト学習モデルSGLと同じデータ拡張手法に従うことにより、推奨モデルの性能を効果的に向上する。
提案したNorborhood-Enhanced Supervised Convistive Loss (NESCL) モデルは,SGLのコントラスト損失関数を新たな損失関数に置き換え,性能改善を示す。
Yelp2018、Gowalla、Amazon-Bookの3つの実世界のデータセットでは、当社のモデルは、それぞれ10.09%、7.09%、35.36%をNDCG@20で上回っている。
関連論文リスト
- Mixed Supervised Graph Contrastive Learning for Recommendation [34.93725892725111]
これらの問題に対処するために、MixSGCL (MixSGCL) を用いたグラフコントラスト学習を提案する。
3つの実世界のデータセットの実験では、MixSGCLが最先端の手法を超越し、精度と効率の両方で最高のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2024-04-24T16:19:11Z) - Prototypical Contrastive Learning through Alignment and Uniformity for
Recommendation [6.790779112538357]
提案するアンダーライン・アライメントとアンダーライン・ユニフォーマル性によるインダーライン型コントラスト学習について述べる。
具体的には、まず、原点グラフから異なる拡張点間の整合性を確保するために、潜時空間としてプロトタイプを提案する。
明示的な負の欠如は、インスタンスとプロトタイプ間の整合性損失を直接最適化することで、次元的な崩壊の問題が容易に生じることを意味する。
論文 参考訳(メタデータ) (2024-02-03T08:19:26Z) - TDCGL: Two-Level Debiased Contrastive Graph Learning for Recommendation [1.5836776102398225]
実世界におけるKGの実体の長期分布とノイズ問題により、アイテム・エンティリティ依存関係は真の特性を反映しない。
我々はTDCL(Two-Level Debiased Contrastive Learning)を設計し、知識グラフに展開する。
オープンソースデータセットに関する検討実験により,提案手法は優れたアンチノイズ性能を有することが示された。
論文 参考訳(メタデータ) (2023-10-01T03:56:38Z) - Challenging the Myth of Graph Collaborative Filtering: a Reasoned and Reproducibility-driven Analysis [50.972595036856035]
本稿では,6つの人気グラフと最近のグラフ推薦モデルの結果を再現するコードを提案する。
これらのグラフモデルと従来の協調フィルタリングモデルを比較する。
ユーザの近所からの情報フローを調べることにより,データセット構造における内在的特徴にどのようなモデルが影響するかを同定することを目的とする。
論文 参考訳(メタデータ) (2023-08-01T09:31:44Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Positive-Negative Equal Contrastive Loss for Semantic Segmentation [8.664491798389662]
従来の作業では、グローバルコンテキストを効果的に抽出し集約するために、プラグアンドプレイモジュールと構造的損失を設計するのが一般的だった。
そこで我々は, 正負の負の正の負の負の正の負の正の負の正の負の負の負の正の負の負の正の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の
総合的な実験を行い、2つのベンチマークデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-07-04T13:51:29Z) - Supervised Contrastive Learning for Recommendation [6.407166061614783]
本稿では,2部グラフを事前学習し,グラフ畳み込みニューラルネットワークを微調整する,教師付きコントラスト学習フレームワークを提案する。
我々は、この学習方法をSupervised Contrastive Learning (SCL)と呼び、最も先進的なLightGCNに適用する。
論文 参考訳(メタデータ) (2022-01-10T03:11:42Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - Unleashing the Power of Contrastive Self-Supervised Visual Models via
Contrast-Regularized Fine-Tuning [94.35586521144117]
コントラスト学習を微調整に適用することでさらにメリットが得られるか検討する。
本研究では,コントラスト正規化調律(core-tuning)を提案する。
論文 参考訳(メタデータ) (2021-02-12T16:31:24Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z) - Self-supervised Graph Learning for Recommendation [69.98671289138694]
ユーザ・イテムグラフを用いた自己教師型学習を推奨する。
補助的自己監督タスクは、自己識別によるノード表現学習を強化する。
3つのベンチマークデータセットに関する実証的研究は、SGLの有効性を示す。
論文 参考訳(メタデータ) (2020-10-21T06:35:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。