論文の概要: SelfCF: A Simple Framework for Self-supervised Collaborative Filtering
- arxiv url: http://arxiv.org/abs/2107.03019v3
- Date: Sun, 30 Apr 2023 09:47:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 21:59:46.179046
- Title: SelfCF: A Simple Framework for Self-supervised Collaborative Filtering
- Title(参考訳): selfcf: 自己教師付き協調フィルタリングのためのシンプルなフレームワーク
- Authors: Xin Zhou, Aixin Sun, Yong Liu, Jie Zhang, Chunyan Miao
- Abstract要約: 協調フィルタリング(CF)は、観測された相互作用からユーザやアイテムの情報的潜在表現を学習するために広く用いられている。
本稿では,暗黙的なフィードバックを伴うレコメンデータシナリオに特化して設計された自己教師型協調フィルタリングフレームワーク(SelfCF)を提案する。
自制フレームワークのBUIRと比較して,SelfCFは平均17.79%の精度向上を実現している。
- 参考スコア(独自算出の注目度): 72.68215241599509
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collaborative filtering (CF) is widely used to learn informative latent
representations of users and items from observed interactions. Existing
CF-based methods commonly adopt negative sampling to discriminate different
items. Training with negative sampling on large datasets is computationally
expensive. Further, negative items should be carefully sampled under the
defined distribution, in order to avoid selecting an observed positive item in
the training dataset. Unavoidably, some negative items sampled from the
training dataset could be positive in the test set. In this paper, we propose a
self-supervised collaborative filtering framework (SelfCF), that is specially
designed for recommender scenario with implicit feedback. The proposed SelfCF
framework simplifies the Siamese networks and can be easily applied to existing
deep-learning based CF models, which we refer to as backbone networks. The main
idea of SelfCF is to augment the output embeddings generated by backbone
networks, because it is infeasible to augment raw input of user/item ids. We
propose and study three output perturbation techniques that can be applied to
different types of backbone networks including both traditional CF models and
graph-based models. The framework enables learning informative representations
of users and items without negative samples, and is agnostic to the
encapsulated backbones. We conduct comprehensive experiments on four datasets
to show that our framework may achieve even better recommendation accuracy than
the encapsulated supervised counterpart with a 2$\times$--4$\times$ faster
training speed. We also show that SelfCF can boost up the accuracy by up to
17.79% on average, compared with a self-supervised framework BUIR.
- Abstract(参考訳): 協調フィルタリング(CF)は、観測された相互作用からユーザやアイテムの情報的潜在表現を学習するために広く用いられている。
既存のCFベースの手法では、異なる項目を識別するために負のサンプリングが一般的である。
大規模なデータセットに対する負のサンプリングによるトレーニングは計算コストが高い。
さらに、トレーニングデータセットで観測された陽性項目を選択することを避けるため、負の項目を定義された分布の下で慎重にサンプリングする必要がある。
必然的に、トレーニングデータセットからサンプリングされた負の項目は、テストセットで陽性になる可能性がある。
本稿では,暗黙的なフィードバックを伴うレコメンダシナリオのために特別に設計された自己教師付き協調フィルタリングフレームワーク(selfcf)を提案する。
提案したSelfCFフレームワークは、Siameseネットワークを単純化し、既存のディープラーニングベースのCFモデルに容易に適用することができる。
SelfCFの主な考え方は、ユーザ/イテムIDの生入力を拡大できないため、バックボーンネットワークによって生成された出力の埋め込みを強化することである。
従来のcfモデルとグラフベースモデルの両方を含む様々なバックボーンネットワークに適用可能な3つの出力摂動手法を提案し,検討する。
このフレームワークは、負のサンプルなしでユーザとアイテムの情報表現を学習することができ、カプセル化されたバックボーンとは無関係である。
2$\times$--4$\times$のトレーニング速度でカプセル化された教師付きデータセットよりも優れた推奨精度が得られることを示すために、4つのデータセットについて包括的な実験を行った。
また、自制フレームワークのBUIRと比較して、SelfCFは平均で17.79%の精度を向上できることを示す。
関連論文リスト
- Robust and Explainable Fine-Grained Visual Classification with Transfer Learning: A Dual-Carriageway Framework [0.799543372823325]
我々は、Dual-Carriageway Framework (DCF) という自動ベストスーツトレーニングソリューション検索フレームワークを提案する。
3つの畳み込みニューラルネットワーク(ResNet18、ResNet34、Inception-v3)を用いてDCFの有効性を検証する。
その結果、既存のデータセットと新しいデータセットでそれぞれ2.13%、1.23%の微調整パスのパフォーマンスが向上した。
論文 参考訳(メタデータ) (2024-05-09T15:41:10Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Noisy Self-Training with Synthetic Queries for Dense Retrieval [49.49928764695172]
合成クエリと組み合わせた,ノイズの多い自己学習フレームワークを提案する。
実験結果から,本手法は既存手法よりも一貫した改善が得られた。
我々の手法はデータ効率が良く、競争のベースラインより優れています。
論文 参考訳(メタデータ) (2023-11-27T06:19:50Z) - Towards Explainable Collaborative Filtering with Taste Clusters Learning [43.4512681951459]
協調フィルタリング(CF)は、リコメンダシステムにおいて広く使われ、効果的な手法である。
レコメンデーションモデルに説明可能性を追加することは、意思決定プロセスにおける信頼を高めるだけでなく、複数のメリットも得る。
本稿では,解釈可能なクラスタ・ラーニングを生かした,クリーンで効果的なECF(Explainable Collaborative Filtering)モデルを提案する。
論文 参考訳(メタデータ) (2023-04-27T03:08:15Z) - Efficient Data-specific Model Search for Collaborative Filtering [56.60519991956558]
協調フィルタリング(CF)はレコメンダシステムの基本的なアプローチである。
本稿では,機械学習(AutoML)の最近の進歩を動機として,データ固有のCFモデルを設計することを提案する。
ここでキーとなるのは、最先端(SOTA)のCFメソッドを統一し、それらを入力エンコーディング、埋め込み関数、インタラクション、予測関数の非結合ステージに分割する新しいフレームワークである。
論文 参考訳(メタデータ) (2021-06-14T14:30:32Z) - Bootstrapping User and Item Representations for One-Class Collaborative
Filtering [24.30834981766022]
ワンクラスの協調フィルタリング(OCCF)は、ポジティブに関連があるがまだ相互作用していないユーザーとアイテムのペアを特定することです。
本論文では,否定的なサンプリングを必要としない新しいOCCFフレームワークであるBUIRを提案する。
論文 参考訳(メタデータ) (2021-05-13T14:24:13Z) - BCFNet: A Balanced Collaborative Filtering Network with Attention
Mechanism [106.43103176833371]
協調フィルタリング(CF)ベースの推奨方法が広く研究されている。
BCFNet(Balanced Collaborative Filtering Network)という新しい推薦モデルを提案する。
さらに注意機構は、暗黙のフィードバックの中で隠れた情報をよりよく捉え、ニューラルネットワークの学習能力を強化するように設計されている。
論文 参考訳(メタデータ) (2021-03-10T14:59:23Z) - Disentangled Graph Collaborative Filtering [100.26835145396782]
Disentangled Graph Collaborative Filtering (DGCF)は、インタラクションデータからユーザとアイテムの情報表現を学ぶための新しいモデルである。
ユーザ・イテムのインタラクション毎に意図を超越した分布をモデル化することにより、インテント・アウェアなインタラクショングラフと表現を反復的に洗練する。
DGCFはNGCF、DisenGCN、MacridVAEといった最先端モデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-07-03T15:37:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。