論文の概要: SelfCF: A Simple Framework for Self-supervised Collaborative Filtering
- arxiv url: http://arxiv.org/abs/2107.03019v1
- Date: Wed, 7 Jul 2021 05:21:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-08 23:44:03.511350
- Title: SelfCF: A Simple Framework for Self-supervised Collaborative Filtering
- Title(参考訳): selfcf: 自己教師付き協調フィルタリングのためのシンプルなフレームワーク
- Authors: Xin Zhou, Aixin Sun, Yong Liu, Jie Zhang, Chunyan Miao
- Abstract要約: 協調フィルタリング(CF)は、観察された相互作用からユーザや項目の情報的潜在表現を学習するために広く用いられる。
本稿では,暗黙的なフィードバックを伴うレコメンデータシナリオに特化して設計された自己教師型協調フィルタリングフレームワーク(SelfCF)を提案する。
フレームワークに2つの一般的なレコメンデーションモデルをカプセル化することにより、3つのデータセットの実験により、フレームワークの最高のパフォーマンスは、監督対象よりも同等か優れていることが示されています。
- 参考スコア(独自算出の注目度): 59.04105503827007
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Collaborative filtering (CF) is widely used to learn an informative latent
representation of a user or item from observed interactions. Existing CF-based
methods commonly adopt negative sampling to discriminate different items. That
is, observed user-item pairs are treated as positive instances; unobserved
pairs are considered as negative instances and are sampled under a defined
distribution for training. Training with negative sampling on large datasets is
computationally expensive. Further, negative items should be carefully sampled
under the defined distribution, in order to avoid selecting an observed
positive item in the training dataset. Unavoidably, some negative items sampled
from the training dataset could be positive in the test set. Recently,
self-supervised learning (SSL) has emerged as a powerful tool to learn a model
without negative samples. In this paper, we propose a self-supervised
collaborative filtering framework (SelfCF), that is specially designed for
recommender scenario with implicit feedback. The main idea of SelfCF is to
augment the output embeddings generated by backbone networks, because it is
infeasible to augment raw input of user/item ids. We propose and study three
output perturbation techniques that can be applied to different types of
backbone networks including both traditional CF models and graph-based models.
By encapsulating two popular recommendation models into the framework, our
experiments on three datasets show that the best performance of our framework
is comparable or better than the supervised counterpart. We also show that
SelfCF can boost up the performance by up to 8.93\% on average, compared with
another self-supervised framework as the baseline. Source codes are available
at: https://github.com/enoche/SelfCF.
- Abstract(参考訳): 協調フィルタリング(CF)は、観察された相互作用からユーザや項目の情報的潜在表現を学習するために広く用いられる。
既存のCFベースの手法では、異なる項目を識別するために負のサンプリングが一般的である。
すなわち、観測されたユーザとイテムのペアは正のインスタンスとして扱われ、観測されていないペアは負のインスタンスと見なされ、トレーニングのために定義された分布の下でサンプリングされる。
大規模なデータセットに対する負のサンプリングによるトレーニングは計算コストが高い。
さらに、トレーニングデータセットで観測された陽性項目を選択することを避けるため、負の項目を定義された分布の下で慎重にサンプリングする必要がある。
必然的に、トレーニングデータセットからサンプリングされた負の項目は、テストセットで陽性になる可能性がある。
近年、自己教師付き学習(SSL)は、ネガティブサンプルなしでモデルを学習するための強力なツールとして登場した。
本稿では,暗黙的なフィードバックを伴うレコメンダシナリオのために特別に設計された自己教師付き協調フィルタリングフレームワーク(selfcf)を提案する。
SelfCFの主な考え方は、ユーザ/イテムIDの生入力を拡大できないため、バックボーンネットワークによって生成された出力の埋め込みを強化することである。
従来のcfモデルとグラフベースモデルの両方を含む様々なバックボーンネットワークに適用可能な3つの出力摂動手法を提案し,検討する。
フレームワークに2つの一般的なレコメンデーションモデルをカプセル化することにより、3つのデータセットの実験により、フレームワークの最高のパフォーマンスは、監督対象よりも同等か優れていることが示されています。
また、SelfCFは、ベースラインとして別のセルフ教師付きフレームワークと比較して、平均8.93\%のパフォーマンスを向上できることを示す。
ソースコードはhttps://github.com/enoche/selfcf。
関連論文リスト
- Robust and Explainable Fine-Grained Visual Classification with Transfer Learning: A Dual-Carriageway Framework [0.799543372823325]
我々は、Dual-Carriageway Framework (DCF) という自動ベストスーツトレーニングソリューション検索フレームワークを提案する。
3つの畳み込みニューラルネットワーク(ResNet18、ResNet34、Inception-v3)を用いてDCFの有効性を検証する。
その結果、既存のデータセットと新しいデータセットでそれぞれ2.13%、1.23%の微調整パスのパフォーマンスが向上した。
論文 参考訳(メタデータ) (2024-05-09T15:41:10Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Noisy Self-Training with Synthetic Queries for Dense Retrieval [49.49928764695172]
合成クエリと組み合わせた,ノイズの多い自己学習フレームワークを提案する。
実験結果から,本手法は既存手法よりも一貫した改善が得られた。
我々の手法はデータ効率が良く、競争のベースラインより優れています。
論文 参考訳(メタデータ) (2023-11-27T06:19:50Z) - Towards Explainable Collaborative Filtering with Taste Clusters Learning [43.4512681951459]
協調フィルタリング(CF)は、リコメンダシステムにおいて広く使われ、効果的な手法である。
レコメンデーションモデルに説明可能性を追加することは、意思決定プロセスにおける信頼を高めるだけでなく、複数のメリットも得る。
本稿では,解釈可能なクラスタ・ラーニングを生かした,クリーンで効果的なECF(Explainable Collaborative Filtering)モデルを提案する。
論文 参考訳(メタデータ) (2023-04-27T03:08:15Z) - Efficient Data-specific Model Search for Collaborative Filtering [56.60519991956558]
協調フィルタリング(CF)はレコメンダシステムの基本的なアプローチである。
本稿では,機械学習(AutoML)の最近の進歩を動機として,データ固有のCFモデルを設計することを提案する。
ここでキーとなるのは、最先端(SOTA)のCFメソッドを統一し、それらを入力エンコーディング、埋め込み関数、インタラクション、予測関数の非結合ステージに分割する新しいフレームワークである。
論文 参考訳(メタデータ) (2021-06-14T14:30:32Z) - Bootstrapping User and Item Representations for One-Class Collaborative
Filtering [24.30834981766022]
ワンクラスの協調フィルタリング(OCCF)は、ポジティブに関連があるがまだ相互作用していないユーザーとアイテムのペアを特定することです。
本論文では,否定的なサンプリングを必要としない新しいOCCFフレームワークであるBUIRを提案する。
論文 参考訳(メタデータ) (2021-05-13T14:24:13Z) - BCFNet: A Balanced Collaborative Filtering Network with Attention
Mechanism [106.43103176833371]
協調フィルタリング(CF)ベースの推奨方法が広く研究されている。
BCFNet(Balanced Collaborative Filtering Network)という新しい推薦モデルを提案する。
さらに注意機構は、暗黙のフィードバックの中で隠れた情報をよりよく捉え、ニューラルネットワークの学習能力を強化するように設計されている。
論文 参考訳(メタデータ) (2021-03-10T14:59:23Z) - Disentangled Graph Collaborative Filtering [100.26835145396782]
Disentangled Graph Collaborative Filtering (DGCF)は、インタラクションデータからユーザとアイテムの情報表現を学ぶための新しいモデルである。
ユーザ・イテムのインタラクション毎に意図を超越した分布をモデル化することにより、インテント・アウェアなインタラクショングラフと表現を反復的に洗練する。
DGCFはNGCF、DisenGCN、MacridVAEといった最先端モデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-07-03T15:37:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。