論文の概要: Learning Explicit User Interest Boundary for Recommendation
- arxiv url: http://arxiv.org/abs/2111.11026v1
- Date: Mon, 22 Nov 2021 07:26:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-24 00:45:44.041502
- Title: Learning Explicit User Interest Boundary for Recommendation
- Title(参考訳): 推薦のための明示的なユーザ関心境界の学習
- Authors: Jianhuan Zhuo, Qiannan Zhu, Yinliang Yue and Yuhong Zhao
- Abstract要約: ユーザ関心境界を表すために、各ユーザに対して補助的なスコア$b_u$を導入します。
提案手法は個人化された意思決定境界を提供し,特別なサンプリング戦略を使わずにトレーニング効率を大幅に向上させることができることを示す。
- 参考スコア(独自算出の注目度): 5.715918678913698
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The core objective of modelling recommender systems from implicit feedback is
to maximize the positive sample score $s_p$ and minimize the negative sample
score $s_n$, which can usually be summarized into two paradigms: the pointwise
and the pairwise. The pointwise approaches fit each sample with its label
individually, which is flexible in weighting and sampling on instance-level but
ignores the inherent ranking property. By qualitatively minimizing the relative
score $s_n - s_p$, the pairwise approaches capture the ranking of samples
naturally but suffer from training efficiency. Additionally, both approaches
are hard to explicitly provide a personalized decision boundary to determine if
users are interested in items unseen. To address those issues, we innovatively
introduce an auxiliary score $b_u$ for each user to represent the User Interest
Boundary(UIB) and individually penalize samples that cross the boundary with
pairwise paradigms, i.e., the positive samples whose score is lower than $b_u$
and the negative samples whose score is higher than $b_u$. In this way, our
approach successfully achieves a hybrid loss of the pointwise and the pairwise
to combine the advantages of both. Analytically, we show that our approach can
provide a personalized decision boundary and significantly improve the training
efficiency without any special sampling strategy. Extensive results show that
our approach achieves significant improvements on not only the classical
pointwise or pairwise models but also state-of-the-art models with complex loss
function and complicated feature encoding.
- Abstract(参考訳): 暗黙的なフィードバックからレコメンダシステムをモデル化する主な目的は、正のサンプルスコア$s_p$を最大化し、負のサンプルスコア$s_n$を最小化することである。
ポイントワイズアプローチは各サンプルに個別にラベルを付けることで、インスタンスレベルでの重み付けやサンプリングは柔軟だが、固有のランキングプロパティを無視する。
相対スコア$s_n - s_p$を定性的に最小化することで、ペアワイズアプローチはサンプルのランキングを自然に取得するが、トレーニング効率に苦しむ。
さらに、どちらのアプローチも、ユーザが目に見えないアイテムに興味があるかどうかを判断するために、パーソナライズされた決定境界を明示的に提供するのは難しい。
これらの問題に対処するために、各ユーザがユーザ関心境界(uib)を表す補助スコア$b_u$を革新的に導入し、ペアワイズパラダイムで境界を横断するサンプル、すなわちスコアが$b_u$未満の正のサンプルと、スコアが$b_u$以上の負のサンプルを個別にペナルティ化する。
このようにして、本手法は、両者の利点を組み合わせるために、ポイントワイドとペアワイドのハイブリッド損失をうまく達成する。
分析により,特別なサンプリング戦略を必要とせず,パーソナライズされた意思決定境界を提供し,トレーニング効率を大幅に向上できることを示した。
その結果,従来のポイントワイドモデルやペアワイドモデルだけでなく,複雑な損失関数と複雑な特徴符号化を備えた最先端モデルにも大きな改善が得られた。
関連論文リスト
- Improved Active Learning via Dependent Leverage Score Sampling [9.177032088236125]
非依存的なサンプリング戦略とレバレッジスコアサンプリングを組み合わせることで、非依存的(逆方向雑音)設定における能動的学習法の改善方法を示す。
独立サンプリングと比較して,本手法は,所定の目標精度に到達するために必要なサンプル数を最大50%削減する。
論文 参考訳(メタデータ) (2023-10-08T01:51:30Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - Rethinking InfoNCE: How Many Negative Samples Do You Need? [54.146208195806636]
半定量的理論フレームワークを用いて, InfoNCE に最適化された負のサンプル数について検討した。
トレーニングの有効性関数を最大化する$K$値を用いて,最適負サンプリング比を推定する。
論文 参考訳(メタデータ) (2021-05-27T08:38:29Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - Doubly Contrastive Deep Clustering [135.7001508427597]
本稿では、サンプルビューとクラスビューの両方でコントラスト損失を構築する新しい二重コントラストディープクラスタリング(DCDC)フレームワークを紹介します。
具体的には、サンプルビューに対して、元のサンプルとその拡張バージョンのクラス分布を正のサンプルペアとして設定する。
クラスビューでは、クラスのサンプル分布から正のペアと負のペアを構築します。
このように、2つのコントラスト損失は、サンプルとクラスレベルでのミニバッチサンプルのクラスタリング結果をうまく制限します。
論文 参考訳(メタデータ) (2021-03-09T15:15:32Z) - Multi-label Contrastive Predictive Coding [125.03510235962095]
差分相互情報(MI)推定器は、コントラスト予測符号化(CPC)のような教師なし表現学習法で広く利用されている。
本稿では,複数の正のサンプルを同時に同定する必要がある多ラベル分類問題に基づく新しい推定器を提案する。
同一量の負のサンプルを用いて複数ラベルのCPCが$log m$boundを超えることができる一方で、相互情報の有意な下限であることを示す。
論文 参考訳(メタデータ) (2020-07-20T02:46:21Z) - A Provably Efficient Sample Collection Strategy for Reinforcement
Learning [123.69175280309226]
オンライン強化学習(RL)における課題の1つは、エージェントがその振る舞いを最適化するために、環境の探索とサンプルの活用をトレードオフする必要があることである。
1) 生成モデル(環境のスパースシミュレータなど)にアクセス可能な状態のサンプル数を規定する「対象別」アルゴリズム,2) 所定のサンプルをできるだけ早く生成する「対象別」サンプル収集。
論文 参考訳(メタデータ) (2020-07-13T15:17:35Z) - Sampler Design for Implicit Feedback Data by Noisy-label Robust Learning [32.76804332450971]
暗黙的なフィードバックデータに対する雑音ラベルの頑健な学習に基づく適応型サンプリング器を設計する。
モデルを用いてユーザの好みを予測し、観測されたデータラベルの可能性を最大化して学習する。
次に、これらのノイズラベルのリスクを検討し、ノイズラベルのRobust BPOを提案する。
論文 参考訳(メタデータ) (2020-06-28T05:31:53Z) - Addressing Class-Imbalance Problem in Personalized Ranking [47.11372043636176]
ペアランク付けモデルのクラスバランス問題を緩和するために,効率的なエンファンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アン
VINSは、与えられた正の項目よりも大きい負の候補を受け入れる傾向にある確率を拒絶するバイアスサンプリングである。
論文 参考訳(メタデータ) (2020-05-19T08:11:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。