論文の概要: Learning Explicit User Interest Boundary for Recommendation
- arxiv url: http://arxiv.org/abs/2111.11026v1
- Date: Mon, 22 Nov 2021 07:26:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-24 00:45:44.041502
- Title: Learning Explicit User Interest Boundary for Recommendation
- Title(参考訳): 推薦のための明示的なユーザ関心境界の学習
- Authors: Jianhuan Zhuo, Qiannan Zhu, Yinliang Yue and Yuhong Zhao
- Abstract要約: ユーザ関心境界を表すために、各ユーザに対して補助的なスコア$b_u$を導入します。
提案手法は個人化された意思決定境界を提供し,特別なサンプリング戦略を使わずにトレーニング効率を大幅に向上させることができることを示す。
- 参考スコア(独自算出の注目度): 5.715918678913698
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The core objective of modelling recommender systems from implicit feedback is
to maximize the positive sample score $s_p$ and minimize the negative sample
score $s_n$, which can usually be summarized into two paradigms: the pointwise
and the pairwise. The pointwise approaches fit each sample with its label
individually, which is flexible in weighting and sampling on instance-level but
ignores the inherent ranking property. By qualitatively minimizing the relative
score $s_n - s_p$, the pairwise approaches capture the ranking of samples
naturally but suffer from training efficiency. Additionally, both approaches
are hard to explicitly provide a personalized decision boundary to determine if
users are interested in items unseen. To address those issues, we innovatively
introduce an auxiliary score $b_u$ for each user to represent the User Interest
Boundary(UIB) and individually penalize samples that cross the boundary with
pairwise paradigms, i.e., the positive samples whose score is lower than $b_u$
and the negative samples whose score is higher than $b_u$. In this way, our
approach successfully achieves a hybrid loss of the pointwise and the pairwise
to combine the advantages of both. Analytically, we show that our approach can
provide a personalized decision boundary and significantly improve the training
efficiency without any special sampling strategy. Extensive results show that
our approach achieves significant improvements on not only the classical
pointwise or pairwise models but also state-of-the-art models with complex loss
function and complicated feature encoding.
- Abstract(参考訳): 暗黙的なフィードバックからレコメンダシステムをモデル化する主な目的は、正のサンプルスコア$s_p$を最大化し、負のサンプルスコア$s_n$を最小化することである。
ポイントワイズアプローチは各サンプルに個別にラベルを付けることで、インスタンスレベルでの重み付けやサンプリングは柔軟だが、固有のランキングプロパティを無視する。
相対スコア$s_n - s_p$を定性的に最小化することで、ペアワイズアプローチはサンプルのランキングを自然に取得するが、トレーニング効率に苦しむ。
さらに、どちらのアプローチも、ユーザが目に見えないアイテムに興味があるかどうかを判断するために、パーソナライズされた決定境界を明示的に提供するのは難しい。
これらの問題に対処するために、各ユーザがユーザ関心境界(uib)を表す補助スコア$b_u$を革新的に導入し、ペアワイズパラダイムで境界を横断するサンプル、すなわちスコアが$b_u$未満の正のサンプルと、スコアが$b_u$以上の負のサンプルを個別にペナルティ化する。
このようにして、本手法は、両者の利点を組み合わせるために、ポイントワイドとペアワイドのハイブリッド損失をうまく達成する。
分析により,特別なサンプリング戦略を必要とせず,パーソナライズされた意思決定境界を提供し,トレーニング効率を大幅に向上できることを示した。
その結果,従来のポイントワイドモデルやペアワイドモデルだけでなく,複雑な損失関数と複雑な特徴符号化を備えた最先端モデルにも大きな改善が得られた。
関連論文リスト
- Learning Recommender Systems with Soft Target: A Decoupled Perspective [49.83787742587449]
そこで本研究では,ソフトラベルを活用することで,目的を2つの側面として捉えるために,分離されたソフトラベル最適化フレームワークを提案する。
本稿では,ラベル伝搬アルゴリズムをモデル化したソフトラベル生成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-09T04:20:15Z) - Task-oriented Embedding Counts: Heuristic Clustering-driven Feature Fine-tuning for Whole Slide Image Classification [1.292108130501585]
本稿では,クラスタリング駆動型機能微調整法(HC-FT)を提案する。
提案手法はCAMELYON16とBRACSの両方で評価され,それぞれ97.13%,85.85%のAUCが得られた。
論文 参考訳(メタデータ) (2024-06-02T08:53:45Z) - CKD: Contrastive Knowledge Distillation from A Sample-wise Perspective [48.99488315273868]
本研究では,試料内およびサンプル間制約によるサンプルワイドアライメント問題として定式化できる,対照的な知識蒸留手法を提案する。
本手法は, 数値を考慮し, 同一試料中のロジット差を最小化する。
CIFAR-100, ImageNet-1K, MS COCOの3つのデータセットについて総合的な実験を行った。
論文 参考訳(メタデータ) (2024-04-22T11:52:40Z) - Improved Active Learning via Dependent Leverage Score Sampling [8.400581768343804]
本研究では,非依存的(逆方向雑音)環境下での能動学習手法の改善方法について述べる。
エンフェボタルサンプリングアルゴリズムに基づく簡単な実装法を提案する。
独立サンプリングと比較して,本手法は,所定の目標精度に到達するために必要なサンプル数を最大50%削減する。
論文 参考訳(メタデータ) (2023-10-08T01:51:30Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - Rethinking InfoNCE: How Many Negative Samples Do You Need? [54.146208195806636]
半定量的理論フレームワークを用いて, InfoNCE に最適化された負のサンプル数について検討した。
トレーニングの有効性関数を最大化する$K$値を用いて,最適負サンプリング比を推定する。
論文 参考訳(メタデータ) (2021-05-27T08:38:29Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - Doubly Contrastive Deep Clustering [135.7001508427597]
本稿では、サンプルビューとクラスビューの両方でコントラスト損失を構築する新しい二重コントラストディープクラスタリング(DCDC)フレームワークを紹介します。
具体的には、サンプルビューに対して、元のサンプルとその拡張バージョンのクラス分布を正のサンプルペアとして設定する。
クラスビューでは、クラスのサンプル分布から正のペアと負のペアを構築します。
このように、2つのコントラスト損失は、サンプルとクラスレベルでのミニバッチサンプルのクラスタリング結果をうまく制限します。
論文 参考訳(メタデータ) (2021-03-09T15:15:32Z) - Addressing Class-Imbalance Problem in Personalized Ranking [47.11372043636176]
ペアランク付けモデルのクラスバランス問題を緩和するために,効率的なエンファンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アンダーライン アン
VINSは、与えられた正の項目よりも大きい負の候補を受け入れる傾向にある確率を拒絶するバイアスサンプリングである。
論文 参考訳(メタデータ) (2020-05-19T08:11:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。