論文の概要: Improved Diversity-Promoting Collaborative Metric Learning for Recommendation
- arxiv url: http://arxiv.org/abs/2409.01012v1
- Date: Mon, 2 Sep 2024 07:44:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 07:49:16.540089
- Title: Improved Diversity-Promoting Collaborative Metric Learning for Recommendation
- Title(参考訳): リコメンデーションのための多様性向上型コラボレーションメトリックラーニング
- Authors: Shilong Bao, Qianqian Xu, Zhiyong Yang, Yuan He, Xiaochun Cao, Qingming Huang,
- Abstract要約: CML(Collaborative Metric Learning)は、リコメンデーションシステムにおいて人気のある手法として最近登場した。
本稿では,ユーザが複数のカテゴリの関心を持つ,困難なシナリオに焦点をあてる。
textitDiversity-Promoting Collaborative Metric Learning (DPCML) と呼ばれる新しい手法を提案する。
- 参考スコア(独自算出の注目度): 127.08043409083687
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Collaborative Metric Learning (CML) has recently emerged as a popular method in recommendation systems (RS), closing the gap between metric learning and collaborative filtering. Following the convention of RS, existing practices exploit unique user representation in their model design. This paper focuses on a challenging scenario where a user has multiple categories of interests. Under this setting, the unique user representation might induce preference bias, especially when the item category distribution is imbalanced. To address this issue, we propose a novel method called \textit{Diversity-Promoting Collaborative Metric Learning} (DPCML), with the hope of considering the commonly ignored minority interest of the user. The key idea behind DPCML is to introduce a set of multiple representations for each user in the system where users' preference toward an item is aggregated by taking the minimum item-user distance among their embedding set. Specifically, we instantiate two effective assignment strategies to explore a proper quantity of vectors for each user. Meanwhile, a \textit{Diversity Control Regularization Scheme} (DCRS) is developed to accommodate the multi-vector representation strategy better. Theoretically, we show that DPCML could induce a smaller generalization error than traditional CML. Furthermore, we notice that CML-based approaches usually require \textit{negative sampling} to reduce the heavy computational burden caused by the pairwise objective therein. In this paper, we reveal the fundamental limitation of the widely adopted hard-aware sampling from the One-Way Partial AUC (OPAUC) perspective and then develop an effective sampling alternative for the CML-based paradigm. Finally, comprehensive experiments over a range of benchmark datasets speak to the efficacy of DPCML. Code are available at \url{https://github.com/statusrank/LibCML}.
- Abstract(参考訳): コラボレーティブ・メトリック・ラーニング(CML)は、最近、レコメンデーション・システム(RS)において一般的な方法として現れ、メトリック・ラーニングとコラボレーティブ・フィルタリングのギャップを埋めている。
RSの慣例に従い、既存のプラクティスはモデル設計においてユニークなユーザー表現を利用する。
本稿では,ユーザが複数のカテゴリの関心を持つ,困難なシナリオに焦点を当てる。
この設定の下では、ユニークなユーザ表現は、特にアイテムカテゴリの分布が不均衡な場合に、優先バイアスを引き起こす可能性がある。
この問題に対処するため,本稿では,ユーザの少数派の関心を概ね無視する目的で,‘textit{Diversity-Promoting Collaborative Metric Learning}’ (DPCML) と呼ばれる新しい手法を提案する。
DPCMLの背景にある重要な考え方は、ユーザがアイテムに対する好みを集約するシステムにおいて、埋め込みセットの中で最小のアイテム-ユーザ距離を取ることで、各ユーザに対して複数の表現セットを導入することである。
具体的には、2つの効果的な割り当て戦略をインスタンス化し、各ユーザに対して適切な量のベクトルを探索する。
一方、マルチベクタ表現戦略をより良くするために、textit{Diversity Control Regularization Scheme} (DCRS) が開発されている。
理論的には、DPCMLは従来のCMLよりも小さな一般化誤差を誘導できることを示す。
さらに, CMLに基づくアプローチでは, 対の目的によって引き起こされる計算負担を軽減するために, 通常は textit{ negative sample} を必要とする。
本稿では,One-Way partial AUC(OPAUC)の観点から広く採用されているハード・アウェア・サンプリングの基本的な限界を明らかにし,CMLのパラダイムに対する効果的なサンプリング代替案を開発する。
最後に、さまざまなベンチマークデータセットに関する包括的な実験は、DPCMLの有効性を物語っている。
コードは \url{https://github.com/statusrank/LibCML} で入手できる。
関連論文リスト
- Large Language Model Empowered Embedding Generator for Sequential Recommendation [57.49045064294086]
大言語モデル(LLM)は、その人気に関係なく、項目間の意味的関係を理解する能力を持つ。
LLMEmbは、LCMを利用してアイテム埋め込みを作成し、シークエンシャル・レコメンダ・システムの性能を高める革新的な技術である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z) - Generalizable Embeddings with Cross-batch Metric Learning [10.553094246710865]
学習可能なプロトタイプの凸結合としてGAPを定式化する。
本稿では, 線形予測器をサンプルのバッチに適合させる反復過程として, プロトタイプ学習が表現可能であることを示す。
その観点で、各イテレーションで2つの不整合クラスを考え、他のバッチに適合するプロトタイプでバッチのサンプルを表現して学習を規則化する。
論文 参考訳(メタデータ) (2023-07-14T20:39:07Z) - Maximize to Explore: One Objective Function Fusing Estimation, Planning,
and Exploration [87.53543137162488]
我々はtextttMEX というオンライン強化学習(オンラインRL)フレームワークを提案する。
textttMEXは、自動的に探索エクスプロイトのバランスをとりながら、見積もりと計画コンポーネントを統合する。
様々な MuJoCo 環境では,ベースラインを安定的なマージンで上回り,十分な報酬を得られる。
論文 参考訳(メタデータ) (2023-05-29T17:25:26Z) - Learning in Imperfect Environment: Multi-Label Classification with
Long-Tailed Distribution and Partial Labels [53.68653940062605]
新しいタスク, 部分ラベリングとLong-Tailed Multi-Label Classification (PLT-MLC) を導入する。
その結果,ほとんどのLT-MLCとPL-MLCは劣化MLCの解決に失敗していることがわかった。
textbfCOrrection $rightarrow$ textbfModificattextbfIon $rightarrow$ balantextbfCe。
論文 参考訳(メタデータ) (2023-04-20T20:05:08Z) - Sample-Efficient Personalization: Modeling User Parameters as Low Rank
Plus Sparse Components [30.32486162748558]
個人ユーザ/ドメイン/エンタプライズに対する機械学習(ML)予測のパーソナライズは,実践的なレコメンデーションシステムにおいて重要である。
ネットワーク重みを低ランクおよびスパース成分の和としてモデル化するメタラーニング方式を提案する。
AMHT-LRSは、ほぼ最適なサンプル複雑さで効率よく問題を解く。
論文 参考訳(メタデータ) (2022-10-07T12:50:34Z) - The Minority Matters: A Diversity-Promoting Collaborative Metric
Learning Algorithm [154.47590401735323]
CML(Collaborative Metric Learning)は、リコメンデーションシステムにおいて人気のある手法として最近登場した。
本稿では,ユーザが複数のカテゴリの関心を持つ,困難なシナリオに焦点をあてる。
textitDiversity-Promoting Collaborative Metric Learning (DPCML) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-30T08:02:18Z) - Rethinking Collaborative Metric Learning: Toward an Efficient
Alternative without Negative Sampling [156.7248383178991]
コラボレーティブ・メトリック・ラーニング(CML)パラダイムはレコメンデーション・システム(RS)分野に広く関心を集めている。
負のサンプリングが一般化誤差のバイアス付き推定に繋がることがわかった。
そこで我々は,SFCML (textitSampling-Free Collaborative Metric Learning) という名前のCMLに対して,負のサンプリングを伴わない効率的な手法を提案する。
論文 参考訳(メタデータ) (2022-06-23T08:50:22Z) - Sample-Rank: Weak Multi-Objective Recommendations Using Rejection
Sampling [0.5156484100374059]
本稿では,マルチゴールサンプリングとユーザ関連度(Sample-Rank)のランク付けによるマーケットプレースの多目的目標への推薦手法を提案する。
提案手法の新規性は,望まれるマルチゴール分布からサンプリングするMOレコメンデーション問題を低減し,プロダクションフレンドリーな学習-ランクモデルを構築することである。
論文 参考訳(メタデータ) (2020-08-24T09:17:18Z) - Revisiting Training Strategies and Generalization Performance in Deep
Metric Learning [28.54755295856929]
我々は、最も広く使われているDML目的関数を再検討し、重要なパラメータ選択について検討する。
一貫した比較では、DMLの目的は文学で示されるよりもはるかに高い飽和を示す。
これらの知見を公開し、ランキングベースのDMLモデルの性能を確実に向上させるために、単純かつ効果的に正規化を訓練することを提案する。
論文 参考訳(メタデータ) (2020-02-19T22:16:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。