論文の概要: The Minority Matters: A Diversity-Promoting Collaborative Metric
Learning Algorithm
- arxiv url: http://arxiv.org/abs/2209.15292v1
- Date: Fri, 30 Sep 2022 08:02:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 16:44:45.442983
- Title: The Minority Matters: A Diversity-Promoting Collaborative Metric
Learning Algorithm
- Title(参考訳): マイノリティ問題:多様性を促進する共同メトリクス学習アルゴリズム
- Authors: Shilong Bao, Qianqian Xu, Zhiyong Yang, Yuan He, Xiaochun Cao,
Qingming Huang
- Abstract要約: CML(Collaborative Metric Learning)は、リコメンデーションシステムにおいて人気のある手法として最近登場した。
本稿では,ユーザが複数のカテゴリの関心を持つ,困難なシナリオに焦点をあてる。
textitDiversity-Promoting Collaborative Metric Learning (DPCML) と呼ばれる新しい手法を提案する。
- 参考スコア(独自算出の注目度): 154.47590401735323
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Collaborative Metric Learning (CML) has recently emerged as a popular method
in recommendation systems (RS), closing the gap between metric learning and
Collaborative Filtering. Following the convention of RS, existing methods
exploit unique user representation in their model design. This paper focuses on
a challenging scenario where a user has multiple categories of interests. Under
this setting, we argue that the unique user representation might induce
preference bias, especially when the item category distribution is imbalanced.
To address this issue, we propose a novel method called
\textit{Diversity-Promoting Collaborative Metric Learning} (DPCML), with the
hope of considering the commonly ignored minority interest of the user. The key
idea behind DPCML is to include a multiple set of representations for each user
in the system. Based on this embedding paradigm, user preference toward an item
is aggregated from different embeddings by taking the minimum item-user
distance among the user embedding set. Furthermore, we observe that the
diversity of the embeddings for the same user also plays an essential role in
the model. To this end, we propose a \textit{diversity control regularization}
term to accommodate the multi-vector representation strategy better.
Theoretically, we show that DPCML could generalize well to unseen test data by
tackling the challenge of the annoying operation that comes from the minimum
value. Experiments over a range of benchmark datasets speak to the efficacy of
DPCML.
- Abstract(参考訳): CML(Collaborative Metric Learning)は近年,メトリクス学習と協調フィルタリングのギャップを埋めるレコメンデーションシステム(RS)において,一般的な手法として登場した。
RSの慣例に従い、既存のメソッドはモデル設計においてユニークなユーザー表現を利用する。
本稿では,ユーザが複数カテゴリの興味を持つという困難なシナリオに焦点を当てる。
この設定では、特にアイテムカテゴリの分布が不均衡な場合に、ユニークなユーザ表現が嗜好バイアスを引き起こす可能性があると論じる。
この問題に対処するため,本稿では,ユーザの少数派の関心を概ね無視する目的で,‘textit{Diversity-Promoting Collaborative Metric Learning}’ (DPCML) と呼ばれる新しい手法を提案する。
DPCMLの背後にある重要なアイデアは、システム内の各ユーザのための複数の表現セットを含めることである。
この組込みパラダイムに基づいて、ユーザ組込み集合のうち、最小の項目-ユーザ距離を取ることにより、アイテムに対するユーザ嗜好を異なる組込みから集約する。
さらに,同一ユーザに対する埋め込みの多様性がモデルにおいて重要な役割を担っていることも観察する。
そこで本稿では,マルチベクタ表現戦略をよりよく適合させるために,textit{diversity control regularization} という用語を提案する。
理論的には、DPCMLは最小値から得られる煩わしい操作の課題に対処することで、見つからないテストデータに対してうまく一般化できることを示す。
さまざまなベンチマークデータセットの実験では、DPCMLの有効性が語られる。
関連論文リスト
- Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - Improved Diversity-Promoting Collaborative Metric Learning for Recommendation [127.08043409083687]
CML(Collaborative Metric Learning)は、リコメンデーションシステムにおいて人気のある手法として最近登場した。
本稿では,ユーザが複数のカテゴリの関心を持つ,困難なシナリオに焦点をあてる。
textitDiversity-Promoting Collaborative Metric Learning (DPCML) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T07:44:48Z) - MMGRec: Multimodal Generative Recommendation with Transformer Model [81.61896141495144]
MMGRecは、マルチモーダルレコメンデーションに生成パラダイムを導入することを目指している。
まず,階層的な量子化手法であるGraph CF-RQVAEを考案し,各項目にRec-IDを割り当てる。
次に、Transformerベースのレコメンデータをトレーニングし、過去のインタラクションシーケンスに基づいて、ユーザが推奨するアイテムのRec-IDを生成する。
論文 参考訳(メタデータ) (2024-04-25T12:11:27Z) - Sample-Efficient Personalization: Modeling User Parameters as Low Rank
Plus Sparse Components [30.32486162748558]
個人ユーザ/ドメイン/エンタプライズに対する機械学習(ML)予測のパーソナライズは,実践的なレコメンデーションシステムにおいて重要である。
ネットワーク重みを低ランクおよびスパース成分の和としてモデル化するメタラーニング方式を提案する。
AMHT-LRSは、ほぼ最適なサンプル複雑さで効率よく問題を解く。
論文 参考訳(メタデータ) (2022-10-07T12:50:34Z) - Everyone's Preference Changes Differently: Weighted Multi-Interest
Retrieval Model [18.109035867113217]
MIPモデル(Multi-Interest Preference)は、ユーザのシーケンシャルエンゲージメントをより効果的に利用することで、ユーザにとってマルチエンゲージメントを生み出すアプローチである。
本手法の有効性を実証するため,様々な産業規模のデータセットを用いて大規模な実験を行った。
論文 参考訳(メタデータ) (2022-07-14T04:29:54Z) - The Stereotyping Problem in Collaboratively Filtered Recommender Systems [77.56225819389773]
行列分解に基づく協調フィルタリングアルゴリズムは,ある種のステレオタイピングを誘導することを示す。
一般のユーザ層では、テキストセットの好みが反相関性がある場合、これらの項目は、ユーザーには推奨されない。
本稿では,各ユーザの多様な利害関係を捉えるために,代替的なモデリング修正を提案する。
論文 参考訳(メタデータ) (2021-06-23T18:37:47Z) - Sparse-Interest Network for Sequential Recommendation [78.83064567614656]
本稿では,シーケンシャルレコメンデーションのためのtextbfSparse textbfInterest textbfNEtwork(SINE)を提案する。
我々のスパース関心モジュールは、大きなコンセプトプールから各ユーザに対してスパースの概念セットを適応的に推測することができる。
SINEは最先端の手法よりも大幅に改善できる。
論文 参考訳(メタデータ) (2021-02-18T11:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。