論文の概要: Greedy SLIM: A SLIM-Based Approach For Preference Elicitation
- arxiv url: http://arxiv.org/abs/2406.06061v1
- Date: Mon, 10 Jun 2024 07:18:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-11 14:46:46.887922
- Title: Greedy SLIM: A SLIM-Based Approach For Preference Elicitation
- Title(参考訳): Greedy SLIM: SLIM-based Approach for Preference Elicitation
- Authors: Claudius Proissl, Amel Vatic, Helmut Waldschmidt,
- Abstract要約: 新しいユーザは、適切なレコメンデーションを計算するために、慎重に選択された項目を評価するように求められます。
SLIMに基づく嗜好評価手法を提案する。
Greedy SLIMと呼ぶSLIMの新しいトレーニング手法では,SLIMの損失を最小限に抑えるため,反復的にトレーニング項目を選択する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Preference elicitation is an active learning approach to tackle the cold-start problem of recommender systems. Roughly speaking, new users are asked to rate some carefully selected items in order to compute appropriate recommendations for them. To the best of our knowledge, we are the first to propose a method for preference elicitation that is based on SLIM , a state-of-the-art technique for top-N recommendation. Our approach mainly consists of a new training technique for SLIM, which we call Greedy SLIM. This technique iteratively selects items for the training in order to minimize the SLIM loss greedily. We conduct offline experiments as well as a user study to assess the performance of this new method. The results are remarkable, especially with respect to the user study. We conclude that Greedy SLIM seems to be more suitable for preference elicitation than widely used methods based on latent factor models.
- Abstract(参考訳): 優先推論は、推薦システムのコールドスタート問題に取り組むためのアクティブな学習手法である。
大まかに言えば、新しいユーザーは、適切なレコメンデーションを計算するために、慎重に選択された項目を評価するよう求められている。
我々はまず,トップNレコメンデーションのための最先端技術であるSLIMをベースとした選好選好手法を提案する。
本手法は主に,Greedy SLIMと呼ばれるSLIMの新しいトレーニング技術から成り立っている。
本手法は,SLIM損失を最小限に抑えるため,トレーニング項目を反復的に選択する。
我々は,本手法の性能を評価するために,オフライン実験とユーザスタディを実施している。
結果は、特にユーザスタディに関して、目覚ましい。
We conclusion that Greedy SLIM is suitable for preference elicitation than widely use method based on latent factor model。
関連論文リスト
- Knowledge Distillation Approaches for Accurate and Efficient Recommender System [8.27119606183475]
この論文は、レコメンデーターシステムのための知識蒸留法の開発に費やされている。
提案手法は,その知識源に応じて分類される。
異種推薦モデルのランク付け知識を圧縮する新しい学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-19T00:01:18Z) - Learning to Remove Cuts in Integer Linear Programming [57.15699051569638]
本研究では, 学習可能なパラメトリック基準の下で, 手法の前回の繰り返しで導入された前回のカットの除去について検討する。
基本的な最適化設定では、カット削除ポリシーは、ヒューマンベースおよび機械学習誘導のカット追加ポリシーよりも大幅に改善される可能性があることを実証する。
論文 参考訳(メタデータ) (2024-06-26T22:50:43Z) - Generative Explore-Exploit: Training-free Optimization of Generative Recommender Systems using LLM Optimizers [29.739736497044664]
生成レコメンデーションを最適化するためのトレーニング不要なアプローチを提案する。
本研究では,高いエンゲージメントを持つ生成アイテムを活用できるだけでなく,隠された集団の嗜好を積極的に探索し,発見できるジェネレーティブな探索・探索手法を提案する。
論文 参考訳(メタデータ) (2024-06-07T20:41:59Z) - ImplicitSLIM and How it Improves Embedding-based Collaborative Filtering [3.079311115297782]
ImplicitSLIMはスパース高次元データのための新しい教師なし学習手法である。
SLIMのようなモデルからの埋め込みを、計算的に安価でメモリ効率の良い方法で抽出することで、埋め込みベースのモデルを改善する。
我々は,ImplicitSLIMが性能を向上し,従来の協調フィルタリング手法と最先端のコンバージェンスを高速化することを示した。
論文 参考訳(メタデータ) (2024-05-31T21:19:41Z) - Contrastive Preference Learning: Learning from Human Feedback without RL [71.77024922527642]
本稿では、報酬関数を学習せずに好みから最適なポリシーを学習するアルゴリズムであるContrastive Preference Learning (CPL)を紹介する。
CPLは完全に非政治的であり、単純なコントラスト目的のみを使用し、任意のMDPに適用できる。
論文 参考訳(メタデータ) (2023-10-20T16:37:56Z) - Optimizing Audio Recommendations for the Long-Term: A Reinforcement
Learning Perspective [14.202749983552717]
本研究では,数週間ないし数ヶ月にわたって発生する結果に対して,レコメンデータシステムを最適化する問題について検討する。
我々は,数億のリスナーに対してパーソナライズされたレコメンデーションを行うポッドキャストレコメンデーションシステムにアプローチを適用した。
論文 参考訳(メタデータ) (2023-02-07T16:17:25Z) - Fast Offline Policy Optimization for Large Scale Recommendation [74.78213147859236]
我々は、カタログサイズと対数的にスケールするこれらのポリシー学習アルゴリズムの近似を導出する。
私たちの貢献は3つの新しいアイデアの組み合わせに基づいている。
我々の推定器は、単純なアプローチよりも桁違いに速いが、等しく良いポリシーを生成する。
論文 参考訳(メタデータ) (2022-08-08T11:54:11Z) - User Tampering in Reinforcement Learning Recommender Systems [2.28438857884398]
我々は、強化学習(RL)ベースのレコメンデーションアルゴリズム -- 'ユーザ改ざん' -- で発生する、ユニークな安全性上の懸念を強調します。
ユーザタンパリング(英: user tampering)とは、RLベースのレコメンデータシステムが、長期的なユーザエンゲージメントを最大化するためのポリシーの一環として、その提案を通じてメディアユーザの意見を操作できる状況である。
論文 参考訳(メタデータ) (2021-09-09T07:53:23Z) - Selective Classification via One-Sided Prediction [54.05407231648068]
片側予測(OSP)に基づく緩和は、実際に関係する高目標精度体制において、ほぼ最適カバレッジが得られるSCスキームをもたらす。
理論的には,SCとOSPのバウンダリ一般化を導出し,その手法が小さな誤差レベルでのカバレッジにおいて,技術手法の状態を強く上回ることを示す。
論文 参考訳(メタデータ) (2020-10-15T16:14:27Z) - Learning the Truth From Only One Side of the Story [58.65439277460011]
一般化線形モデルに焦点をあて、このサンプリングバイアスを調整しなければ、モデルは準最適に収束するか、あるいは最適解に収束しないかもしれないことを示す。
理論的保証を伴って適応的なアプローチを提案し、いくつかの既存手法を実証的に上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-08T18:20:28Z) - Reward Constrained Interactive Recommendation with Natural Language
Feedback [158.8095688415973]
制約強化強化学習(RL)フレームワークを提案する。
具体的には,ユーザの過去の嗜好に反するレコメンデーションを検出するために,識別器を利用する。
提案するフレームワークは汎用的であり,制約付きテキスト生成のタスクにさらに拡張されている。
論文 参考訳(メタデータ) (2020-05-04T16:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。