論文の概要: Greedy SLIM: A SLIM-Based Approach For Preference Elicitation
- arxiv url: http://arxiv.org/abs/2406.06061v1
- Date: Mon, 10 Jun 2024 07:18:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-11 14:46:46.887922
- Title: Greedy SLIM: A SLIM-Based Approach For Preference Elicitation
- Title(参考訳): Greedy SLIM: SLIM-based Approach for Preference Elicitation
- Authors: Claudius Proissl, Amel Vatic, Helmut Waldschmidt,
- Abstract要約: 新しいユーザは、適切なレコメンデーションを計算するために、慎重に選択された項目を評価するように求められます。
SLIMに基づく嗜好評価手法を提案する。
Greedy SLIMと呼ぶSLIMの新しいトレーニング手法では,SLIMの損失を最小限に抑えるため,反復的にトレーニング項目を選択する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Preference elicitation is an active learning approach to tackle the cold-start problem of recommender systems. Roughly speaking, new users are asked to rate some carefully selected items in order to compute appropriate recommendations for them. To the best of our knowledge, we are the first to propose a method for preference elicitation that is based on SLIM , a state-of-the-art technique for top-N recommendation. Our approach mainly consists of a new training technique for SLIM, which we call Greedy SLIM. This technique iteratively selects items for the training in order to minimize the SLIM loss greedily. We conduct offline experiments as well as a user study to assess the performance of this new method. The results are remarkable, especially with respect to the user study. We conclude that Greedy SLIM seems to be more suitable for preference elicitation than widely used methods based on latent factor models.
- Abstract(参考訳): 優先推論は、推薦システムのコールドスタート問題に取り組むためのアクティブな学習手法である。
大まかに言えば、新しいユーザーは、適切なレコメンデーションを計算するために、慎重に選択された項目を評価するよう求められている。
我々はまず,トップNレコメンデーションのための最先端技術であるSLIMをベースとした選好選好手法を提案する。
本手法は主に,Greedy SLIMと呼ばれるSLIMの新しいトレーニング技術から成り立っている。
本手法は,SLIM損失を最小限に抑えるため,トレーニング項目を反復的に選択する。
我々は,本手法の性能を評価するために,オフライン実験とユーザスタディを実施している。
結果は、特にユーザスタディに関して、目覚ましい。
We conclusion that Greedy SLIM is suitable for preference elicitation than widely use method based on latent factor model。
関連論文リスト
- STAR: A Simple Training-free Approach for Recommendations using Large Language Models [36.18841135511487]
大規模言語モデル(LLM)の最近の進歩は、レコメンデーションシステム(RecSys)タスクに有望な新しいアプローチを提供する。
LLMを利用するフレームワークを提案し、微調整を必要とせずに様々なレコメンデーションタスクに適用できる。
本手法はHits@10のパフォーマンスが23.8%,Toys and Gamesが37.5%,Sports and Outdoorsが1.8%であった。
論文 参考訳(メタデータ) (2024-10-21T19:34:40Z) - Large Language Model Empowered Embedding Generator for Sequential Recommendation [57.49045064294086]
大言語モデル(LLM)は、その人気に関係なく、項目間の意味的関係を理解する能力を持つ。
LLMEmbは、LCMを利用してアイテム埋め込みを作成し、シークエンシャル・レコメンダ・システムの性能を高める革新的な技術である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z) - Incorporate LLMs with Influential Recommender System [34.5820082133773]
プロアクティブレコメンデーションシステムは、ターゲットアイテムに対するユーザの関心を導くために、一連のアイテムを推奨します。
既存のメソッドは、ユーザが楽しむであろうアイテムで構成された一貫性のある影響パスを構築するのに苦労しています。
LLM-based Influence Path Planning (LLM-IPP) という新しいアプローチを導入する。
提案手法は,連続したレコメンデーションの一貫性を維持し,推奨項目のユーザ受け入れ性を高める。
論文 参考訳(メタデータ) (2024-09-07T13:41:37Z) - Knowledge Distillation Approaches for Accurate and Efficient Recommender System [8.27119606183475]
この論文は、レコメンデーターシステムのための知識蒸留法の開発に費やされている。
提案手法は,その知識源に応じて分類される。
異種推薦モデルのランク付け知識を圧縮する新しい学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-19T00:01:18Z) - Learning to Remove Cuts in Integer Linear Programming [57.15699051569638]
本研究では, 学習可能なパラメトリック基準の下で, 手法の前回の繰り返しで導入された前回のカットの除去について検討する。
基本的な最適化設定では、カット削除ポリシーは、ヒューマンベースおよび機械学習誘導のカット追加ポリシーよりも大幅に改善される可能性があることを実証する。
論文 参考訳(メタデータ) (2024-06-26T22:50:43Z) - Generative Explore-Exploit: Training-free Optimization of Generative Recommender Systems using LLM Optimizers [29.739736497044664]
生成レコメンデーションを最適化するためのトレーニング不要なアプローチを提案する。
本研究では,高いエンゲージメントを持つ生成アイテムを活用できるだけでなく,隠された集団の嗜好を積極的に探索し,発見できるジェネレーティブな探索・探索手法を提案する。
論文 参考訳(メタデータ) (2024-06-07T20:41:59Z) - Contrastive Preference Learning: Learning from Human Feedback without RL [71.77024922527642]
本稿では、報酬関数を学習せずに好みから最適なポリシーを学習するアルゴリズムであるContrastive Preference Learning (CPL)を紹介する。
CPLは完全に非政治的であり、単純なコントラスト目的のみを使用し、任意のMDPに適用できる。
論文 参考訳(メタデータ) (2023-10-20T16:37:56Z) - User Tampering in Reinforcement Learning Recommender Systems [2.28438857884398]
我々は、強化学習(RL)ベースのレコメンデーションアルゴリズム -- 'ユーザ改ざん' -- で発生する、ユニークな安全性上の懸念を強調します。
ユーザタンパリング(英: user tampering)とは、RLベースのレコメンデータシステムが、長期的なユーザエンゲージメントを最大化するためのポリシーの一環として、その提案を通じてメディアユーザの意見を操作できる状況である。
論文 参考訳(メタデータ) (2021-09-09T07:53:23Z) - Selective Classification via One-Sided Prediction [54.05407231648068]
片側予測(OSP)に基づく緩和は、実際に関係する高目標精度体制において、ほぼ最適カバレッジが得られるSCスキームをもたらす。
理論的には,SCとOSPのバウンダリ一般化を導出し,その手法が小さな誤差レベルでのカバレッジにおいて,技術手法の状態を強く上回ることを示す。
論文 参考訳(メタデータ) (2020-10-15T16:14:27Z) - Learning the Truth From Only One Side of the Story [58.65439277460011]
一般化線形モデルに焦点をあて、このサンプリングバイアスを調整しなければ、モデルは準最適に収束するか、あるいは最適解に収束しないかもしれないことを示す。
理論的保証を伴って適応的なアプローチを提案し、いくつかの既存手法を実証的に上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-08T18:20:28Z) - Reward Constrained Interactive Recommendation with Natural Language
Feedback [158.8095688415973]
制約強化強化学習(RL)フレームワークを提案する。
具体的には,ユーザの過去の嗜好に反するレコメンデーションを検出するために,識別器を利用する。
提案するフレームワークは汎用的であり,制約付きテキスト生成のタスクにさらに拡張されている。
論文 参考訳(メタデータ) (2020-05-04T16:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。