論文の概要: Representation Learning in Low-rank Slate-based Recommender Systems
- arxiv url: http://arxiv.org/abs/2309.08622v2
- Date: Tue, 19 Sep 2023 03:05:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 18:40:29.592336
- Title: Representation Learning in Low-rank Slate-based Recommender Systems
- Title(参考訳): 低ランクスレート型レコメンダシステムにおける表現学習
- Authors: Yijia Dai, Wen Sun
- Abstract要約: 低ランクマルコフ決定プロセス(MDP)を用いたオンラインRL問題として扱うために,標準スレートレコメンデーション設定を用いたサンプル効率表現学習アルゴリズムを提案する。
また,提案手法を用いて,提案手法を用いて推薦者シミュレーション環境を構築する。
- 参考スコア(独自算出の注目度): 9.550552949693566
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Reinforcement learning (RL) in recommendation systems offers the potential to
optimize recommendations for long-term user engagement. However, the
environment often involves large state and action spaces, which makes it hard
to efficiently learn and explore. In this work, we propose a sample-efficient
representation learning algorithm, using the standard slate recommendation
setup, to treat this as an online RL problem with low-rank Markov decision
processes (MDPs). We also construct the recommender simulation environment with
the proposed setup and sampling method.
- Abstract(参考訳): 推薦システムにおける強化学習(RL)は、長期的なユーザエンゲージメントのための推奨を最適化する能力を提供する。
しかし、環境はしばしば大きな状態と行動空間を伴い、効率的に学び、探索することは困難である。
本研究では,標準スレートレコメンデーション設定を用いて,これを低ランクマルコフ決定プロセス(MDP)を用いたオンラインRL問題として扱うために,サンプル効率のよい表現学習アルゴリズムを提案する。
また,提案手法を用いて,提案手法を用いて推薦者シミュレーション環境を構築する。
関連論文リスト
- Empowering Few-Shot Recommender Systems with Large Language Models --
Enhanced Representations [0.0]
大規模言語モデル(LLM)は、明示的なフィードバックベースのレコメンデータシステムで遭遇する少数のシナリオに対処するための、新たな洞察を提供する。
我々の研究は、LLMがレコメンデーターシステムに関わっていることの多面的側面を深く掘り下げるために、研究者に刺激を与えることができる。
論文 参考訳(メタデータ) (2023-12-21T03:50:09Z) - AdaRec: Adaptive Sequential Recommendation for Reinforcing Long-term
User Engagement [25.18963930580529]
本稿では,AdaRec(Adaptive Sequential Recommendation)と呼ばれる新しいパラダイムを紹介し,この問題に対処する。
AdaRecは、ユーザのインタラクション軌跡から潜時情報を抽出する、新しい距離ベース表現損失を提案する。
シミュレーションベースとライブシーケンシャルなレコメンデーションタスクの両方において、広範な実証分析を行う。
論文 参考訳(メタデータ) (2023-10-06T02:45:21Z) - Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach [83.62750225073341]
我々は、大規模言語モデル(LLM)による指示としてレコメンデーションを考える。
まず、ユーザの好み、意図、タスクフォーム、コンテキストを自然言語で記述するための一般的な命令形式を設計する。
そして、39の命令テンプレートを手動で設計し、大量のユーザ個人化された命令データを自動的に生成する。
論文 参考訳(メタデータ) (2023-05-11T17:39:07Z) - Optimizing Audio Recommendations for the Long-Term: A Reinforcement
Learning Perspective [14.202749983552717]
本研究では,数週間ないし数ヶ月にわたって発生する結果に対して,レコメンデータシステムを最適化する問題について検討する。
我々は,数億のリスナーに対してパーソナライズされたレコメンデーションを行うポッドキャストレコメンデーションシステムにアプローチを適用した。
論文 参考訳(メタデータ) (2023-02-07T16:17:25Z) - Generative Slate Recommendation with Reinforcement Learning [49.75985313698214]
強化学習アルゴリズムは、レコメンデータシステムのユーザエンゲージメントを最適化するために使用することができる。
しかし、RLアプローチはスレートレコメンデーションシナリオでは難解である。
この設定では、アクションはアイテムの組み合わせを含むことができるスレートに対応する。
本研究では,変分オートエンコーダによって学習された連続低次元ラテント空間におけるスレートの符号化を提案する。
我々は、(i)以前の作業で要求される仮定を緩和し、(ii)完全なスレートをモデル化することで、アクション選択の品質を向上させることができる。
論文 参考訳(メタデータ) (2023-01-20T15:28:09Z) - Breaking Feedback Loops in Recommender Systems with Causal Inference [99.22185950608838]
近年の研究では、フィードバックループが推奨品質を損なう可能性があり、ユーザの振る舞いを均質化している。
本稿では、因果推論を用いてフィードバックループを確実に破壊するアルゴリズムCAFLを提案する。
従来の補正手法と比較して,CAFLは推奨品質を向上することを示す。
論文 参考訳(メタデータ) (2022-07-04T17:58:39Z) - CausPref: Causal Preference Learning for Out-of-Distribution
Recommendation [36.22965012642248]
現在のレコメンデータシステムは、現実的なシナリオにおけるユーザやアイテムの配布シフトに対して、依然として脆弱である。
本稿では,推奨特化DAG学習者を因果選好に基づく推薦フレームワークCausPrefに組み込むことを提案する。
当社のアプローチは、アウト・オブ・ディストリビューション・セッティングのタイプにおいて、ベンチマークモデルを大幅に上回っている。
論文 参考訳(メタデータ) (2022-02-08T16:42:03Z) - Supervised Advantage Actor-Critic for Recommender Systems [76.7066594130961]
本稿では、RL成分を学習するための負のサンプリング戦略を提案し、それを教師付き逐次学習と組み合わせる。
サンプル化された(負の)作用 (items) に基づいて、平均ケース上での正の作用の「アドバンテージ」を計算することができる。
SNQNとSA2Cを4つのシーケンシャルレコメンデーションモデルでインスタンス化し、2つの実世界のデータセットで実験を行う。
論文 参考訳(メタデータ) (2021-11-05T12:51:15Z) - User Tampering in Reinforcement Learning Recommender Systems [2.28438857884398]
我々は、強化学習(RL)ベースのレコメンデーションアルゴリズム -- 'ユーザ改ざん' -- で発生する、ユニークな安全性上の懸念を強調します。
ユーザタンパリング(英: user tampering)とは、RLベースのレコメンデータシステムが、長期的なユーザエンゲージメントを最大化するためのポリシーの一環として、その提案を通じてメディアユーザの意見を操作できる状況である。
論文 参考訳(メタデータ) (2021-09-09T07:53:23Z) - Improving Long-Term Metrics in Recommendation Systems using
Short-Horizon Offline RL [56.20835219296896]
セッションベースのレコメンデーションシナリオについて検討し、シーケンシャルなインタラクションの間、ユーザに対してアイテムを推薦し、長期的なユーティリティを改善する。
我々は、セッション間のポリシーによる分散シフトを近似するショートホライズンポリシー改善(SHPI)と呼ばれる新しいバッチRLアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-06-01T15:58:05Z) - Self-Supervised Reinforcement Learning for Recommender Systems [77.38665506495553]
逐次リコメンデーションタスクのための自己指導型強化学習を提案する。
提案手法は,2つの出力層を持つ標準レコメンデーションモデルを強化する。
このようなアプローチに基づいて、自己監督型Q-ラーニング(SQN)と自己監督型アクター・クライブ(SAC)という2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T11:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。