論文の概要: On the Opportunities and Challenges of Offline Reinforcement Learning
for Recommender Systems
- arxiv url: http://arxiv.org/abs/2308.11336v1
- Date: Tue, 22 Aug 2023 10:28:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 13:25:44.301837
- Title: On the Opportunities and Challenges of Offline Reinforcement Learning
for Recommender Systems
- Title(参考訳): 推薦システムにおけるオフライン強化学習の機会と課題
- Authors: Xiaocong Chen, Siyu Wang, Julian McAuley, Dietmar Jannach and Lina Yao
- Abstract要約: 強化学習は、推薦システム内の動的なユーザ興味をモデリングするための強力なツールである。
オフライン強化学習における最近の進歩は、新しい視点を示している。
急成長している分野であるにもかかわらず、オフラインの強化学習を利用したレコメンデーションシステムを中心とした作業は依然として限られている。
- 参考スコア(独自算出の注目度): 36.608400817940236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning serves as a potent tool for modeling dynamic user
interests within recommender systems, garnering increasing research attention
of late. However, a significant drawback persists: its poor data efficiency,
stemming from its interactive nature. The training of reinforcement
learning-based recommender systems demands expensive online interactions to
amass adequate trajectories, essential for agents to learn user preferences.
This inefficiency renders reinforcement learning-based recommender systems a
formidable undertaking, necessitating the exploration of potential solutions.
Recent strides in offline reinforcement learning present a new perspective.
Offline reinforcement learning empowers agents to glean insights from offline
datasets and deploy learned policies in online settings. Given that recommender
systems possess extensive offline datasets, the framework of offline
reinforcement learning aligns seamlessly. Despite being a burgeoning field,
works centered on recommender systems utilizing offline reinforcement learning
remain limited. This survey aims to introduce and delve into offline
reinforcement learning within recommender systems, offering an inclusive review
of existing literature in this domain. Furthermore, we strive to underscore
prevalent challenges, opportunities, and future pathways, poised to propel
research in this evolving field.
- Abstract(参考訳): 強化学習は、レコメンダシステム内の動的ユーザの関心をモデリングするための強力なツールとなり、研究の注目を集めている。
しかし、データ効率が悪く、インタラクティブな性質が原因で、大きな欠点が続いている。
強化学習ベースのレコメンダシステムのトレーニングは、エージェントがユーザの好みを学ぶのに必須の、適切な軌道を蓄積するために、高価なオンラインインタラクションを要求する。
この非効率さは、強化学習に基づくレコメンデータシステムに、潜在的ソリューションの探索を必要とする、恐ろしい作業を与える。
オフライン強化学習の最近の進歩は、新しい視点を示している。
オフライン強化学習は、オフラインデータセットからの洞察を収集し、オンライン設定で学習ポリシーをデプロイするエージェントに権限を与える。
推奨システムは広範なオフラインデータセットを持つため、オフライン強化学習のフレームワークはシームレスに整列する。
急成長する分野であるにもかかわらず、オフラインの強化学習を利用したレコメンダシステムを中心とした作品は限られている。
本調査は,レコメンダシステムにおけるオフライン強化学習の導入と展開を目標とし,既存の文献の包括的レビューを提供する。
さらに、我々は、この発展途上の分野の研究を推進すべく、普及する課題、機会、そして将来の道筋を浮き彫りにしようと努めている。
関連論文リスト
- Small Dataset, Big Gains: Enhancing Reinforcement Learning by Offline
Pre-Training with Model Based Augmentation [59.899714450049494]
オフラインの事前トレーニングは、準最適ポリシーを生成し、オンライン強化学習のパフォーマンスを低下させる可能性がある。
本稿では,オフライン強化学習による事前学習のメリットを最大化し,有効となるために必要なデータの規模を削減するためのモデルベースデータ拡張戦略を提案する。
論文 参考訳(メタデータ) (2023-12-15T14:49:41Z) - Embedding in Recommender Systems: A Survey [67.67966158305603]
重要な側面は、ユーザやアイテムIDといった高次元の離散的な特徴を低次元連続ベクトルに包含する技法である。
埋め込み技術の適用は複雑なエンティティ関係を捉え、かなりの研究を刺激している。
この調査では、協調フィルタリング、自己教師付き学習、グラフベースのテクニックなどの埋め込み手法を取り上げている。
論文 参考訳(メタデータ) (2023-10-28T06:31:06Z) - Online Matching: A Real-time Bandit System for Large-scale
Recommendations [23.954049092470548]
Online Matchingは、ユーザのアイテムに対する直接的なフィードバックをリアルタイムで学習する、スケーラブルなクローズドループバンディットシステムである。
Diag-LinUCBはLinUCBアルゴリズムの新たな拡張であり、スケーラブルでタイムリーな方法で帯域幅パラメータの分散更新を可能にする。
論文 参考訳(メタデータ) (2023-07-29T05:46:27Z) - Interactive Search Based on Deep Reinforcement Learning [4.353144350714567]
このプロジェクトは主にオフライントレーニングのための仮想ユーザ環境を確立する。
同時に,2クラスタリングに基づく強化学習アルゴリズムを改良して,推奨エージェントの行動空間と推奨経路空間を拡張することを試みた。
論文 参考訳(メタデータ) (2020-12-09T15:23:53Z) - Generative Inverse Deep Reinforcement Learning for Online Recommendation [62.09946317831129]
オンラインレコメンデーションのための新しい逆強化学習手法InvRecを提案する。
InvRecは、オンラインレコメンデーションのために、ユーザの行動から報酬関数を自動的に抽出する。
論文 参考訳(メタデータ) (2020-11-04T12:12:25Z) - Offline Reinforcement Learning: Tutorial, Review, and Perspectives on
Open Problems [108.81683598693539]
オフラインの強化学習アルゴリズムは、巨大なデータセットを強力な意思決定エンジンにできるという、大きな約束を持っています。
我々は,これらの課題,特に近代的な深層強化学習手法の文脈において,読者にこれらの課題を理解することを目的としている。
論文 参考訳(メタデータ) (2020-05-04T17:00:15Z) - Knowledge-guided Deep Reinforcement Learning for Interactive
Recommendation [49.32287384774351]
インタラクティブレコメンデーションは、アイテムとユーザ間の動的インタラクションから学び、応答性と精度を達成することを目的としている。
本稿では,知識指導型深層強化学習を提案する。
論文 参考訳(メタデータ) (2020-04-17T05:26:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。