論文の概要: Developing Multi-Task Recommendations with Long-Term Rewards via Policy
Distilled Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2001.09595v1
- Date: Mon, 27 Jan 2020 06:05:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 08:01:06.436183
- Title: Developing Multi-Task Recommendations with Long-Term Rewards via Policy
Distilled Reinforcement Learning
- Title(参考訳): 政策蒸留強化学習による長期報酬によるマルチタスク勧告の開発
- Authors: Xi Liu, Li Li, Ping-Chun Hsieh, Muhe Xie, Yong Ge, Rui Chen
- Abstract要約: PoDiRe: 長期的なレコメンデーションの報酬に対処できる、アンダーラインポリティシックなアンダーラインレコメンダ。
この新しい勧告ソリューションは、深層強化学習と知識蒸留技術の結婚に基づいている。
- 参考スコア(独自算出の注目度): 19.882507897756852
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the explosive growth of online products and content, recommendation
techniques have been considered as an effective tool to overcome information
overload, improve user experience, and boost business revenue. In recent years,
we have observed a new desideratum of considering long-term rewards of multiple
related recommendation tasks simultaneously. The consideration of long-term
rewards is strongly tied to business revenue and growth. Learning multiple
tasks simultaneously could generally improve the performance of individual task
due to knowledge sharing in multi-task learning. While a few existing works
have studied long-term rewards in recommendations, they mainly focus on a
single recommendation task. In this paper, we propose {\it PoDiRe}: a
\underline{po}licy \underline{di}stilled \underline{re}commender that can
address long-term rewards of recommendations and simultaneously handle multiple
recommendation tasks. This novel recommendation solution is based on a marriage
of deep reinforcement learning and knowledge distillation techniques, which is
able to establish knowledge sharing among different tasks and reduce the size
of a learning model. The resulting model is expected to attain better
performance and lower response latency for real-time recommendation services.
In collaboration with Samsung Game Launcher, one of the world's largest
commercial mobile game platforms, we conduct a comprehensive experimental study
on large-scale real data with hundreds of millions of events and show that our
solution outperforms many state-of-the-art methods in terms of several standard
evaluation metrics.
- Abstract(参考訳): オンライン製品やコンテンツの爆発的な成長に伴い、レコメンデーション技術は情報過負荷を克服し、ユーザー体験を改善し、ビジネス収益を高める効果的なツールとして考えられてきた。
近年,複数の関連課題の長期報酬を同時に考慮する新たなデシデラタムが観測されている。
長期報酬の考慮は、ビジネス収益と成長に強く結びついている。
複数のタスクを同時に学習することで、マルチタスク学習における知識共有による個々のタスクのパフォーマンスが向上する。
いくつかの既存の研究は、リコメンデーションにおける長期的な報酬を研究してきたが、主に単一のレコメンデーションタスクに焦点を当てている。
本稿では, 長期のレコメンデーションの報酬に対処し, 複数のレコメンデーションタスクを同時に処理できる, \underline{po}licy \underline{di}stilled \underline{re}commenderを提案する。
この新たなレコメンデーションソリューションは、異なるタスク間で知識共有を確立し、学習モデルのサイズを減らすことができる、深層強化学習と知識蒸留技術の融合に基づいている。
結果のモデルでは、リアルタイムレコメンデーションサービスのパフォーマンス向上と応答遅延の低減が期待されている。
世界最大の商用モバイルゲームプラットフォームの1つであるSamsung Game Launcherと共同で、数億のイベントを含む大規模な実データに関する包括的な実験を行い、私たちのソリューションがいくつかの標準的な評価指標で多くの最先端メソッドより優れていることを示す。
関連論文リスト
- Efficient Multi-task Prompt Tuning for Recommendation [44.494367787067006]
本稿では,タスク非依存とトレーニング効率の問題に対処するため,新しい2段階のプロンプトチューニングMTLフレームワーク(MPT-Rec)を提案する。
MPT-Rec は SOTA マルチタスク学習法と比較して最高の性能を達成している。
論文 参考訳(メタデータ) (2024-08-30T11:38:51Z) - Enhancing Few-Shot Transfer Learning with Optimized Multi-Task Prompt Tuning through Modular Prompt Composition [0.0]
マルチタスクのプロンプトチューニングは、その固有のモジュラリティと、パラメータ効率のよい転送学習を向上する可能性に対して、かなりの注意を払っている。
本稿では,マルチタスク環境において,対応するプロンプト間の知識伝達を容易にすることで,複数のタスクのパフォーマンスを解析・改善することを目的とする。
論文 参考訳(メタデータ) (2024-08-23T17:01:51Z) - Personalized Multi-task Training for Recommender System [80.23030752707916]
PMTRecは、様々な情報ソースから包括的ユーザ/イテム埋め込みを得るための、最初のパーソナライズされたマルチタスク学習アルゴリズムである。
我々の貢献は、レコメンデーションシステムにおけるパーソナライズされたマルチタスクトレーニングを促進するための新しい道を開く。
論文 参考訳(メタデータ) (2024-07-31T06:27:06Z) - Sharing Knowledge in Multi-Task Deep Reinforcement Learning [57.38874587065694]
マルチタスク強化学習において、ディープニューラルネットワークを効果的に活用するためのタスク間の表現の共有の利点について検討する。
我々は,タスク間で表現を共有するのに便利な条件を強調する理論的保証を提供することで,これを証明している。
論文 参考訳(メタデータ) (2024-01-17T19:31:21Z) - Design Perspectives of Multitask Deep Learning Models and Applications [1.3701366534590496]
マルチタスク学習はモデルをさらに一般化することができた。
我々は,関連するタスク間で機能を共有することで,マルチタスクモデルの特徴マッピングを強化することを試みる。
また,マルチタスク学習のメリットを享受するために,タスク間のタスク関係を学習することに関心がある。
論文 参考訳(メタデータ) (2022-09-27T15:04:31Z) - Multi-Task Fusion via Reinforcement Learning for Long-Term User
Satisfaction in Recommender Systems [3.4394890850129007]
バッチ強化学習に基づくマルチタスク融合フレームワーク(BatchRL-MTF)を提案する。
我々は、長期ユーザー満足のために、固定バッチデータから最適なレコメンデーションポリシーをオフラインで学習する。
ユーザの行動に関する包括的調査により,ユーザの定着度とユーザ活動性の2つの側面から,ユーザ満足度報酬を微妙にモデル化する。
論文 参考訳(メタデータ) (2022-08-09T06:35:05Z) - Relational Experience Replay: Continual Learning by Adaptively Tuning
Task-wise Relationship [54.73817402934303]
本稿では,2段階の学習フレームワークである経験連続再生(ERR)を提案する。
ERRは、すべてのベースラインの性能を一貫して改善し、現在の最先端の手法を超えることができる。
論文 参考訳(メタデータ) (2021-12-31T12:05:22Z) - Information Directed Reward Learning for Reinforcement Learning [64.33774245655401]
我々は、標準rlアルゴリズムが可能な限り少数の専門家クエリで高い期待値を達成することができる報酬関数のモデルを学ぶ。
特定のタイプのクエリ用に設計された以前のアクティブな報酬学習方法とは対照的に、IDRLは自然に異なるクエリタイプに対応します。
我々は,複数の環境における広範囲な評価と,異なるタイプのクエリでこの結果を支持する。
論文 参考訳(メタデータ) (2021-02-24T18:46:42Z) - Generative Inverse Deep Reinforcement Learning for Online Recommendation [62.09946317831129]
オンラインレコメンデーションのための新しい逆強化学習手法InvRecを提案する。
InvRecは、オンラインレコメンデーションのために、ユーザの行動から報酬関数を自動的に抽出する。
論文 参考訳(メタデータ) (2020-11-04T12:12:25Z) - Learning From Multiple Experts: Self-paced Knowledge Distillation for
Long-tailed Classification [106.08067870620218]
我々は,LFME(Learning From Multiple Experts)と呼ばれる自己評価型知識蒸留フレームワークを提案する。
提案するLFMEフレームワークは,複数の'Experts'からの知識を集約して,統一された学生モデルを学ぶ。
提案手法は,最先端の手法に比べて優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-01-06T12:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。