論文の概要: Optimizing Audio Recommendations for the Long-Term: A Reinforcement
Learning Perspective
- arxiv url: http://arxiv.org/abs/2302.03561v1
- Date: Tue, 7 Feb 2023 16:17:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-08 15:47:18.979901
- Title: Optimizing Audio Recommendations for the Long-Term: A Reinforcement
Learning Perspective
- Title(参考訳): 長期音声推薦の最適化:強化学習の視点から
- Authors: Lucas Maystre, Daniel Russo, Yu Zhao
- Abstract要約: 本研究では,数週間ないし数ヶ月にわたって発生する結果に対して,レコメンデータシステムを最適化する問題について検討する。
我々は,数億のリスナーに対してパーソナライズされたレコメンデーションを行うポッドキャストレコメンデーションシステムにアプローチを適用した。
- 参考スコア(独自算出の注目度): 14.202749983552717
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of optimizing a recommender system for outcomes that
occur over several weeks or months. We begin by drawing on reinforcement
learning to formulate a comprehensive model of users' recurring relationships
with a recommender system. Measurement, attribution, and coordination
challenges complicate algorithm design. We describe careful modeling --
including a new representation of user state and key conditional independence
assumptions -- which overcomes these challenges and leads to simple, testable
recommender system prototypes. We apply our approach to a podcast recommender
system that makes personalized recommendations to hundreds of millions of
listeners. A/B tests demonstrate that purposefully optimizing for long-term
outcomes leads to large performance gains over conventional approaches that
optimize for short-term proxies.
- Abstract(参考訳): 本研究では,数週間から数ヶ月の成果に対してレコメンダシステムを最適化する問題について検討する。
まず,レコメンデーションシステムを用いて,ユーザの繰り返し関係の包括的モデルを定式化する強化学習について考察する。
計測、帰属、コーディネーションの課題はアルゴリズム設計を複雑にする。
我々は、これらの課題を克服し、シンプルでテスト可能なシステムプロトタイプにつながる、慎重にモデリングする(ユーザ状態とキー条件独立の仮定の表現を含む)。
我々は,数億のリスナーに対してパーソナライズされたレコメンデーションを行うポッドキャストレコメンデーションシステムにアプローチを適用した。
A/Bテストは、長期的結果を意図的に最適化することで、短期プロキシを最適化する従来のアプローチよりも大きなパフォーマンス向上をもたらすことを示した。
関連論文リスト
- AdaRec: Adaptive Sequential Recommendation for Reinforcing Long-term
User Engagement [25.18963930580529]
本稿では,AdaRec(Adaptive Sequential Recommendation)と呼ばれる新しいパラダイムを紹介し,この問題に対処する。
AdaRecは、ユーザのインタラクション軌跡から潜時情報を抽出する、新しい距離ベース表現損失を提案する。
シミュレーションベースとライブシーケンシャルなレコメンデーションタスクの両方において、広範な実証分析を行う。
論文 参考訳(メタデータ) (2023-10-06T02:45:21Z) - Breaking Feedback Loops in Recommender Systems with Causal Inference [99.22185950608838]
近年の研究では、フィードバックループが推奨品質を損なう可能性があり、ユーザの振る舞いを均質化している。
本稿では、因果推論を用いてフィードバックループを確実に破壊するアルゴリズムCAFLを提案する。
従来の補正手法と比較して,CAFLは推奨品質を向上することを示す。
論文 参考訳(メタデータ) (2022-07-04T17:58:39Z) - Recommendation Fairness: From Static to Dynamic [12.080824433982993]
推薦のための強化学習手法に公平性を組み込む方法について論じる。
我々は、推薦公正性をさらに前進させるために、マルチエージェント(ゲーム理論)最適化、マルチオブジェクト(パレート)最適化を検討すべきかもしれないと論じる。
論文 参考訳(メタデータ) (2021-09-05T21:38:05Z) - Top-N Recommendation with Counterfactual User Preference Simulation [26.597102553608348]
ユーザーランキングに基づく好みの学習を目的としたTop-Nレコメンデーションは、長い間、広範囲のアプリケーションにおいて基本的な問題だった。
本稿では,データ不足問題に対処するため,因果推論フレームワーク内での推薦タスクの再構築を提案する。
論文 参考訳(メタデータ) (2021-09-02T14:28:46Z) - PURS: Personalized Unexpected Recommender System for Improving User
Satisfaction [76.98616102965023]
本稿では、予期せぬことを推奨プロセスに組み込んだ、新しいPersonalized Unexpected Recommender System(PURS)モデルについて述べる。
3つの実世界のデータセットに対する大規模なオフライン実験は、提案されたPURSモデルが最先端のベースラインアプローチを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2021-06-05T01:33:21Z) - Hybrid Model with Time Modeling for Sequential Recommender Systems [0.15229257192293202]
Booking.comはWSDM WebTour 2021 Challengeを組織した。
レコメンダシステムのための最先端のディープラーニングアーキテクチャをテストするために,いくつかの実験を行った。
実験結果から,narmの改善は他のベンチマーク手法よりも優れていた。
論文 参考訳(メタデータ) (2021-03-07T19:28:22Z) - Offline Meta-level Model-based Reinforcement Learning Approach for
Cold-Start Recommendation [27.17948754183511]
強化学習は、リコメンデータシステムに対する長期的なユーザの関心を最適化する上で大きな可能性を秘めている。
既存のRLベースのレコメンデーション手法では、ユーザが堅牢なレコメンデーションポリシーを学ぶために、多数のインタラクションが必要である。
本稿では,ユーザ適応の高速化を目的としたメタレベルモデルに基づく強化学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-04T08:58:35Z) - Fast Rates for Contextual Linear Optimization [52.39202699484225]
提案手法は, 下流決定性能を直接最適化する手法よりもはるかに高速な, 後悔の収束率を実現する。
予測モデルは、既存のツールを使ったトレーニングが簡単かつ高速で、解釈が簡単で、私たちが示しているように、非常にうまく機能する決定につながる。
論文 参考訳(メタデータ) (2020-11-05T18:43:59Z) - Latent Unexpected Recommendations [89.2011481379093]
ユーザとアイテムの埋め込みの潜伏した空間における予測性をモデル化し、新しいレコメンデーションと歴史的購入の間の隠れた複雑な関係を捉えることを提案する。
さらに,ハイブリッドユーティリティ機能の構築と,提案モデルに基づく予期せぬ推薦を行うための新しい潜在クロージャ(LC)手法を開発した。
論文 参考訳(メタデータ) (2020-07-27T02:39:30Z) - Self-Supervised Reinforcement Learning for Recommender Systems [77.38665506495553]
逐次リコメンデーションタスクのための自己指導型強化学習を提案する。
提案手法は,2つの出力層を持つ標準レコメンデーションモデルを強化する。
このようなアプローチに基づいて、自己監督型Q-ラーニング(SQN)と自己監督型アクター・クライブ(SAC)という2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T11:18:57Z) - Reward Constrained Interactive Recommendation with Natural Language
Feedback [158.8095688415973]
制約強化強化学習(RL)フレームワークを提案する。
具体的には,ユーザの過去の嗜好に反するレコメンデーションを検出するために,識別器を利用する。
提案するフレームワークは汎用的であり,制約付きテキスト生成のタスクにさらに拡張されている。
論文 参考訳(メタデータ) (2020-05-04T16:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。