論文の概要: Learning to Suggest Breaks: Sustainable Optimization of Long-Term User
Engagement
- arxiv url: http://arxiv.org/abs/2211.13585v2
- Date: Wed, 7 Jun 2023 16:06:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 19:52:16.486004
- Title: Learning to Suggest Breaks: Sustainable Optimization of Long-Term User
Engagement
- Title(参考訳): Suggest Breaks: 長期的なユーザエンゲージメントの持続可能な最適化
- Authors: Eden Saig, Nir Rosenfeld
- Abstract要約: 本稿では,レコメンデーションにおけるブレークの役割について検討し,最適なブレークポリシーを学習するための枠組みを提案する。
推奨力学は正と負の両方のフィードバックに影響を受けやすいという概念に基づいて,ロトカ・ボルテラの力学系としてレコメンデーションを提唱した。
- 参考スコア(独自算出の注目度): 12.843340232167266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimizing user engagement is a key goal for modern recommendation systems,
but blindly pushing users towards increased consumption risks burn-out, churn,
or even addictive habits. To promote digital well-being, most platforms now
offer a service that periodically prompts users to take breaks. These, however,
must be set up manually, and so may be suboptimal for both users and the
system. In this paper, we study the role of breaks in recommendation, and
propose a framework for learning optimal breaking policies that promote and
sustain long-term engagement. Based on the notion that recommendation dynamics
are susceptible to both positive and negative feedback, we cast recommendation
as a Lotka-Volterra dynamical system, where breaking reduces to a problem of
optimal control. We then give an efficient learning algorithm, provide
theoretical guarantees, and empirically demonstrate the utility of our approach
on semi-synthetic data.
- Abstract(参考訳): ユーザのエンゲージメントを最適化することは、現代のレコメンデーションシステムにとって重要な目標だが、消費リスクの増大、燃え尽き症候群、中毒性など、ユーザに盲目的に促す。
デジタル幸福を促進するために、ほとんどのプラットフォームは定期的に休憩を促すサービスを提供している。
しかし、これらは手動で設定する必要があるため、ユーザーとシステムの両方に最適ではないかもしれない。
本稿では,推奨事項におけるブレークの役割について検討し,長期的な取り組みを促進・持続する最適なブレークポリシーを学ぶための枠組みを提案する。
レコメンデーションダイナミクスはポジティブなフィードバックとネガティブなフィードバックの両方に影響を受けやすいという考えに基づいて、我々はレコメンデーションをロッカ・ボルテラ力学系として位置づけた。
次に、効率的な学習アルゴリズムを提供し、理論的保証を提供し、半合成データに対するアプローチの有用性を実証的に実証する。
関連論文リスト
- RAH! RecSys-Assistant-Human: A Human-Centered Recommendation Framework
with LLM Agents [30.250555783628762]
この研究は、これらの問題に対処することは単にレコメンダシステムの責任ではないと主張している。
本稿では,RAH Recommenderシステム,Assistant,Humanフレームワークを紹介する。
私たちのコントリビューションは、さまざまなレコメンデーションモデルと効果的に連携する、人間中心のレコメンデーションフレームワークを提供します。
論文 参考訳(メタデータ) (2023-08-19T04:46:01Z) - Optimizing Long-term Value for Auction-Based Recommender Systems via
On-Policy Reinforcement Learning [4.980374959955476]
オークションベースのレコメンデーターシステムはオンライン広告プラットフォームで広く使われているが、通常、すぐに期待されるリターン指標に基づいてレコメンデーションスロットを割り当てるように最適化されている。
オークションベースのレコメンデーションシステムにおいて,長期リターン指標の最適化に強化学習を用いる。
論文 参考訳(メタデータ) (2023-05-23T07:04:38Z) - Optimizing Audio Recommendations for the Long-Term: A Reinforcement
Learning Perspective [14.202749983552717]
本研究では,数週間ないし数ヶ月にわたって発生する結果に対して,レコメンデータシステムを最適化する問題について検討する。
我々は,数億のリスナーに対してパーソナライズされたレコメンデーションを行うポッドキャストレコメンデーションシステムにアプローチを適用した。
論文 参考訳(メタデータ) (2023-02-07T16:17:25Z) - Recommendation Fairness: From Static to Dynamic [12.080824433982993]
推薦のための強化学習手法に公平性を組み込む方法について論じる。
我々は、推薦公正性をさらに前進させるために、マルチエージェント(ゲーム理論)最適化、マルチオブジェクト(パレート)最適化を検討すべきかもしれないと論じる。
論文 参考訳(メタデータ) (2021-09-05T21:38:05Z) - FEBR: Expert-Based Recommendation Framework for beneficial and
personalized content [77.86290991564829]
推奨コンテンツの質を評価するための見習い学習フレームワークであるFEBR(Expert-Based Recommendation Framework)を提案する。
このフレームワークは、推奨評価環境において専門家(信頼できると仮定される)の実証された軌跡を利用して、未知のユーティリティ機能を回復する。
ユーザ関心シミュレーション環境(RecSim)によるソリューションの性能評価を行う。
論文 参考訳(メタデータ) (2021-07-17T18:21:31Z) - Improving Long-Term Metrics in Recommendation Systems using
Short-Horizon Offline RL [56.20835219296896]
セッションベースのレコメンデーションシナリオについて検討し、シーケンシャルなインタラクションの間、ユーザに対してアイテムを推薦し、長期的なユーティリティを改善する。
我々は、セッション間のポリシーによる分散シフトを近似するショートホライズンポリシー改善(SHPI)と呼ばれる新しいバッチRLアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-06-01T15:58:05Z) - Offline Meta-level Model-based Reinforcement Learning Approach for
Cold-Start Recommendation [27.17948754183511]
強化学習は、リコメンデータシステムに対する長期的なユーザの関心を最適化する上で大きな可能性を秘めている。
既存のRLベースのレコメンデーション手法では、ユーザが堅牢なレコメンデーションポリシーを学ぶために、多数のインタラクションが必要である。
本稿では,ユーザ適応の高速化を目的としたメタレベルモデルに基づく強化学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-04T08:58:35Z) - Generative Inverse Deep Reinforcement Learning for Online Recommendation [62.09946317831129]
オンラインレコメンデーションのための新しい逆強化学習手法InvRecを提案する。
InvRecは、オンラインレコメンデーションのために、ユーザの行動から報酬関数を自動的に抽出する。
論文 参考訳(メタデータ) (2020-11-04T12:12:25Z) - Self-Supervised Reinforcement Learning for Recommender Systems [77.38665506495553]
逐次リコメンデーションタスクのための自己指導型強化学習を提案する。
提案手法は,2つの出力層を持つ標準レコメンデーションモデルを強化する。
このようなアプローチに基づいて、自己監督型Q-ラーニング(SQN)と自己監督型アクター・クライブ(SAC)という2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T11:18:57Z) - Empowering Active Learning to Jointly Optimize System and User Demands [70.66168547821019]
我々は,アクティブラーニングシステムとユーザを協調的に(効率的に学習)するための,新しいアクティブラーニング手法を提案する。
本手法は,特定のユーザに対して,エクササイズの適切性を予測するために,学習を迅速かつ迅速に行う必要があるため,特に,この手法のメリットを生かした教育アプリケーションで研究する。
複数の学習戦略とユーザタイプを実際のユーザからのデータで評価し,代替手法がエンドユーザに適さない多くのエクササイズをもたらす場合,共同アプローチが両方の目標を満足できることを確認した。
論文 参考訳(メタデータ) (2020-05-09T16:02:52Z) - Reward Constrained Interactive Recommendation with Natural Language
Feedback [158.8095688415973]
制約強化強化学習(RL)フレームワークを提案する。
具体的には,ユーザの過去の嗜好に反するレコメンデーションを検出するために,識別器を利用する。
提案するフレームワークは汎用的であり,制約付きテキスト生成のタスクにさらに拡張されている。
論文 参考訳(メタデータ) (2020-05-04T16:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。