論文の概要: Learning to Suggest Breaks: Sustainable Optimization of Long-Term User
Engagement
- arxiv url: http://arxiv.org/abs/2211.13585v2
- Date: Wed, 7 Jun 2023 16:06:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 19:52:16.486004
- Title: Learning to Suggest Breaks: Sustainable Optimization of Long-Term User
Engagement
- Title(参考訳): Suggest Breaks: 長期的なユーザエンゲージメントの持続可能な最適化
- Authors: Eden Saig, Nir Rosenfeld
- Abstract要約: 本稿では,レコメンデーションにおけるブレークの役割について検討し,最適なブレークポリシーを学習するための枠組みを提案する。
推奨力学は正と負の両方のフィードバックに影響を受けやすいという概念に基づいて,ロトカ・ボルテラの力学系としてレコメンデーションを提唱した。
- 参考スコア(独自算出の注目度): 12.843340232167266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimizing user engagement is a key goal for modern recommendation systems,
but blindly pushing users towards increased consumption risks burn-out, churn,
or even addictive habits. To promote digital well-being, most platforms now
offer a service that periodically prompts users to take breaks. These, however,
must be set up manually, and so may be suboptimal for both users and the
system. In this paper, we study the role of breaks in recommendation, and
propose a framework for learning optimal breaking policies that promote and
sustain long-term engagement. Based on the notion that recommendation dynamics
are susceptible to both positive and negative feedback, we cast recommendation
as a Lotka-Volterra dynamical system, where breaking reduces to a problem of
optimal control. We then give an efficient learning algorithm, provide
theoretical guarantees, and empirically demonstrate the utility of our approach
on semi-synthetic data.
- Abstract(参考訳): ユーザのエンゲージメントを最適化することは、現代のレコメンデーションシステムにとって重要な目標だが、消費リスクの増大、燃え尽き症候群、中毒性など、ユーザに盲目的に促す。
デジタル幸福を促進するために、ほとんどのプラットフォームは定期的に休憩を促すサービスを提供している。
しかし、これらは手動で設定する必要があるため、ユーザーとシステムの両方に最適ではないかもしれない。
本稿では,推奨事項におけるブレークの役割について検討し,長期的な取り組みを促進・持続する最適なブレークポリシーを学ぶための枠組みを提案する。
レコメンデーションダイナミクスはポジティブなフィードバックとネガティブなフィードバックの両方に影響を受けやすいという考えに基づいて、我々はレコメンデーションをロッカ・ボルテラ力学系として位置づけた。
次に、効率的な学習アルゴリズムを提供し、理論的保証を提供し、半合成データに対するアプローチの有用性を実証的に実証する。
関連論文リスト
- The Nah Bandit: Modeling User Non-compliance in Recommendation Systems [2.421459418045937]
Expert with Clustering(EWC)は、推奨オプションと推奨されないオプションの両方からのフィードバックを取り入れた階層的なアプローチで、ユーザの好み学習を加速する。
EWCは教師付き学習と伝統的な文脈的バンディットアプローチの両方を上回ります。
この研究は、より効果的なレコメンデーションシステムのための堅牢なフレームワークを提供する、Nah Banditにおける将来の研究の基礎を築いた。
論文 参考訳(メタデータ) (2024-08-15T03:01:02Z) - Harm Mitigation in Recommender Systems under User Preference Dynamics [16.213153879446796]
本稿では,レコメンデーション,ユーザ関心,有害コンテンツとの相互作用を考慮したレコメンデーションシステムについて考察する。
クリックスルー率(CTR)の最大化と害軽減のトレードオフを確立するためのレコメンデーションポリシーを模索する。
論文 参考訳(メタデータ) (2024-06-14T09:52:47Z) - Ensuring User-side Fairness in Dynamic Recommender Systems [37.20838165555877]
本稿では,動的レコメンデーションシステムにおけるユーザ側の公正性を保証するための第一原理的な研究について述べる。
本稿では,FAir Dynamic rEcommender (FADE)を提案する。
FADEは、全体的なレコメンデーション性能を犠牲にすることなく、性能格差を効果的かつ効率的に低減することを示す。
論文 参考訳(メタデータ) (2023-08-29T22:03:17Z) - Recommendation Fairness: From Static to Dynamic [12.080824433982993]
推薦のための強化学習手法に公平性を組み込む方法について論じる。
我々は、推薦公正性をさらに前進させるために、マルチエージェント(ゲーム理論)最適化、マルチオブジェクト(パレート)最適化を検討すべきかもしれないと論じる。
論文 参考訳(メタデータ) (2021-09-05T21:38:05Z) - FEBR: Expert-Based Recommendation Framework for beneficial and
personalized content [77.86290991564829]
推奨コンテンツの質を評価するための見習い学習フレームワークであるFEBR(Expert-Based Recommendation Framework)を提案する。
このフレームワークは、推奨評価環境において専門家(信頼できると仮定される)の実証された軌跡を利用して、未知のユーティリティ機能を回復する。
ユーザ関心シミュレーション環境(RecSim)によるソリューションの性能評価を行う。
論文 参考訳(メタデータ) (2021-07-17T18:21:31Z) - Improving Long-Term Metrics in Recommendation Systems using
Short-Horizon Offline RL [56.20835219296896]
セッションベースのレコメンデーションシナリオについて検討し、シーケンシャルなインタラクションの間、ユーザに対してアイテムを推薦し、長期的なユーティリティを改善する。
我々は、セッション間のポリシーによる分散シフトを近似するショートホライズンポリシー改善(SHPI)と呼ばれる新しいバッチRLアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-06-01T15:58:05Z) - Offline Meta-level Model-based Reinforcement Learning Approach for
Cold-Start Recommendation [27.17948754183511]
強化学習は、リコメンデータシステムに対する長期的なユーザの関心を最適化する上で大きな可能性を秘めている。
既存のRLベースのレコメンデーション手法では、ユーザが堅牢なレコメンデーションポリシーを学ぶために、多数のインタラクションが必要である。
本稿では,ユーザ適応の高速化を目的としたメタレベルモデルに基づく強化学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-04T08:58:35Z) - Generative Inverse Deep Reinforcement Learning for Online Recommendation [62.09946317831129]
オンラインレコメンデーションのための新しい逆強化学習手法InvRecを提案する。
InvRecは、オンラインレコメンデーションのために、ユーザの行動から報酬関数を自動的に抽出する。
論文 参考訳(メタデータ) (2020-11-04T12:12:25Z) - Self-Supervised Reinforcement Learning for Recommender Systems [77.38665506495553]
逐次リコメンデーションタスクのための自己指導型強化学習を提案する。
提案手法は,2つの出力層を持つ標準レコメンデーションモデルを強化する。
このようなアプローチに基づいて、自己監督型Q-ラーニング(SQN)と自己監督型アクター・クライブ(SAC)という2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T11:18:57Z) - Empowering Active Learning to Jointly Optimize System and User Demands [70.66168547821019]
我々は,アクティブラーニングシステムとユーザを協調的に(効率的に学習)するための,新しいアクティブラーニング手法を提案する。
本手法は,特定のユーザに対して,エクササイズの適切性を予測するために,学習を迅速かつ迅速に行う必要があるため,特に,この手法のメリットを生かした教育アプリケーションで研究する。
複数の学習戦略とユーザタイプを実際のユーザからのデータで評価し,代替手法がエンドユーザに適さない多くのエクササイズをもたらす場合,共同アプローチが両方の目標を満足できることを確認した。
論文 参考訳(メタデータ) (2020-05-09T16:02:52Z) - Reward Constrained Interactive Recommendation with Natural Language
Feedback [158.8095688415973]
制約強化強化学習(RL)フレームワークを提案する。
具体的には,ユーザの過去の嗜好に反するレコメンデーションを検出するために,識別器を利用する。
提案するフレームワークは汎用的であり,制約付きテキスト生成のタスクにさらに拡張されている。
論文 参考訳(メタデータ) (2020-05-04T16:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。