論文の概要: Learning to Suggest Breaks: Sustainable Optimization of Long-Term User
Engagement
- arxiv url: http://arxiv.org/abs/2211.13585v2
- Date: Wed, 7 Jun 2023 16:06:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 19:52:16.486004
- Title: Learning to Suggest Breaks: Sustainable Optimization of Long-Term User
Engagement
- Title(参考訳): Suggest Breaks: 長期的なユーザエンゲージメントの持続可能な最適化
- Authors: Eden Saig, Nir Rosenfeld
- Abstract要約: 本稿では,レコメンデーションにおけるブレークの役割について検討し,最適なブレークポリシーを学習するための枠組みを提案する。
推奨力学は正と負の両方のフィードバックに影響を受けやすいという概念に基づいて,ロトカ・ボルテラの力学系としてレコメンデーションを提唱した。
- 参考スコア(独自算出の注目度): 12.843340232167266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimizing user engagement is a key goal for modern recommendation systems,
but blindly pushing users towards increased consumption risks burn-out, churn,
or even addictive habits. To promote digital well-being, most platforms now
offer a service that periodically prompts users to take breaks. These, however,
must be set up manually, and so may be suboptimal for both users and the
system. In this paper, we study the role of breaks in recommendation, and
propose a framework for learning optimal breaking policies that promote and
sustain long-term engagement. Based on the notion that recommendation dynamics
are susceptible to both positive and negative feedback, we cast recommendation
as a Lotka-Volterra dynamical system, where breaking reduces to a problem of
optimal control. We then give an efficient learning algorithm, provide
theoretical guarantees, and empirically demonstrate the utility of our approach
on semi-synthetic data.
- Abstract(参考訳): ユーザのエンゲージメントを最適化することは、現代のレコメンデーションシステムにとって重要な目標だが、消費リスクの増大、燃え尽き症候群、中毒性など、ユーザに盲目的に促す。
デジタル幸福を促進するために、ほとんどのプラットフォームは定期的に休憩を促すサービスを提供している。
しかし、これらは手動で設定する必要があるため、ユーザーとシステムの両方に最適ではないかもしれない。
本稿では,推奨事項におけるブレークの役割について検討し,長期的な取り組みを促進・持続する最適なブレークポリシーを学ぶための枠組みを提案する。
レコメンデーションダイナミクスはポジティブなフィードバックとネガティブなフィードバックの両方に影響を受けやすいという考えに基づいて、我々はレコメンデーションをロッカ・ボルテラ力学系として位置づけた。
次に、効率的な学習アルゴリズムを提供し、理論的保証を提供し、半合成データに対するアプローチの有用性を実証的に実証する。
関連論文リスト
- Recommendation and Temptation [3.734925590025741]
本稿では、二元的行動を考慮した新しいユーザモデルを提案し、最適な推薦戦略を開発する。
提案手法は,MovieLensデータセットから得られた実世界のデータに基づいて,合成シミュレーションとシミュレーションの両方を用いて評価する。
論文 参考訳(メタデータ) (2024-12-13T22:44:22Z) - Unveiling User Satisfaction and Creator Productivity Trade-Offs in Recommendation Platforms [68.51708490104687]
調査力の低い純粋に関連性の高い政策は、短期的ユーザの満足度を高めるが、コンテンツプールの長期的豊かさを損なうことを示す。
調査の結果,プラットフォーム上でのユーザの即時満足度と全体のコンテンツ生産との間には,根本的なトレードオフがあることが判明した。
論文 参考訳(メタデータ) (2024-10-31T07:19:22Z) - Learning Recommender Systems with Soft Target: A Decoupled Perspective [49.83787742587449]
そこで本研究では,ソフトラベルを活用することで,目的を2つの側面として捉えるために,分離されたソフトラベル最適化フレームワークを提案する。
本稿では,ラベル伝搬アルゴリズムをモデル化したソフトラベル生成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-09T04:20:15Z) - Harm Mitigation in Recommender Systems under User Preference Dynamics [16.213153879446796]
本稿では,レコメンデーション,ユーザ関心,有害コンテンツとの相互作用を考慮したレコメンデーションシステムについて考察する。
クリックスルー率(CTR)の最大化と害軽減のトレードオフを確立するためのレコメンデーションポリシーを模索する。
論文 参考訳(メタデータ) (2024-06-14T09:52:47Z) - Modeling User Retention through Generative Flow Networks [34.74982897470852]
フローベースのモデリング技術は、ユーザセッションで推奨される各項目に対する保持報酬をバックプロパガントすることができる。
従来の学習目標と組み合わされたフローは、最終的には、即時フィードバックとユーザ保持の両方に対して、非カウントの累積報酬を最適化した。
論文 参考訳(メタデータ) (2024-06-10T06:22:18Z) - The Fault in Our Recommendations: On the Perils of Optimizing the Measurable [2.6217304977339473]
エンゲージメントの最適化は、大きなユーティリティ損失をもたらす可能性があることを示す。
我々は、最初は人気コンテンツとニッチコンテンツの混在を推奨するユーティリティ・アウェア・ポリシーを提案する。
論文 参考訳(メタデータ) (2024-05-07T02:12:17Z) - Improving Long-Term Metrics in Recommendation Systems using
Short-Horizon Offline RL [56.20835219296896]
セッションベースのレコメンデーションシナリオについて検討し、シーケンシャルなインタラクションの間、ユーザに対してアイテムを推薦し、長期的なユーティリティを改善する。
我々は、セッション間のポリシーによる分散シフトを近似するショートホライズンポリシー改善(SHPI)と呼ばれる新しいバッチRLアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-06-01T15:58:05Z) - Offline Meta-level Model-based Reinforcement Learning Approach for
Cold-Start Recommendation [27.17948754183511]
強化学習は、リコメンデータシステムに対する長期的なユーザの関心を最適化する上で大きな可能性を秘めている。
既存のRLベースのレコメンデーション手法では、ユーザが堅牢なレコメンデーションポリシーを学ぶために、多数のインタラクションが必要である。
本稿では,ユーザ適応の高速化を目的としたメタレベルモデルに基づく強化学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-04T08:58:35Z) - Generative Inverse Deep Reinforcement Learning for Online Recommendation [62.09946317831129]
オンラインレコメンデーションのための新しい逆強化学習手法InvRecを提案する。
InvRecは、オンラインレコメンデーションのために、ユーザの行動から報酬関数を自動的に抽出する。
論文 参考訳(メタデータ) (2020-11-04T12:12:25Z) - Empowering Active Learning to Jointly Optimize System and User Demands [70.66168547821019]
我々は,アクティブラーニングシステムとユーザを協調的に(効率的に学習)するための,新しいアクティブラーニング手法を提案する。
本手法は,特定のユーザに対して,エクササイズの適切性を予測するために,学習を迅速かつ迅速に行う必要があるため,特に,この手法のメリットを生かした教育アプリケーションで研究する。
複数の学習戦略とユーザタイプを実際のユーザからのデータで評価し,代替手法がエンドユーザに適さない多くのエクササイズをもたらす場合,共同アプローチが両方の目標を満足できることを確認した。
論文 参考訳(メタデータ) (2020-05-09T16:02:52Z) - Reward Constrained Interactive Recommendation with Natural Language
Feedback [158.8095688415973]
制約強化強化学習(RL)フレームワークを提案する。
具体的には,ユーザの過去の嗜好に反するレコメンデーションを検出するために,識別器を利用する。
提案するフレームワークは汎用的であり,制約付きテキスト生成のタスクにさらに拡張されている。
論文 参考訳(メタデータ) (2020-05-04T16:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。