論文の概要: Learning to Take a Break: Sustainable Optimization of Long-Term User
Engagement
- arxiv url: http://arxiv.org/abs/2211.13585v1
- Date: Thu, 24 Nov 2022 13:14:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 19:03:39.070401
- Title: Learning to Take a Break: Sustainable Optimization of Long-Term User
Engagement
- Title(参考訳): 休憩を取るための学習: 長期ユーザエンゲージメントの持続可能な最適化
- Authors: Eden Saig, Nir Rosenfeld
- Abstract要約: 本稿では,個別化された破壊政策を学習し,長期的関与を最適化するための枠組みを提案する。
次に、効率的な学習アルゴリズムを提供し、理論的保証を提供し、半合成データ上でその性能を実証的に評価する。
- 参考スコア(独自算出の注目度): 12.843340232167266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimizing user engagement is a key goal for modern recommendation systems,
but blindly pushing users towards increased consumption risks burn-out, churn,
or even addictive habits. To promote digital well-being, most platforms now
offer a service that periodically prompts users to take a break. These,
however, must be set up manually, and so may be suboptimal for both users and
the system. In this paper, we propose a framework for optimizing long-term
engagement by learning individualized breaking policies. Using Lotka-Volterra
dynamics, we model users as acting based on two balancing latent states: drive,
and interest -- which must be conserved. We then give an efficient learning
algorithm, provide theoretical guarantees, and empirically evaluate its
performance on semi-synthetic data.
- Abstract(参考訳): ユーザのエンゲージメントを最適化することは、現代のレコメンデーションシステムにとって重要な目標だが、消費リスクの増大、燃え尽き症候群、中毒性など、ユーザに盲目的に促す。
デジタル幸福を促進するために、ほとんどのプラットフォームはユーザーが定期的に休憩するように促すサービスを提供している。
しかし、これらは手動で設定する必要があるため、ユーザーとシステムの両方に最適ではないかもしれない。
本稿では,個別の分割ポリシーを学習し,長期的なエンゲージメントを最適化する枠組みを提案する。
lotka-volterra dynamicsを使用することで、ユーザを2つのバランスのとれた状態 – ドライブと関心 — に基づいて動作させるようにモデル化します。
次に、効率的な学習アルゴリズムを提供し、理論的保証を提供し、半合成データ上でその性能を実証的に評価する。
関連論文リスト
- Unveiling User Satisfaction and Creator Productivity Trade-Offs in Recommendation Platforms [68.51708490104687]
調査力の低い純粋に関連性の高い政策は、短期的ユーザの満足度を高めるが、コンテンツプールの長期的豊かさを損なうことを示す。
調査の結果,プラットフォーム上でのユーザの即時満足度と全体のコンテンツ生産との間には,根本的なトレードオフがあることが判明した。
論文 参考訳(メタデータ) (2024-10-31T07:19:22Z) - Learning Recommender Systems with Soft Target: A Decoupled Perspective [49.83787742587449]
そこで本研究では,ソフトラベルを活用することで,目的を2つの側面として捉えるために,分離されたソフトラベル最適化フレームワークを提案する。
本稿では,ラベル伝搬アルゴリズムをモデル化したソフトラベル生成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-09T04:20:15Z) - Harm Mitigation in Recommender Systems under User Preference Dynamics [16.213153879446796]
本稿では,レコメンデーション,ユーザ関心,有害コンテンツとの相互作用を考慮したレコメンデーションシステムについて考察する。
クリックスルー率(CTR)の最大化と害軽減のトレードオフを確立するためのレコメンデーションポリシーを模索する。
論文 参考訳(メタデータ) (2024-06-14T09:52:47Z) - Modeling User Retention through Generative Flow Networks [34.74982897470852]
フローベースのモデリング技術は、ユーザセッションで推奨される各項目に対する保持報酬をバックプロパガントすることができる。
従来の学習目標と組み合わされたフローは、最終的には、即時フィードバックとユーザ保持の両方に対して、非カウントの累積報酬を最適化した。
論文 参考訳(メタデータ) (2024-06-10T06:22:18Z) - The Fault in Our Recommendations: On the Perils of Optimizing the Measurable [2.6217304977339473]
エンゲージメントの最適化は、大きなユーティリティ損失をもたらす可能性があることを示す。
我々は、最初は人気コンテンツとニッチコンテンツの混在を推奨するユーティリティ・アウェア・ポリシーを提案する。
論文 参考訳(メタデータ) (2024-05-07T02:12:17Z) - Ensuring User-side Fairness in Dynamic Recommender Systems [37.20838165555877]
本稿では,動的レコメンデーションシステムにおけるユーザ側の公正性を保証するための第一原理的な研究について述べる。
本稿では,FAir Dynamic rEcommender (FADE)を提案する。
FADEは、全体的なレコメンデーション性能を犠牲にすることなく、性能格差を効果的かつ効率的に低減することを示す。
論文 参考訳(メタデータ) (2023-08-29T22:03:17Z) - Improving Long-Term Metrics in Recommendation Systems using
Short-Horizon Offline RL [56.20835219296896]
セッションベースのレコメンデーションシナリオについて検討し、シーケンシャルなインタラクションの間、ユーザに対してアイテムを推薦し、長期的なユーティリティを改善する。
我々は、セッション間のポリシーによる分散シフトを近似するショートホライズンポリシー改善(SHPI)と呼ばれる新しいバッチRLアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-06-01T15:58:05Z) - Offline Meta-level Model-based Reinforcement Learning Approach for
Cold-Start Recommendation [27.17948754183511]
強化学習は、リコメンデータシステムに対する長期的なユーザの関心を最適化する上で大きな可能性を秘めている。
既存のRLベースのレコメンデーション手法では、ユーザが堅牢なレコメンデーションポリシーを学ぶために、多数のインタラクションが必要である。
本稿では,ユーザ適応の高速化を目的としたメタレベルモデルに基づく強化学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-04T08:58:35Z) - Generative Inverse Deep Reinforcement Learning for Online Recommendation [62.09946317831129]
オンラインレコメンデーションのための新しい逆強化学習手法InvRecを提案する。
InvRecは、オンラインレコメンデーションのために、ユーザの行動から報酬関数を自動的に抽出する。
論文 参考訳(メタデータ) (2020-11-04T12:12:25Z) - Empowering Active Learning to Jointly Optimize System and User Demands [70.66168547821019]
我々は,アクティブラーニングシステムとユーザを協調的に(効率的に学習)するための,新しいアクティブラーニング手法を提案する。
本手法は,特定のユーザに対して,エクササイズの適切性を予測するために,学習を迅速かつ迅速に行う必要があるため,特に,この手法のメリットを生かした教育アプリケーションで研究する。
複数の学習戦略とユーザタイプを実際のユーザからのデータで評価し,代替手法がエンドユーザに適さない多くのエクササイズをもたらす場合,共同アプローチが両方の目標を満足できることを確認した。
論文 参考訳(メタデータ) (2020-05-09T16:02:52Z) - Reward Constrained Interactive Recommendation with Natural Language
Feedback [158.8095688415973]
制約強化強化学習(RL)フレームワークを提案する。
具体的には,ユーザの過去の嗜好に反するレコメンデーションを検出するために,識別器を利用する。
提案するフレームワークは汎用的であり,制約付きテキスト生成のタスクにさらに拡張されている。
論文 参考訳(メタデータ) (2020-05-04T16:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。