論文の概要: Learning to Take a Break: Sustainable Optimization of Long-Term User
Engagement
- arxiv url: http://arxiv.org/abs/2211.13585v1
- Date: Thu, 24 Nov 2022 13:14:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 19:03:39.070401
- Title: Learning to Take a Break: Sustainable Optimization of Long-Term User
Engagement
- Title(参考訳): 休憩を取るための学習: 長期ユーザエンゲージメントの持続可能な最適化
- Authors: Eden Saig, Nir Rosenfeld
- Abstract要約: 本稿では,個別化された破壊政策を学習し,長期的関与を最適化するための枠組みを提案する。
次に、効率的な学習アルゴリズムを提供し、理論的保証を提供し、半合成データ上でその性能を実証的に評価する。
- 参考スコア(独自算出の注目度): 12.843340232167266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimizing user engagement is a key goal for modern recommendation systems,
but blindly pushing users towards increased consumption risks burn-out, churn,
or even addictive habits. To promote digital well-being, most platforms now
offer a service that periodically prompts users to take a break. These,
however, must be set up manually, and so may be suboptimal for both users and
the system. In this paper, we propose a framework for optimizing long-term
engagement by learning individualized breaking policies. Using Lotka-Volterra
dynamics, we model users as acting based on two balancing latent states: drive,
and interest -- which must be conserved. We then give an efficient learning
algorithm, provide theoretical guarantees, and empirically evaluate its
performance on semi-synthetic data.
- Abstract(参考訳): ユーザのエンゲージメントを最適化することは、現代のレコメンデーションシステムにとって重要な目標だが、消費リスクの増大、燃え尽き症候群、中毒性など、ユーザに盲目的に促す。
デジタル幸福を促進するために、ほとんどのプラットフォームはユーザーが定期的に休憩するように促すサービスを提供している。
しかし、これらは手動で設定する必要があるため、ユーザーとシステムの両方に最適ではないかもしれない。
本稿では,個別の分割ポリシーを学習し,長期的なエンゲージメントを最適化する枠組みを提案する。
lotka-volterra dynamicsを使用することで、ユーザを2つのバランスのとれた状態 – ドライブと関心 — に基づいて動作させるようにモデル化します。
次に、効率的な学習アルゴリズムを提供し、理論的保証を提供し、半合成データ上でその性能を実証的に評価する。
関連論文リスト
- RAH! RecSys-Assistant-Human: A Human-Centered Recommendation Framework
with LLM Agents [30.250555783628762]
この研究は、これらの問題に対処することは単にレコメンダシステムの責任ではないと主張している。
本稿では,RAH Recommenderシステム,Assistant,Humanフレームワークを紹介する。
私たちのコントリビューションは、さまざまなレコメンデーションモデルと効果的に連携する、人間中心のレコメンデーションフレームワークを提供します。
論文 参考訳(メタデータ) (2023-08-19T04:46:01Z) - Optimizing Long-term Value for Auction-Based Recommender Systems via
On-Policy Reinforcement Learning [4.980374959955476]
オークションベースのレコメンデーターシステムはオンライン広告プラットフォームで広く使われているが、通常、すぐに期待されるリターン指標に基づいてレコメンデーションスロットを割り当てるように最適化されている。
オークションベースのレコメンデーションシステムにおいて,長期リターン指標の最適化に強化学習を用いる。
論文 参考訳(メタデータ) (2023-05-23T07:04:38Z) - Optimizing Audio Recommendations for the Long-Term: A Reinforcement
Learning Perspective [14.202749983552717]
本研究では,数週間ないし数ヶ月にわたって発生する結果に対して,レコメンデータシステムを最適化する問題について検討する。
我々は,数億のリスナーに対してパーソナライズされたレコメンデーションを行うポッドキャストレコメンデーションシステムにアプローチを適用した。
論文 参考訳(メタデータ) (2023-02-07T16:17:25Z) - Recommendation Fairness: From Static to Dynamic [12.080824433982993]
推薦のための強化学習手法に公平性を組み込む方法について論じる。
我々は、推薦公正性をさらに前進させるために、マルチエージェント(ゲーム理論)最適化、マルチオブジェクト(パレート)最適化を検討すべきかもしれないと論じる。
論文 参考訳(メタデータ) (2021-09-05T21:38:05Z) - FEBR: Expert-Based Recommendation Framework for beneficial and
personalized content [77.86290991564829]
推奨コンテンツの質を評価するための見習い学習フレームワークであるFEBR(Expert-Based Recommendation Framework)を提案する。
このフレームワークは、推奨評価環境において専門家(信頼できると仮定される)の実証された軌跡を利用して、未知のユーティリティ機能を回復する。
ユーザ関心シミュレーション環境(RecSim)によるソリューションの性能評価を行う。
論文 参考訳(メタデータ) (2021-07-17T18:21:31Z) - Improving Long-Term Metrics in Recommendation Systems using
Short-Horizon Offline RL [56.20835219296896]
セッションベースのレコメンデーションシナリオについて検討し、シーケンシャルなインタラクションの間、ユーザに対してアイテムを推薦し、長期的なユーティリティを改善する。
我々は、セッション間のポリシーによる分散シフトを近似するショートホライズンポリシー改善(SHPI)と呼ばれる新しいバッチRLアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-06-01T15:58:05Z) - Offline Meta-level Model-based Reinforcement Learning Approach for
Cold-Start Recommendation [27.17948754183511]
強化学習は、リコメンデータシステムに対する長期的なユーザの関心を最適化する上で大きな可能性を秘めている。
既存のRLベースのレコメンデーション手法では、ユーザが堅牢なレコメンデーションポリシーを学ぶために、多数のインタラクションが必要である。
本稿では,ユーザ適応の高速化を目的としたメタレベルモデルに基づく強化学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-04T08:58:35Z) - Generative Inverse Deep Reinforcement Learning for Online Recommendation [62.09946317831129]
オンラインレコメンデーションのための新しい逆強化学習手法InvRecを提案する。
InvRecは、オンラインレコメンデーションのために、ユーザの行動から報酬関数を自動的に抽出する。
論文 参考訳(メタデータ) (2020-11-04T12:12:25Z) - Self-Supervised Reinforcement Learning for Recommender Systems [77.38665506495553]
逐次リコメンデーションタスクのための自己指導型強化学習を提案する。
提案手法は,2つの出力層を持つ標準レコメンデーションモデルを強化する。
このようなアプローチに基づいて、自己監督型Q-ラーニング(SQN)と自己監督型アクター・クライブ(SAC)という2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T11:18:57Z) - Empowering Active Learning to Jointly Optimize System and User Demands [70.66168547821019]
我々は,アクティブラーニングシステムとユーザを協調的に(効率的に学習)するための,新しいアクティブラーニング手法を提案する。
本手法は,特定のユーザに対して,エクササイズの適切性を予測するために,学習を迅速かつ迅速に行う必要があるため,特に,この手法のメリットを生かした教育アプリケーションで研究する。
複数の学習戦略とユーザタイプを実際のユーザからのデータで評価し,代替手法がエンドユーザに適さない多くのエクササイズをもたらす場合,共同アプローチが両方の目標を満足できることを確認した。
論文 参考訳(メタデータ) (2020-05-09T16:02:52Z) - Reward Constrained Interactive Recommendation with Natural Language
Feedback [158.8095688415973]
制約強化強化学習(RL)フレームワークを提案する。
具体的には,ユーザの過去の嗜好に反するレコメンデーションを検出するために,識別器を利用する。
提案するフレームワークは汎用的であり,制約付きテキスト生成のタスクにさらに拡張されている。
論文 参考訳(メタデータ) (2020-05-04T16:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。