論文の概要: Design and Evaluation of Personalized Free Trials
- arxiv url: http://arxiv.org/abs/2006.13420v1
- Date: Wed, 24 Jun 2020 01:47:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 09:50:44.733523
- Title: Design and Evaluation of Personalized Free Trials
- Title(参考訳): 個人化フリートライアルの設計と評価
- Authors: Hema Yoganarasimhan, Ebrahim Barzegary, Abhishek Pani
- Abstract要約: 我々は、すべての消費者に対する7日間のトライアルが、サブスクリプションの5.59%の増加とともに、最良の統一ポリシーであることを示した。
我々は、パーソナライズされたポリシー設計と評価のための3つのフレームワークを開発する。
- 参考スコア(独自算出の注目度): 0.0966840768820136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Free trial promotions, where users are given a limited time to try the
product for free, are a commonly used customer acquisition strategy in the
Software as a Service (SaaS) industry. We examine how trial length affect
users' responsiveness, and seek to quantify the gains from personalizing the
length of the free trial promotions. Our data come from a large-scale field
experiment conducted by a leading SaaS firm, where new users were randomly
assigned to 7, 14, or 30 days of free trial. First, we show that the 7-day
trial to all consumers is the best uniform policy, with a 5.59% increase in
subscriptions. Next, we develop a three-pronged framework for personalized
policy design and evaluation. Using our framework, we develop seven
personalized targeting policies based on linear regression, lasso, CART, random
forest, XGBoost, causal tree, and causal forest, and evaluate their
performances using the Inverse Propensity Score (IPS) estimator. We find that
the personalized policy based on lasso performs the best, followed by the one
based on XGBoost. In contrast, policies based on causal tree and causal forest
perform poorly. We then link a method's effectiveness in designing policy with
its ability to personalize the treatment sufficiently without over-fitting
(i.e., capture spurious heterogeneity). Next, we segment consumers based on
their optimal trial length and derive some substantive insights on the drivers
of user behavior in this context. Finally, we show that policies designed to
maximize short-run conversions also perform well on long-run outcomes such as
consumer loyalty and profitability.
- Abstract(参考訳): 無料トライアルのプロモーションは、ユーザがこの製品を無料で試す時間に制限があるが、Software as a Service (SaaS)業界で一般的に使われている顧客獲得戦略である。
試用期間がユーザの応答性にどのように影響するかを調べ,無料試用期間のパーソナライズによる利益の定量化を目指す。
当社のデータは、大手SaaS企業による大規模なフィールド実験によるもので、新規ユーザはランダムに7日、14日、30日間の無料トライアルに割り当てられました。
まず、すべての消費者に対する7日間のトライアルが最高の統一ポリシーであることを示し、サブスクリプションは5.59%増加した。
次に、パーソナライズされたポリシー設計と評価のための3段階のフレームワークを開発する。
我々は,線形回帰,ラッソ,CART,ランダム林,XGBoost,因果樹,因果樹の7つの個別的ターゲティングポリシーを開発し,逆確率スコア(IPS)推定器を用いて評価を行った。
lassoに基づくパーソナライズされたポリシーが最高のパフォーマンスを示し、xgboostに基づいたポリシーが続くことが分かりました。
対照的に、因果樹と因果林に基づく政策はうまく機能しない。
次に, 方針設計における手法の有効性と, 過剰適合を伴わずに治療を十分にパーソナライズする能力(すなわち, 散発的不均質さを捉える)をリンクする。
次に、最適な試行期間に基づいて消費者をセグメンテーションし、このコンテキストにおけるユーザの行動のドライバに関する明確な洞察を得る。
最後に,短期的転換を最大化するための政策が,消費者の忠誠心や収益性といった長期的成果にも有効であることを示す。
関連論文リスト
- Unveiling User Satisfaction and Creator Productivity Trade-Offs in Recommendation Platforms [68.51708490104687]
調査力の低い純粋に関連性の高い政策は、短期的ユーザの満足度を高めるが、コンテンツプールの長期的豊かさを損なうことを示す。
調査の結果,プラットフォーム上でのユーザの即時満足度と全体のコンテンツ生産との間には,根本的なトレードオフがあることが判明した。
論文 参考訳(メタデータ) (2024-10-31T07:19:22Z) - Rewarding Progress: Scaling Automated Process Verifiers for LLM Reasoning [90.23629291067763]
大規模言語モデルにおける推論を改善するための有望なアプローチは、プロセス報酬モデル(PRM)を使用することである。
PRMは多段階の推論トレースの各ステップでフィードバックを提供し、結果報酬モデル(ORM)よりも信用割当を改善する可能性がある。
PRMに対して探索を行ったり、強化学習(RL)の報酬として使ったりすることで、基本方針を改善するために、「プロセス報酬をどう設計すべきか?」と質問する。
理論的には,良質なプロデューサの集合を特徴付けるとともに,このようなプロデューサからのプロセス報酬の最適化が,テスト時間探索やオンラインRLの探索を改善することを示す。
論文 参考訳(メタデータ) (2024-10-10T17:31:23Z) - Measuring Strategization in Recommendation: Users Adapt Their Behavior to Shape Future Content [66.71102704873185]
実験と調査を行うことで,ユーザストラテジゼーションの試行を行う。
参加者の居住時間や「いいね!」の使用など,結果指標間での戦略化の強い証拠を見出す。
この結果から,プラットフォームはアルゴリズムがユーザの行動に与える影響を無視できないことが示唆された。
論文 参考訳(メタデータ) (2024-05-09T07:36:08Z) - Practical Policy Optimization with Personalized Experimentation [7.928781593773402]
ユーザレベルでの治療グループ割り当てを最適化するパーソナライズされた実験フレームワークを提案する。
実際に成功したことが証明され、オープンソースソフトウェアを使って簡単に実装できるエンドツーエンドワークフローについて説明する。
論文 参考訳(メタデータ) (2023-03-30T18:25:11Z) - Eliciting User Preferences for Personalized Multi-Objective Decision
Making through Comparative Feedback [76.7007545844273]
目的に対して異なるユーザの好みに対応する多目的意思決定フレームワークを提案する。
我々のモデルは、ベクトル値の報酬関数を持つマルコフ決定プロセスで構成され、各ユーザが未知の選好ベクトルを持つ。
少数の比較クエリを用いて,ユーザに対してほぼ最適なポリシを求めるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-07T23:58:19Z) - How Bad is Top-$K$ Recommendation under Competing Content Creators? [43.2268992294178]
我々は,アナーキー価格のレンズによるユーザ福祉保証について検討する。
創造者競争によるユーザ福祉損失のごく一部は、ユーザ決定におけるKドルとランダム性に応じて、常に小さな一定値で上限づけられていることが示される。
論文 参考訳(メタデータ) (2023-02-03T19:37:35Z) - SPEED: Experimental Design for Policy Evaluation in Linear
Heteroscedastic Bandits [13.02672341061555]
線形帯域における政策評価のための最適データ収集の問題について検討する。
まず,重み付き最小二乗推定値に対して,重み付き線形帯域設定で最適設計を定式化する。
次に、この定式化を使用して、データ収集中にアクション毎のサンプルの最適な割り当てを導出します。
論文 参考訳(メタデータ) (2023-01-29T04:33:13Z) - Personalizing Intervened Network for Long-tailed Sequential User
Behavior Modeling [66.02953670238647]
タイルユーザーは、共同トレーニング後のヘッドユーザーよりも大幅に品質の低いレコメンデーションに悩まされる。
テールユーザーで個別に訓練されたモデルは、限られたデータのために依然として劣った結果が得られる。
本稿では,テールユーザの推薦性能を大幅に向上させる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-08-19T02:50:19Z) - Who Are the Best Adopters? User Selection Model for Free Trial Item
Promotion [41.58621061329645]
SMILEという新しいフリートライアルユーザ選択モデルを提案する。
エージェントがフリートライアル後の利益の最大化を目的とした特定の採用者を積極的に選択する強化学習(RL)に基づいている。
具体的には、アクション空間を再構成するツリー構造を設計し、巨大なユーザ空間から採用者を効率的に選択できるようにする。
論文 参考訳(メタデータ) (2022-02-19T03:07:23Z) - Low-Cost Algorithmic Recourse for Users With Uncertain Cost Functions [74.00030431081751]
本稿では,ユーザ固有のコスト関数の概念を定式化し,ユーザのための行動可能なリコースを識別する新しい手法を提案する。
本手法は,強いベースライン法に比べて最大25.89パーセントのユーザを満足させる。
論文 参考訳(メタデータ) (2021-11-01T19:49:35Z) - Targeting for long-term outcomes [1.7205106391379026]
意思決定者は、長期的にのみ観察される結果を最大化するために、介入を標的にしたい場合が多い。
ここでは、欠落した長期的成果を暗示するために、統計的代理と政策学習文献に基づいて構築する。
The Boston Globeにおける2つの大規模プロアクティブチャーン管理実験に本手法を適用した。
論文 参考訳(メタデータ) (2020-10-29T18:31:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。