論文の概要: Business Policy Experiments using Fractional Factorial Designs: Consumer
Retention on DoorDash
- arxiv url: http://arxiv.org/abs/2311.14698v2
- Date: Wed, 29 Nov 2023 04:23:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 03:04:18.785320
- Title: Business Policy Experiments using Fractional Factorial Designs: Consumer
Retention on DoorDash
- Title(参考訳): 分断的要因設計を用いたビジネス政策実験:ドアダッシュの消費者維持
- Authors: Yixin Tang, Yicong Lin, Navdeep S. Sahni
- Abstract要約: 本稿では、ビジネス意思決定のスピードアップと、ビジネスポリシーの分解による実験による学習コストの削減を両立させるアプローチについて検討する。
提案手法の実装とメリットを実証的に実証し,その妥当性をDoorDashで評価した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper investigates an approach to both speed up business decision-making
and lower the cost of learning through experimentation by factorizing business
policies and employing fractional factorial experimental designs for their
evaluation. We illustrate how this method integrates with advances in the
estimation of heterogeneous treatment effects, elaborating on its advantages
and foundational assumptions. We empirically demonstrate the implementation and
benefits of our approach and assess its validity in evaluating consumer
promotion policies at DoorDash, which is one of the largest delivery platforms
in the US. Our approach discovers a policy with 5% incremental profit at 67%
lower implementation cost.
- Abstract(参考訳): 本稿では,ビジネス政策のファクタリングによる実験による学習コストの低減と,その評価に分数的因子的実験設計を採用する手法について検討する。
本手法は,不均質な治療効果の推定の進歩と統合し,その利点と基礎的前提を明らかにした。
当社のアプローチの実装とメリットを実証的に実証し,米国最大の配送プラットフォームであるDoorDashにおける消費者プロモーション政策の評価における妥当性を評価する。
当社のアプローチでは,5%増益で実装コストが67%低減したポリシを見出した。
関連論文リスト
- Metalearners for Ranking Treatment Effects [1.469168639465869]
政策の漸進的な利益曲線の下で、ランク付けの学習がいかにその領域を最大化できるかを示す。
政策の漸進的な利益曲線の下で、ランク付けの学習がいかにその領域を最大化できるかを示す。
論文 参考訳(メタデータ) (2024-05-03T15:31:18Z) - Provable Benefits of Policy Learning from Human Preferences in
Contextual Bandit Problems [82.92678837778358]
嗜好に基づく手法は、InstructGPTのような経験的応用でかなりの成功を収めている。
フィードバックモデリングにおける人間のバイアスと不確実性がこれらのアプローチの理論的保証にどのように影響するかを示す。
論文 参考訳(メタデータ) (2023-07-24T17:50:24Z) - Improved Policy Evaluation for Randomized Trials of Algorithmic Resource
Allocation [54.72195809248172]
提案する新しい概念を応用した新しい推定器を提案する。
我々は,このような推定器が,サンプル手段に基づく一般的な推定器よりも精度が高いことを理論的に証明した。
論文 参考訳(メタデータ) (2023-02-06T05:17:22Z) - Efficient Real-world Testing of Causal Decision Making via Bayesian
Experimental Design for Contextual Optimisation [12.37745209793872]
文脈的意思決定の評価と改善のためのデータ収集のためのモデルに依存しないフレームワークを提案する。
過去の治療課題の後悔をデータ効率で評価するために,本手法を用いた。
論文 参考訳(メタデータ) (2022-07-12T01:20:11Z) - Off-policy Reinforcement Learning with Optimistic Exploration and
Distribution Correction [73.77593805292194]
我々は、政治以外のアクター批判的枠組みにおいて、批評家のほぼ上位信頼度を最大化するために、別の調査政策を訓練する。
最近導入されたDICEフレームワークを応用して、非政治アクター犯罪訓練のための分布補正比を学習する。
論文 参考訳(メタデータ) (2021-10-22T22:07:51Z) - Taylor Expansion of Discount Factors [56.46324239692532]
実効強化学習(RL)では、値関数を推定するために使われる割引係数は、評価目的を定義するために使われる値としばしば異なる。
本研究では,この割引要因の相違が学習中に与える影響について検討し,2つの異なる割引要因の値関数を補間する目的のファミリーを発見する。
論文 参考訳(メタデータ) (2021-06-11T05:02:17Z) - Enhancing User' s Income Estimation with Super-App Alternative Data [59.60094442546867]
これは、これらの代替データソースのパフォーマンスと、業界に受け入れられた局の収入推定器のパフォーマンスを比較します。
本論文は、金融機関がリスクプロファイルの構築に代替データを導入しようとする動機を示すものである。
論文 参考訳(メタデータ) (2021-04-12T21:34:44Z) - Targeting for long-term outcomes [1.7205106391379026]
意思決定者は、長期的にのみ観察される結果を最大化するために、介入を標的にしたい場合が多い。
ここでは、欠落した長期的成果を暗示するために、統計的代理と政策学習文献に基づいて構築する。
The Boston Globeにおける2つの大規模プロアクティブチャーン管理実験に本手法を適用した。
論文 参考訳(メタデータ) (2020-10-29T18:31:17Z) - Adaptive Estimator Selection for Off-Policy Evaluation [48.66170976187225]
オフポリシー評価設定における推定器選択のための汎用的データ駆動手法を開発した。
また,本手法の性能保証を確立し,オラクル推定器と競合することを示す。
論文 参考訳(メタデータ) (2020-02-18T16:57:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。