論文の概要: Guardrailed Uplift Targeting: A Causal Optimization Playbook for Marketing Strategy
- arxiv url: http://arxiv.org/abs/2512.19805v1
- Date: Mon, 22 Dec 2025 19:02:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.642938
- Title: Guardrailed Uplift Targeting: A Causal Optimization Playbook for Marketing Strategy
- Title(参考訳): Guardrailed Uplift Targeting - マーケティング戦略のための因果最適化プレイブック
- Authors: Deepit Sapru,
- Abstract要約: 本稿では,不均質処理の高速化を制約ターゲティング戦略に変換するマーケティング決定フレームワークを提案する。
このフレームワークは、オフライン評価における妥当性と静的ベースラインを一貫して上回る。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a marketing decision framework that converts heterogeneous-treatment uplift into constrained targeting strategies to maximize revenue and retention while honoring business guardrails. The approach estimates Conditional Average Treatment Effects (CATE) with uplift learners and then solves a constrained allocation to decide who to target and which offer to deploy under limits such as budget or acceptable sales deterioration. Applied to retention messaging, event rewards, and spend-threshold assignment, the framework consistently outperforms propensity and static baselines in offline evaluations using uplift AUC, Inverse Propensity Scoring (IPS), and Self-Normalized IPS (SNIPS). A production-scale online A/B test further validates strategic lift on revenue and completion while preserving customer-experience constraints. The result is a reusable playbook for marketers to operationalize causal targeting at scale, set guardrails, and align campaigns with strategic KPIs.
- Abstract(参考訳): 本稿では,ヘテロジニアス処理の高揚を制約ターゲティング戦略に変換し,ビジネスガードレールを尊重しながら収益と維持を最大化するマーケティング決定枠組みを提案する。
提案手法では, 条件付き平均処理効果(CATE)を, 昇降学習者と推定し, 目標決定のための制約付きアロケーションを解く。
維持メッセージング、イベント報酬、費やしの割り当てに適用されるこのフレームワークは、アップリフトAUC、Inverse Propensity Scoring(IPS)、Self-Normalized IPS(SNIPS)を使用してオフライン評価において、不適切性と静的なベースラインを一貫して上回ります。
生産規模のオンラインA/Bテストは、顧客体験の制約を保ちながら、収益と完成の戦略的上昇をさらに検証する。
その結果は、マーケターが大規模に因果的ターゲティングを運用し、ガードレールを設定し、戦略的なKPIとキャンペーンを調整するための再利用可能なプレイブックである。
関連論文リスト
- Unbiased Dynamic Pruning for Efficient Group-Based Policy Optimization [60.87651283510059]
Group Relative Policy Optimization (GRPO) はLLM推論を効果的にスケールするが、計算コストは禁じている。
本研究では,非バイアス勾配推定を保ちながら動的プルーニングを可能にする動的プルーニングポリシー最適化(DPPO)を提案する。
刈り込みによって引き起こされるデータの空間性を軽減するため,ウィンドウベースの欲求戦略であるDense Prompt Packingを導入する。
論文 参考訳(メタデータ) (2026-03-04T14:48:53Z) - Outcome-Grounded Advantage Reshaping for Fine-Grained Credit Assignment in Mathematical Reasoning [60.00161035836637]
グループ相対政策最適化は、推論タスクのための有望な批判のない強化学習パラダイムとして登場した。
我々は,各トークンがモデルの最終回答にどの程度影響するかに基づいて,利益を再分配する,きめ細かい信用割当機構であるOutcome-grounded Advantage Reshaping (OAR)を紹介した。
OAR-Gは計算オーバーヘッドを無視して同等のゲインを達成し、どちらも強力なGRPOベースラインをはるかに上回っている。
論文 参考訳(メタデータ) (2026-01-12T10:48:02Z) - MAESTRO: Meta-learning Adaptive Estimation of Scalarization Trade-offs for Reward Optimization [56.074760766965085]
大規模言語モデル(LLM)の整合性のための効率的なパラダイムとしてグループ相対政策最適化が登場している。
我々は,報酬スカラー化を動的潜在ポリシーとして扱い,モデルの終端隠蔽状態を意味的ボトルネックとして活用するMAESTROを提案する。
本稿では,軽量コンダクタネットワークがメタリワード信号としてグループ相対的優位性を生かしてポリシと共進化する,双方向最適化フレームワークにおけるコンテキスト的帯域幅問題としてこれを定式化する。
論文 参考訳(メタデータ) (2026-01-12T05:02:48Z) - Guardrailed Elasticity Pricing: A Churn-Aware Forecasting Playbook for Subscription Strategy [0.0]
本稿では,サブスクリプション価格を動的に保護された意思決定システムとして運用するマーケティング分析フレームワークを提案する。
季節ごとの時系列モデルをツリーベースの学習者とブレンドし、モンテカルロシナリオテストを実行してリスクエンベロープをマップし、制約付き最適化を解決する。
このフレームワークは,フラットな価格からダイナミックな価格への移行時期,CLVやMRRターゲットとの価格調整方法,倫理的ガードレールの組み込み方法など,戦略プレイブックとして機能する。
論文 参考訳(メタデータ) (2025-12-24T04:25:31Z) - Policy-Aligned Estimation of Conditional Average Treatment Effects [0.0]
マーケティング行動の条件付き平均治療効果(CATE)を推定する手法を提案する。
本手法は,標準利益問題における企業の目標機能を変更することにより,ほぼ最適のターゲティングポリシーを導出する。
論文 参考訳(メタデータ) (2025-12-15T14:51:02Z) - Order Acquisition Under Competitive Pressure: A Rapidly Adaptive Reinforcement Learning Approach for Ride-Hailing Subsidy Strategies [0.5717569761927883]
本稿では,高速競争適応(FCA)とRLA(Reinforced Lagrangian Adjustment)を提案し,競争相手の価格調整に迅速に適応する。
提案手法は,動的価格変動に対する迅速な対応を可能にする高速競争適応(FCA)と,予算制約の遵守を保証する強化ラグランジアン調整(RLA)の2つの重要な手法を統合する。
実験結果から,提案手法は多様な市場条件におけるベースラインアプローチを一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2025-07-03T02:38:42Z) - Generative Auto-Bidding with Value-Guided Explorations [47.71346722705783]
本稿では,GAVE(Value-Guided Explorations)を用いた新しいオフライン自動入札フレームワークを提案する。
2つのオフラインデータセットと実世界のデプロイに関する実験結果は、GAVEがオフライン評価とオンラインA/Bテストの両方で最先端のベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2025-04-20T12:28:49Z) - OptiGrad: A Fair and more Efficient Price Elasticity Optimization via a Gradient Based Learning [7.145413681946911]
本稿では,非生命保険市場の利益率を勾配降下法により最適化する新しい手法を提案する。
1)利益マージンの最大化、2)転換率の確保、3)人口比率(DP)などの公正基準の実施の3つの主要な目標を目標としている。
論文 参考訳(メタデータ) (2024-04-16T04:21:59Z) - Deep Reinforcement Learning and Mean-Variance Strategies for Responsible Portfolio Optimization [49.396692286192206]
本研究では,ESG状態と目的を取り入れたポートフォリオ最適化のための深層強化学習について検討する。
以上の結果から,ポートフォリオアロケーションに対する平均分散アプローチに対して,深層強化学習政策が競争力を発揮する可能性が示唆された。
論文 参考訳(メタデータ) (2024-03-25T12:04:03Z) - A predict-and-optimize approach to profit-driven churn prevention [1.03590082373586]
我々は,留保キャンペーンを顧客をターゲットとするタスクを,後悔の最小化問題として検討する。
提案手法は予測最適化(PnO)フレームワークのガイドラインと一致し,勾配降下法を用いて効率的に解ける。
結果は,他の確立した戦略と比較して,平均利益率で最高の平均性能を達成するアプローチの有効性を裏付けるものである。
論文 参考訳(メタデータ) (2023-10-10T22:21:16Z) - PARL: A Unified Framework for Policy Alignment in Reinforcement Learning from Human Feedback [106.63518036538163]
我々は、強化学習におけるポリシーアライメントの最近強調された重要な問題に対処するために、新しい統合された二段階最適化ベースのフレームワーク、textsfPARLを提案する。
本フレームワークは, 上向きの目標(逆設計)の分布を, 下向きの最適変数で明示的にパラメータ化することにより, これらの問題に対処する。
その結果,提案したtextsfPARL が RL のアライメントの懸念に対処できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-08-03T18:03:44Z) - Optimizing Credit Limit Adjustments Under Adversarial Goals Using
Reinforcement Learning [42.303733194571905]
我々は、強化学習技術を用いて最適なクレジットカード制限調整ポリシーを発見し、自動化することを模索する。
本研究は、信用限度調整に強化学習フレームワークを適用するための概念構造を確立する。
論文 参考訳(メタデータ) (2023-06-27T16:10:36Z) - When Demonstrations Meet Generative World Models: A Maximum Likelihood
Framework for Offline Inverse Reinforcement Learning [62.00672284480755]
本稿では, 専門家エージェントから, 一定の有限個の実演において観測された動作を過小評価する報酬と環境力学の構造を復元することを目的とする。
タスクを実行するための正確な専門知識モデルは、臨床的意思決定や自律運転のような安全に敏感な応用に応用できる。
論文 参考訳(メタデータ) (2023-02-15T04:14:20Z) - COptiDICE: Offline Constrained Reinforcement Learning via Stationary
Distribution Correction Estimation [73.17078343706909]
オフラインの制約付き強化学習(RL)問題。エージェントは、所定のコスト制約を満たしながら期待されるリターンを最大化するポリシーを計算し、事前に収集されたデータセットからのみ学習する。
定常分布空間におけるポリシーを最適化するオフライン制約付きRLアルゴリズムを提案する。
我々のアルゴリズムであるCOptiDICEは、コスト上限を制約しながら、利益に対する最適政策の定常分布補正を直接見積もる。
論文 参考訳(メタデータ) (2022-04-19T15:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。