論文の概要: A predict-and-optimize approach to profit-driven churn prevention
- arxiv url: http://arxiv.org/abs/2310.07047v2
- Date: Fri, 15 Dec 2023 20:37:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 19:57:05.226514
- Title: A predict-and-optimize approach to profit-driven churn prevention
- Title(参考訳): 利益主導型チャーン防止への予測・最適化アプローチ
- Authors: Nuria G\'omez-Vargas, Sebasti\'an Maldonado, Carla Vairetti
- Abstract要約: 我々は,留保キャンペーンを顧客をターゲットとするタスクを,後悔の最小化問題として検討する。
提案手法は予測最適化(PnO)フレームワークのガイドラインと一致し,勾配降下法を用いて効率的に解ける。
結果は,他の確立した戦略と比較して,平均利益率で最高の平均性能を達成するアプローチの有効性を裏付けるものである。
- 参考スコア(独自算出の注目度): 1.03590082373586
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we introduce a novel predict-and-optimize method for
profit-driven churn prevention. We frame the task of targeting customers for a
retention campaign as a regret minimization problem. The main objective is to
leverage individual customer lifetime values (CLVs) to ensure that only the
most valuable customers are targeted. In contrast, many profit-driven
strategies focus on churn probabilities while considering average CLVs. This
often results in significant information loss due to data aggregation. Our
proposed model aligns with the guidelines of Predict-and-Optimize (PnO)
frameworks and can be efficiently solved using stochastic gradient descent
methods. Results from 12 churn prediction datasets underscore the effectiveness
of our approach, which achieves the best average performance compared to other
well-established strategies in terms of average profit.
- Abstract(参考訳): 本稿では,利益主導型チャーン防止のための新しい予測最適化手法を提案する。
我々は,顧客をターゲットとした保留キャンペーンの課題を,後悔の最小化問題として捉えた。
主な目的は、個々の顧客寿命値(CLV)を活用して、最も価値のある顧客だけがターゲットであることを保証することである。
対照的に、多くの利益主導戦略は平均的なclvを考慮しながらチャーン確率に焦点を当てている。
これはしばしば、データ集約による重要な情報損失をもたらす。
提案モデルは予測最適化(pno)フレームワークのガイドラインに適合し,確率勾配降下法を用いて効率的に解くことができる。
12のチャーン予測データセットの結果は、平均利益の点で他の確立した戦略と比較して最高の平均パフォーマンスを達成する、我々のアプローチの有効性を強調するものです。
関連論文リスト
- Emulating Full Client Participation: A Long-Term Client Selection Strategy for Federated Learning [48.94952630292219]
本稿では,クライアントの完全参加によって達成されるパフォーマンスをエミュレートする新しいクライアント選択戦略を提案する。
1ラウンドで、クライアントサブセットとフルクライアントセット間の勾配空間推定誤差を最小化し、クライアントを選択する。
複数ラウンド選択において、類似したデータ分布を持つクライアントが選択される頻度に類似することを保証する、新しい個性制約を導入する。
論文 参考訳(メタデータ) (2024-05-22T12:27:24Z) - Metalearners for Ranking Treatment Effects [1.469168639465869]
政策の漸進的な利益曲線の下で、ランク付けの学習がいかにその領域を最大化できるかを示す。
政策の漸進的な利益曲線の下で、ランク付けの学習がいかにその領域を最大化できるかを示す。
論文 参考訳(メタデータ) (2024-05-03T15:31:18Z) - OptiGrad: A Fair and more Efficient Price Elasticity Optimization via a Gradient Based Learning [7.145413681946911]
本稿では,非生命保険市場の利益率を勾配降下法により最適化する新しい手法を提案する。
1)利益マージンの最大化、2)転換率の確保、3)人口比率(DP)などの公正基準の実施の3つの主要な目標を目標としている。
論文 参考訳(メタデータ) (2024-04-16T04:21:59Z) - Overcoming Reward Overoptimization via Adversarial Policy Optimization with Lightweight Uncertainty Estimation [46.61909578101735]
AdvPO(Adversarial Policy Optimization)は、人間からの強化学習における報酬過度最適化の問題に対する新しい解決策である。
本稿では,報酬モデルの最後の層埋め込みにのみ依存して,報酬の不確実性を定量化する軽量な手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T09:20:12Z) - Sample Complexity of Preference-Based Nonparametric Off-Policy
Evaluation with Deep Networks [58.469818546042696]
我々は、OPEのサンプル効率を人間の好みで研究し、その統計的保証を確立する。
ReLUネットワークのサイズを適切に選択することにより、マルコフ決定過程において任意の低次元多様体構造を活用できることが示される。
論文 参考訳(メタデータ) (2023-10-16T16:27:06Z) - Safe Collaborative Filtering [12.391773055695609]
本研究では、満足度が低いユーザに対して、推奨品質を優先する「安全な」協調フィルタリング手法を提案する。
我々は、最もスケーラブルな最小二乗(iALS)を暗黙的に交互に拡張する頑健で実用的なアルゴリズムを開発した。
実世界のデータセットに対する実証的な評価は、我々のアプローチの優れたテール性能を示す。
論文 参考訳(メタデータ) (2023-06-08T15:36:02Z) - Prediction-Oriented Bayesian Active Learning [51.426960808684655]
予測情報ゲイン(EPIG)は、パラメータではなく予測空間における情報ゲインを測定する。
EPIGは、さまざまなデータセットやモデルにわたるBALDと比較して、予測パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-04-17T10:59:57Z) - Structured Dynamic Pricing: Optimal Regret in a Global Shrinkage Model [50.06663781566795]
消費者の嗜好と価格感が時間とともに変化する動的モデルを考える。
我々は,モデルパラメータの順序を事前に把握している透視者と比較して,収益損失が予想される,後悔による動的価格政策の性能を計測する。
提案した政策の最適性を示すだけでなく,政策立案のためには,利用可能な構造情報を組み込むことが不可欠であることを示す。
論文 参考訳(メタデータ) (2023-03-28T00:23:23Z) - Probabilistically Robust Recourse: Navigating the Trade-offs between
Costs and Robustness in Algorithmic Recourse [34.39887495671287]
本稿では,達成された(反感)と所望のリコース無効率とのギャップを同時に最小化する目的関数を提案する。
我々は,任意のインスタンスに対応するリコース無効化率を特徴付けるために,新しい理論的結果を開発した。
複数の実世界のデータセットを用いた実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-03-13T21:39:24Z) - You May Not Need Ratio Clipping in PPO [117.03368180633463]
Proximal Policy Optimization (PPO) 法は、複数のミニバッチ最適化エポックを1組のサンプルデータで反復的に実行することでポリシーを学習する。
比率クリッピングPPOは、ターゲットポリシーとサンプル収集に使用されるポリシーの確率比をクリップする一般的な変種である。
本論文では, この比クリッピングが有効に結合できないため, 良好な選択ではないことを示す。
ESPOは、多くのワーカーによる分散トレーニングに簡単にスケールアップでき、パフォーマンスも高いことを示す。
論文 参考訳(メタデータ) (2022-01-31T20:26:56Z) - Supervised PCA: A Multiobjective Approach [70.99924195791532]
制御主成分分析法(SPCA)
本研究では,これらの目的を両立させる新しいSPCA手法を提案する。
この手法は、任意の教師付き学習損失に対応し、統計的再構成により、一般化された線形モデルの新しい低ランク拡張を提供する。
論文 参考訳(メタデータ) (2020-11-10T18:46:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。